Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cuestiones de Teledeteccin PDF
Cuestiones de Teledeteccin PDF
Teledetección
Daniel Rodríguez Pérez
Noela Sánchez Carnero
José Antonio Domínguez Gómez
Cristina Santa Marta Pastrana
Cuestiones
de Teledetección
www.uned.es/publicaciones
Los autores agradecen a la ESA, NASA y EUMETSAT sus políticas de cesión de imágenes
con fines educativos: sin ellas no sería posible un libro como éste. También agradecen a los
profesores James y Susan Aber, a Group 8 Technology y a los fondos de la Biblioteca Tomás
Navarro Tomás la cesión de imágenes para ilustrar alguna de las «cuestiones».
P REFACIO
0.1. Introducción
0.2. Cuestiones
8. La teledetección en España
0.5. Bibliografía
7
C UESTIONES DE TELEDETECCIÓN
8
ÍNDICE GENERAL
6. Resoluciones de un sensor
7. Resolución espacial
8. Resolución espectral
9. Bandas de un sensor
2.5. Bibliografía
3.1. Introducción
3.2. Cuestiones
3.3. Respuestas
4. La percepción de la luminosidad
5. La adaptación a la luz
6. El punto ciego
9. Modelos de color
3.5. Bibliografía
9
C UESTIONES DE TELEDETECCIÓN
10
ÍNDICE GENERAL
8. Máscaras binarias
5.5. Bibliografía
6.1. Introducción
6.2. Cuestiones
1. Transformaciones globales
3. Aritmética de bandas
5. Índices espectroscópicos
6. Máscaras lógicas/binarias
8. Interpolación
9. Detección de bordes
6.5. Bibliografía
11
C UESTIONES DE TELEDETECCIÓN
8.1. Introducción
8.2. Cuestiones
8.3. Respuestas a las cuestiones
1. Fotones y detectores
2. Magnitudes radiométricas
3. Radiancia y su significado
4. Reflectividad
12
ÍNDICE GENERAL
5. Radiancia espectral
6. Absorción atmosférica
7. Dispersión atmosférica
8. Corrección atmosférica
9. Corrección por objeto oscuro
10. Corrección atmosférica 6S
11. Corrección atmosférica por radiometría de campo
8.4. Conceptos importantes
8.5. Bibliografía
13
C UESTIONES DE TELEDETECCIÓN
11.1. Introducción
11.2. Cuestiones
11.3. Respuestas a las cuestiones
1. Longitud de onda de radar
2. Resolución espacial
3. S A R
4. Formación de una imagen radar
5. Polarizaciones
14
ÍNDICE GENERAL
6. Escala decibélica
7. L a S R T M
8. Altimetría radar
9. Interferometría radar
10. Medida del viento por dispersión
11.4. Conceptos importantes
11.5. Bibliografía
15
Prefacio
Cualquier titulado en una disciplina científica que trata de estudiar el medio ambiente
debe estar familiarizado con las metodologías y técnicas que permiten adquirir informa-
ción de éste. En los últimos 40 años, entre esas técnicas, la que más información nos ha
proporcionado sobre nuestro planeta ha sido la teledetección. La teledetección, tal como
se entiende en la actualidad, es una combinación de ciencia, tecnología e informática
puesta al servicio de un objetivo: conocer los componentes de una área geográfica visi-
bles desde la distancia. Esa área geográfica puede ser desde un accidente concreto hasta
el planeta entero. Y el concepto de visibilidad ha variado dramáticamente desde las pri-
meras imágenes obtenidas con cámaras de fotografía o televisión a las últimas imágenes
sintéticas del campo gravitatorio de la Tierra a partir de medidas indirectas hechas desde
el espacio. Todo ello, gracias al desarrollo científico y tecnológico de estos 40 años.
A pesar del gran avance de la tecnología de adquisición de imágenes, con senso-
res que ven cada vez más detalles y «colores» más allá de lo que el ojo humano puede
ver, el principal avance ha sido, sin duda, nuestra capacidad para gestionar, visualizar e
interpretar toda esa información. Es decir, ha sido la informática. En particular, la tele-
detección ha trabajado con imágenes o con otras señales que se pueden representar así.
Esto permite, por una parte, trabajar con conceptos intuitivos: ¿qué hay más intuitivo
que una imagen? También pone a disposición del investigador toda la potencia del pro-
cesamiento digital de imágenes, y así, la posibilidad de extraer información relevante de
esas imágenes.
17
C UESTIONES DE TELEDETECCIÓN
Los autores
Los autores del libro tienen perfiles diversos que reflejan la teledetección que se
describe en él.
Daniel Rodríguez Pérez y Cristina Santa Marta Pastrana somos profesores de Física
en la UNED, doctores en Ciencias con especialización, antes de llegar a la Teledetección,
en computación científica, el primero, y en imagen médica, la segunda; con perspectivas,
por lo tanto, teórica y práctica, cada uno.
18
P REFACIO
El texto se divide en 12 capítulos: uno inicial histórico (tema 0), dos sobre sensores
y plataformas (temas 1 y 4), otro sobre física de la teledetección (tema 2), tres sobre
imagen digital (temas 5 y 6) y otros tres sobre interpretación de imágenes (temas 7, 8
y 9), que formarían un temario clásico de teledetección; a estos se les suman un tema
sobre la visión humana (tema 3) y otro sobre el uso del radar en teledetección (tema 11).
Cada tema comienza planteando al lector el motivo de su inclusión en este libro: qué
buscamos que el estudiante aprenda en él y por qué. Luego se le plantean las preguntas
sobre cada tema a las que se debe enfrentar. Se ha procurado que sean preguntas de ac-
tualidad que motiven una investigación personal antes de que los autores respondamos
y demos los detalles: son preguntas con respuestas múltiples para interpelar al lector al
tiempo que le ayudan a entender lo que se le pregunta. Posteriormente, se responden las
preguntas de forma detallada. La explicación se ha enriquecido cuando ha sido posible
19
C UESTIONES DE TELEDETECCIÓN
con imágenes de teledetección, con esquemas elaborados por el equipo docente para ex-
plicar los conceptos tratados en el texto y con enlaces a material multimedia accesible
en Internet. Al final, se propone bibliografía y «webgrafía» para ampliarlos o para con-
tinuar la investigación, y se resumen los conceptos más importantes que deben quedar
claros tras el trabajo del tema. En un repaso de lo estudiado, se refiere al estudiante a los
diagramas conceptuales al inicio de cada tema.
20
Tema 0
Historia de la teledetección
GUION-ESQUEMA
La antigua teledetección
La teledetección analógica
Sat. meteorológicos
C UESTIONES DE TELEDETECCIÓN
1000000 m polares
Sat.
ambientales
100000 m
Aviones
Zeppelin
10000 m
ALTITUD
1000 m Palomas
Globos Cometas
100 m
Cometas
10 m humanas
0.1. INTRODUCCIÓN
0.2. CUESTIONES
1. La observación del enemigo desde una posición elevada ya era recomendada por
Sun Tzu en su “Arte de la guerra” (s. IV a.d.C.), pero ¿quién fue el primero en
elevar a un observador artificialmente para vigilar los movimientos del enemigo
en el campo de batalla?
2. ¿Cuál fue la primera técnica que se empleó para tomar una imagen a distancia?
a) la heliografía
b) el daguerrotipo
c) la fotografía en cristal
d) la fotografía en película
23
C UESTIONES DE TELEDETECCIÓN
a) los aviones
b) las palomas fotógrafas
c) los globos aerostáticos
d) los satélites artificiales
a) 1860
b) 1920
c) 1960
d) 1972
a) El cohete V-2
b) El satélite Sputnik
c) Yuri Gagarin
d) Gherman Titov
e) El satélite Landsat
24
H ISTORIA DE LA TELEDETECCIÓN
8. ¿En qué año se obtuvo por primera vez una cobertura completa del territorio es-
pañol por imágenes desde el aire?
a) 1901
b) 1946
c) 1956
d) 1977
9. ¿Cuál fue el primer planeta estudiado por los científicos desde una sonda en órbita
a su alrededor?
a) Mercurio
b) Venus
c) la Tierra
d) Marte
10. ¿En qué año y con que objetivos se lanzó el primer satélite español?
25
C UESTIONES DE TELEDETECCIÓN
Figura 1. Vista de Thaddeus Lowe ascendiendo en un globo (el “Intrepid”) para observar la batalla de
Seven Pines o Fair Oaks (fotografía de Mathew Brady, 1822-1896). Fuente: Wikimedia Commons.
1. Laobservacióndelenemigodesdeunaposiciónelevadayaerarecomendada
porSunTzuensu“Artedelaguerra”(s.IVa.d.C.),pero¿quiénfueel
primeroenelevaraunobservadorartificialmenteparavigilarlosmovimientos
delenemigoenelcampodebatalla?
Respuesta: (a) La primera noticia histórica de seres humanos que se elevan por encima
del suelo empleando una tecnología de vuelo con el objetivo de ver a distancia y
transmitir información de lo observado, data del s. IV a.C. en China, una solución
dada por el filósofo/inventor Kung Shu P’an, en la época de los estados guerreros
chinos.
Como con tantas otras tecnologías, el primer uso de la teledetección fue bélico. Si
por teledetección entendemos el conjunto de técnicas necesarias para poder realizar ob-
servaciones de objetos lejanos, la primera aproximación, dada la curvatura y el relieve
de la Tierra, es elevarse por encima de su superficie para alcanzar a ver esos objetos.
26
H ISTORIA DE LA TELEDETECCIÓN
Figura 2. Fotografías de la Escuela Práctica de Aerostación Militar de Guadalajara en 1900. Globos Marte
y Venus llenos de gas hidrógeno poco antes de su ascensión libre. Fotografía de la ciudad de Guadalajara
tomada desde los globos (La ilustración Española y Americana, Nº XLIV. pág. 310). Fuente: CSIC,
CCHS, Biblioteca Tomás Navarro Tomás.
Al parecer, fueron los chinos los primeros en poner esto en práctica, mediante el uso
de grandes cometas, a las que iba asido una persona. Según el historiador chino Lu Tien
las empleó el filósofo/inventor Kun Shu P’an en el s. IV a.C. durante el asedio que sufrió
la ciudad de Sung, para elevar hombres y que viesen por encima de las murallas.
No obstante, la primera forma efectiva de elevarse sobre la superficie terrestre, en
unas condiciones más o menos controlables, fueron los globos aerostáticos basados en
calentar el aire para que el empuje de Arquímedes lo haga ascender, junto con el reci-
piente que lo alberga (el globo). Aunque el primer uso de los globos aerostáticos fue
puramente lúdico (los hermanos Mongolfier), pronto se emplearon como puestos de ob-
servación de las posiciones del enemigo (batalla de Fleurus, 1794).
Bastante tiempo después, el científico Thaddeus Lowe (EE.UU.) los empleó para
estudios meteorológicos, pero al iniciarse la guerra de secesión americana, fue nombrado
director del cuerpo de globos aerostáticos que servían de apoyo de inteligencia a las
tropas de la unión; se formaron así los Cuerpos de Globos del Ejército de la Unión
(en 1861). Los globos, anclados a tierra, transmitían a través de un cable telegráfico
las observaciones a tierra. Como se ve, cada vez se buscaba aumentar la cantidad de
información enviada desde el punto elevado de observación a la “estación receptora” en
tierra, una tendencia que ha seguido hasta la actualidad.
Como en otros países, también en España se creó (en 1884) el Servicio de Aero-
estación Militar, especializado en el uso de los globos aerostáticos para la observación
de territorios en conflicto. Su primera campaña importante fue en 1909, cuando hizo
un vuelo de reconocimiento de Marruecos antes de la Guerra (1911-1927). Posterior-
27
C UESTIONES DE TELEDETECCIÓN
2. ¿Cuál fue la primera técnica que se empleó para tomar una imagen a
distancia?
Respuesta: (a) La heliografía fue inventada por Niepce en 1826, mientras experimenta-
ba con técnicas de litografía, es decir, de copia de imágenes. Todavía se conserva
la primera imagen, impresa sobre una placa de cobre, que captó desde la ventana
de su casa de campo.
28
H ISTORIA DE LA TELEDETECCIÓN
Figura 3. La primera fotografía que se conserva de una escena natural, tomada por Joseph Nicéphore
(Niépce). La imagen, tomada en 1826 o 1827 muestra la vista de la finca de Niépce, en región francesa de
la Burgundia, vista desde la ventana de su laboratorio. Fuente: Wikimedia Commons.
Esta fue la primera fotografía. Al ser la fuente de luz el sol, Niepce la bautizó como
heliografía. El proceso fue mejorado posteriormente por Niepce y Daguerre, empleando
una emulsión de yoduro de plata en aceite de oliva sobre una placa de cobre, en lugar del
betún de Judea (el revelado no era tan simple como lavar esta emulsión, e involucraba
el uso del peligroso vapor de mercurio); el proceso, utilizando ya una cámara dotada de
una lente convergente (en lugar del pequeño agujero), se denominó Daguerrotipo. No
obstante, tomar una imagen requería todavía tiempos muy prolongados (5 a 40 minu-
tos). Por ello, muchas de las primeras imágenes que se obtuvieron fueron de paisajes. Es
de notar que estos procesos producían fotografías positivas, es decir, que los materiales
empleados se aclaraban allí donde daba la luz y permanecían oscuros donde no daba.
A partir de 1840, con la invención del calotipo, aparece el “negativo”: la virtud de
este negativo es que permitía reproducir la fotografía por el mismo medio. Las placas
fotográficas, durante mucho tiempo consistieron en una placa de vidrio recubierta por
la emulsión fotosensible en la que se formaba el negativo. Estas placas de cristal se si-
guieron empleando durante mucho tiempo (¡hasta los años 1980!) en ámbitos científicos,
porque permitían más resolución, eran más sensibles a la luz y eran más fidedignas para
conservar las distancias entre objetos fotografiados que las otras tecnologías (película
fotográfica, imagen digital).
No sería hasta el s. XX, que se llegó a la fotografía que conocíamos hace unos años
(antes del “boom” digital): la fotografía de película. La primera película fotográfica,
introducida por Eastman (en 1885) era una tira de papel cubierta con una emulsión de
29
C UESTIONES DE TELEDETECCIÓN
Figura 4. San Francisco fue devastado por un gran terremoto al que siguieron una serie de incendios, en
1906. Unas seis semanas tras el desastre George R. Lawrence tomó esta fotografía desde una cámara
elevada por una cometa unos 300 m sobre la bahía. Fuente: colección de impresiones y fotografías de la
librería del Congreso de los Estados Unidos.
sales de plata. Las sales de plata se reducen al ser expuestas a la luz, lo que las hace
opacas; este estado se puede fijar posteriormente durante el revelado. Este principio se
sigue utilizando hoy en día, aunque cada vez menos con la irrupción de los sistemas de
fotografía digital.
La fotografía ha sido la herramienta fundamental en teledetección (de hecho se sigue
hablando de fotogrametría, literalmente “medida sobre el fotograma”) hasta finales de
los años 1950, en los que se empezó a utilizar cámaras electrónicas. Se debe tener en
cuenta que la revolución electrónica no comienza hasta 1948, año de la invención del
transistor.
Respuesta: (c) Como ya se comentó más arriba, las primeras plataformas elevadas de
observación, más o menos controlables, fueron los globos aerostáticos (de aire
caliente). No es de extrañar que algunas de las primeras fotografías de paisajes
desde el aire se tomasen desde ellos.
En particular, la primera fotografía fue tomada en París por el francés Gaspard Felix
Tournachon, conocido como Nadar, en 1858 (aunque esta fotografía no se conserva). No
30
H ISTORIA DE LA TELEDETECCIÓN
Figura 5. Palomas fotógrafas del Cuerpo Bávaro de palomas del ejército Alemán. Fuente: colección de
impresiones y fotografías de la librería del Congreso de los Estados Unidos.
obstante, estas fotografías no tenían como objetivo más que mostrar lo que se veía, o
dejar constancia de que se había visto.
Para obtener estas primeras imágenes aéreas, y como en el caso de la observación
directa, también se emplearon cometas. Es particularmente famosa la fotografía de San
Francisco 6 semanas después del terremoto de 1906, tomada desde una cometa anclada
sobre la bahía, en la que se pueden ver los destrozos del seísmo de magnitud 8 y el
incendio que lo siguió. De nuevo, esta fotografía fue hecha con interés periodístico, y no
científico o para la gestión del desastre.
Pero tanto globos como cometas requerían condiciones de observación ideales. In-
cluso, en un principio, el tamaño de las cámaras y el tiempo de exposición requerido para
tomar fotografías eran un problema: las fotografías salían movidas. Según se mejoró la
sensibilidad de la placa y se mejoró la mecánica de la cámara fotográfica, se pudieron
utilizar otras plataformas más móviles. Quizás las más originales fuesen las palomas
mensajeras del Cuerpo Bávaro de palomas del ejército Alemán (las palomas mensaje-
ras se emplearon hasta la II Guerra Mundial para la transmisión de mensajes cifrados).
Con pequeñas cámaras colocadas sobre el peto de los animales, que se disparaban au-
tomáticamente a intervalos de 30 minutos durante el vuelo, se obtenían fotografías que
posteriormente eran interpretadas, conociendo la ruta que éstas seguían. Aunque origi-
nariamente un invento con orientación militar, acabaron siendo objeto de exposición en
31
C UESTIONES DE TELEDETECCIÓN
Respuesta: (b) La primera transmisión que podríamos considerar digital de una ima-
gen (esto es, con puntos y niveles de brillo discretos), se llevó a cabo en 1920.
32
H ISTORIA DE LA TELEDETECCIÓN
Figura 6. La primera imagen almacenada digitalmente fue esta fotografía escaneada del hijo de Walden
Kirsch, director del grupo de imagen del NIST en 1957, quienes también desarrollaron el primer escáner.
Fuente: National Institute of Standards and Technology.
nal al brillo en la hoja a escanear), pero aún así, muy lenta: se requería del orden de
una hora para “escanear” una cuartilla de papel. Estas máquinas son las antecesoras de
los Facsímiles (o Faxes) que se utilizaban hasta no hace mucho (si bien, éstos ya eran
verdaderamente digitales).
Pero, la primera transmisión de una imagen “digital”, que combinaba las dos tec-
nologías –telegráfica y digital– fue en 1920 y fue ideada por Harry G. Bartholomew y
Maynard D. McFarlane, por lo que se llamó sistema Bartlane. Sus inventores trabajaban
para el periódico londinense Daily Mirror y el principal uso fue la transmisión trasatlán-
tica de imágenes por línea telegráfica entre Reino Unido y Estados Unidos. El sistema
Bartlane “cuantizaba” el brillo de cada “punto” de la imagen en 5 posibles valores, que
se transmitían telegráficamente; en el otro extremo, una “impresora” convertía los va-
lores transmitidos en “caracteres” de tamaños distintos, que reproducían el brillo de la
imagen transmitida. Todo el proceso llevaba menos de 10 minutos por imagen.
No obstante, la primera imagen realmente digital (es decir, manipulable como infor-
mación por un ordenador) fue la escaneada, almacenada y reproducida por Russell A.
Kirsch en 1957 usando el ordenador SEAC (Standards Eastern Automatic Computer)
del NIST (National Institute for Standards and Technology), el primer ordenador que
realizaba las operaciones íntegramente con componentes electrónicos. Esta imagen, es-
33
C UESTIONES DE TELEDETECCIÓN
caneada de una fotografía de su hijo pequeño de 3 meses, contenía 176 × 176 elementos
(píxels, picture elements). Este tamaño hoy puede parecer pequeño y extraño, pero esta-
mos hablando de una época en la que los ordenadores tenían memorias de 512 valores
o “palabras” (es decir, cada línea de la imagen consumía más de la cuarta parte de la
memoria), cada una de 45 bits (las habituales hoy en día son de 32 o 64 bits). La tecno-
logía desarrollada por Kirsch y su grupo marcó el inicio de la tecnología de imágenes
que emplearía la NASA en la década de los 1960. Esas imágenes sí serían utilizadas para
teledetección.
Respuesta: (a) La primera imagen de la Tierra desde el espacio (esto es, desde fuera
de la atmósfera), en la que se puede observar la curvatura de ésta y algunos
detalles de su superficie, fue tomada por una cámara automática desde un cohete
experimental V-2, en los inicios de la carrera espacial.
El programa espacial estadounidense comenzó en los años 1920 con el físico Robert
Goddard, pionero en el diseño de cohetes, inventor de los cohetes multifase (como los
empleados décadas más tarde en la carrera espacial) y científico ingenuo que, poco antes
del comienzo de la II Guerra Mundial, todavía respondía a las consultas que le enviaban
los ingenieros alemanes. Cuando comenzó la contienda, advirtió de lo peligroso que
sería el uso de estos cohetes por los alemanes; así sucedió, fueron las eficientes bombas
V-2. Al finalizar la II Guerra mundial, los diseños fueron llevados desde Alemania por
científicos disidentes como Wernher Von Braun, “acogidos” por Estados Unidos. Varios
grupos dependientes del ejército estadounidense, como el Jet Propulsion Laboratory,
inicialmente en el California Institute for Technology (Cal Tech), bajo la dirección de
Theodore Von Karman, continuaron con la carrera espacial basándose en los cohetes
V-2. Uno de esos grupos, del laboratorio de física aplicada de la Universidad Johns
Hopkins, trabajando en el centro de pruebas de misiles de White Sands, colocó una
pequeña cámara de cine en uno de los misiles V-2 que probaban. El misil ascendió hasta
unos 800 km y cayó. La cámara se pudo recuperar (aunque destrozada) y con ella algunos
fotogramas de la película que se “pegaron” para obtener el primer panorama de la Tierra
vista desde el espacio.
El satélite Sputnik fue lanzado por la Unión Soviética en 1957. Sin restar importancia
al logro de enviar un cohete fuera de la atmósfera terrestre y de colocar el satélite en
órbita, lo único que éste hacía era emitir una señal radiofónica que podía ser detectada
desde tierra. El equivalente estadounidense sería el Explorer I, lanzado a principios de
34
H ISTORIA DE LA TELEDETECCIÓN
Figura 7. Panorama de la Tierra vista desde la cámara a bordo del cohete V-2, donde se puede ver la silueta
de la Tierra sobre el negro del espacio. El ingeniero Clyde Holliday, que construyó la cámara y pegó los
fotogramas en este panorama, escribió en la revista National Geographic (en 1950) “[así sería] como
verían nuestra Tierra los visitantes que viniesen desde otro planeta en una nave espacial” (National
Geographic, vol. XCVIII, no. 4, págs. 524-525). Fuente: Arxiv.org
1958, aunque con una órbita defectuosa que hizo que durase poco. El primer satélite
artificial en tomar una imagen de la Tierra sería un sucesor de éste, el Explorer VI de la
NASA, en 1959, y el primero en hacerlo de forma periódica fue el satélite meteorológico
TIROS-I, lanzado en 1960. Las imágenes se tomaban en estos satélites mediante sensores
vidicon, básicamente, cámaras de televisión modificadas, y se transmitían a tierra como
señales de TV. Obsérvese que la primera transmisión de televisión comercial vía satélite
data de 1962, gracias al satélite Telstar de AT&T.
En 1961, la Unión Soviética lanzó en la cápsula Vostok 1 al primer cosmonauta:
Yury Gagarin. La cápsula de Gagarin, minúscula, orbitó la Tierra una vez (llegando a
unos 310 km de altura) y cayó a tierra 108 minutos después de su lanzamiento. Gagarin
vio y describió la Tierra a la estación de Baikonur por radio, pero no tomó fotografías.
Ese mismo año, Gherman Titov se convirtió en el segundo astronauta; a bordo de la
cápsula Vostok 2, orbitó la Tierra 17 veces a 220 km de altitud, permaneciendo 25 horas
en el espacio. Curiosamente, Titov es poco conocido, a pesar de que él sí tomó imágenes
con una cámara de cine, siendo el primer “fotógrafo espacial”.
35
C UESTIONES DE TELEDETECCIÓN
Los satélites Landsat son muy posteriores: de la década de 1970 y siguientes (el pro-
grama continúa hasta nuestros días). Fueron los primeros satélites de uso civil, diseñados
para tomar imágenes periódicas de la Tierra con objetivos puramente científicos.
36
H ISTORIA DE LA TELEDETECCIÓN
Figura 8. Modelo de un grabador de cinta magnética semejante al del satélite TIROS (Television Infrared
Observation Satellite) I, el primer satélite meteorológico, lanzado en 1960. El instrumento estaba diseñado
para grabar las imágenes de televisión captadas por el sensor y luego, al pasar sobre una estación receptora
de Tierra, reproducirlas y transmitirlas. Fuente: Smithsonian National Air and Space Museum.
aviones. Llama la atención que en las imágenes de esos satélites, ya en 1972, se pudie-
sen distinguir objetos de 1.6 m y con visión estereoscópica. . . aunque tanto las imágenes
como las técnicas de visualización fuesen todavía analógicas.
Respuesta: (b) Los productos de alta resolución (del orden de un metro o inferior) sue-
len ser distribuidos por empresas privadas que poseen satélites en órbitas bajas
dedicados a la adquisición de dichas imágenes.
37
C UESTIONES DE TELEDETECCIÓN
incluidos y del procesamiento que éstos han requerido). Por supuesto, los satélites mi-
litares es de esperar que proporcionen imágenes de mucha mayor resolución: en 1972
ya proporcionaban detalles del orden de 1 m. Obviamente, estas imágenes no están en
venta.
Por otra parte, las agencias públicas tienden, cada vez más, a cubrir los objetivos
de investigación orientados al medio ambiente local o incluso global. Así, los satélites
meteorológicos (con resoluciones de kilómetros), oceanográficos (con resoluciones de
centenares de metros) o de recursos de la tierra (con resoluciones de decenas de metros)
son de agencias públicas nacionales (como la NASA) o internacionales (como la ESA).
Existen, por supuesto, excepciones como los satélites PROBA de la ESA, unos satélites
experimentales con el sensor CHRIS, capaz de captar imágenes con 17 m de resolución.
Los grupos de investigación universitarios, suelen participar dentro de los programas
de estas agencias (nacionales), aunque también cooperan con las empresas privadas; un
caso aquí en España es el laboratorio de Teledetección de la Universidad de Valladolid
que colabora con Deimos Imaging.
8. ¿En qué año se obtuvo por primera vez una cobertura completa del territorio
español por imágenes desde el aire?
Respuesta: (b) El primer vuelo fotogramétrico con cobertura completa del territorio
español, fue el vuelo del Army Map Service de los EE.UU. que se llevó a cabo
durante los años 1945-1946.
38
H ISTORIA DE LA TELEDETECCIÓN
Entre febrero de 1945 y septiembre de 1946, el Army Map Service (AMS) de los Es-
tados Unidos (organismo encargado de la producción y suministro de cartografía militar
al Departamento de Defensa de EE.UU.) motivado por el papel estratégico de España en
una Europa en conflicto y después de 5 años trabajando en la generación y corrección
de cartografía española, realizó el primer vuelo en aeroplano de cobertura nacional. Las
imágenes fueron tomadas a una altitud entre los 5700 y 8800m, obteniéndose un valor
medio de escala de 1:44000. Este vuelo fue conocido como “Serie A”.
Diez años más tarde, en 1953, se establecieron acuerdos militares entre España y
USA, que dieron lugar al asentamiento de bases militares americanas en España y per-
mitieron la realización de un segundo vuelo de cobertura nacional entre marzo de 1956
y septiembre de 1957, en colaboración con el Servicio Geográfico del Ejército (SGE)
y el Instituto Geográfico Nacional (IGN). Este vuelo fue conocido como “Serie B” o
“Vuelo americano de 1956”. Las imágenes fueron tomadas a unos 5000 km de altitud,
obteniéndose cerca de 60000 fotograma en blanco y negro de unos 42 km2 , produciendo
imágenes a una escala de 1:33000.
Este vuelo, de nuevo, tenía un interés puramente militar. Europa estaba inmersa en
la Guerra Fría y había temor a una invasión europea por parte de la antigua URSS, lo
que colocaba a la Península Ibérica en una posición estratégica fundamental: en caso de
conflicto militar, el conocimiento del terreno y la ubicación de las bases era primordial.
Un tercer vuelo que dio lugar a la una “Serie C” fue realizado entre 1967 y 1968 por
el Centro Cartográfico y Fotográfico del Ejército del Aire (CECAF), aunque no cubrió
todo el territorio nacional.
39
C UESTIONES DE TELEDETECCIÓN
Figura 9. Izquierda: Escena del vuelo de Ruiz de Alda sobre el puerto de Torrevieja (1930); Derecha:
Pequeño fragmento de escena del “vuelo americano” (Serie A) (1946) colocada sobre el mismo marco que
la anterior. Obsérvese la aparición del dique de levante, que se finalizaría definitivamente en 1948. Fuente:
Instituto Geográfico Nacional.
Ejército (SGE) entre 1984 y 1985. A estos se han unido vuelos con coberturas parciales
y objetivos concretos como el realizado por la Dirección General de Costas entre 1989
y 1990, que cubre el litoral nacional. En la actualidad, muchas comunidades autónomas
realizan vuelos para la obtención de fotografías detalladas de su territorio.
Muy recientemente, en septiembre de 2011, los vuelos americanos pasaron a depen-
der del Instituto Geográfico Nacional con el fin de convertirse en información pública,
siguiendo la tendencia actual de las administraciones de liberar toda esta información
cartográfica para maximizar su aprovechamiento.
9. ¿Cuál fue el primer planeta estudiado por los científicos desde una sonda en
órbita a su alrededor?
Respuesta: (b) El primer planeta sobre el que se situó un satélite en órbita para su
estudio fue Marte: el Mariner 9 de la NASA, en 1971.
40
H ISTORIA DE LA TELEDETECCIÓN
1959 comenzó el “Programa Luna” soviético que logró sobrevolar la Luna en enero de
1959 (sonda Lunik 1) y alunizar por primera vez en 1966. El hombre llegaría a la Luna
tres años después, el 21 de julio de 1969.
Paralelamente a los esfuerzos por llegar a la Luna, ambas potencias miraban también
hacia el planeta más cercano a la Tierra: Venus (~42M km). La antigua URSS lanzó sus
primeras sondas interplanetarias en 1961: Sputnik 7 y Venera 1, pero no tuvieron éxito
en su viaje hacia Venus (aunque Venera 1 consiguió acercarse hasta unos 100K km del
planeta). EE.UU. lanzó su primera sonda con destino Venus (el Mariner 1) el 22 de
julio de 1962, pero no estuvo en el aire mucho más de 5 minutos. Un mes después, el
27 de agosto de 1962 se lanzó la Mariner 2 que se acercó a 34K km de Venus (algo
menos que la distancia Tierra-Luna), desde donde envió información sobre la atmósfera
y la superficie del planeta durante unas horas. Esta sonda mostró la presencia de nubes
frías sobre la superficie caliente del planeta. A éste le siguieron muchos intentos rusos
(Sputnik 20, Sputnik 21, Cosmos 21, Cosmos 27, etc.) que no tuvieron éxito.
Dentro del Programa Mariner se siguieron enviando sondas (10 sondas entre el año
1962 y el 1973) tanto al planeta Venus como al planeta Marte. La primera sonda del
programa que consiguió llegar a acercarse a Marte (Mariner 4) fue lanzada en 28 de
noviembre de 1964, aunque dos años antes ya lo había hecho la sonda soviética Mars 1.
El Mariner 4 envió las primeras fotografías de Marte. A pesar de que numerosas sondas
llegaron a ambos planetas años antes, no se puede hablar de que una sonda orbitase otro
planeta hasta que en noviembre de 1971 la nave Mariner 9 orbitó por primera vez el
planeta Marte.
41
C UESTIONES DE TELEDETECCIÓN
Figura 11. Primera imagen transmitida desde el módulo de aterrizaje de la misión Venera-9 soviética.
Fuente: NASA.
10. ¿En qué año y con que objetivos se lanzó el primer satélite español?
Respuesta: (a) El primer satélite español fue el INTASAT, un microsatélite con propó-
sitos científicos y de demostración, lanzado en 1974.
42
H ISTORIA DE LA TELEDETECCIÓN
A principios de los años 1970, la industria aeroespacial estaba dominada por EE.UU. y
la URSS, los dos países que antes habían puesto satélites en órbita; el tercero, había sido
Canadá, con su Alouette-1. No obstante, sólo EE.UU. y la URSS habían llevado hombres
al espacio y competían entre ellos en la carrera espacial. Los países de Europa comen-
zaron entonces a ser conscientes de los beneficios de la carrera espacial y, como primer
paso, fundaron la ESRO (European Space Research Organisation), antecesora de la ac-
tual ESA (European Space Agency), para aunar esfuerzos y recursos en la fabricación de
satélites; simultáneamente, los diferentes países planificaban programas nacionales para
desarrollar tecnologías espaciales propias.
En España, la Comisión Nacional de Investigación en el Espacio (CONIE) desa-
rrolló un programa quinquenal en el que se incluía la construcción de un satélite, el
INTASAT. Este pequeño satélite (24,5 kg) fue desarrollado por el INTA (Instituto Na-
cional de Tecnologías Aerospaciales) en colaboración con Construcciones Aeronáuticas
(CASA), Estándar Eléctrica (actualmente Alcatel), la compañía inglesa Hawker Siddely
Dynamics (HSD) y la NASA. El INTASAT fue puesto en órbita el 15 de noviembre de
1974 (casi 17 años después del lanzamiento del Sputnik) por un cohete DELTA de la
NASA, con una vida útil de 2 años. Su misión científica era estudiar los electrones en
la ionosfera mediante el efecto Faraday (que sufren las ondas de radio al pasar por es-
ta capa conductora de la atmósfera). Además llevaba un experimento tecnológico que
consistía en medir los efectos de la radiación cósmica en componentes electrónicos de
tecnología C-MOS. A este primer microsatélite le siguieron los UPM-Sat (1995), Mini-
sat (1997), Nanosat (2004) y Xatcobeo (2012), satélites también de carácter científico y
experimental.
En 1992, se puso en órbita el satélite Hispasat, el primer satélite español de teleco-
municaciones (30 años después del Telstar de AT&T, el primero usado en transmisión
de señal de televisión vía satélite), para dar servicios a España e Iberoamérica. En 2009
se lanzó el primer satélite español de carácter privado, Deimos-1, orientado a un am-
plio espectro de aplicaciones ambientales: agricultura, monitorización y control de fue-
gos, vertidos, etc. Ha sido seguido por Deimos-2, lanzado en junio de 2014, que busca
continuar la misión de Deimos-1; en el momento de su puesta en funcionamiento, era
el satélite europeo de observación remota (en el sector privado) que proporcionaba las
imágenes de más detalle. Actualmente España participa con fondos públicos en el desa-
rrollo de nuevos satélites artificiales de observación de la Tierra que formarán parte de la
iniciativa europea GMES (Global Monitoring for Environment and Security, Vigilancia
Global para el Medio ambiente y la Seguridad): SEOSat/Ingenio y SEOSar/Paz.
43
C UESTIONES DE TELEDETECCIÓN
ESA (European Space Agency, Agencia europea del espacio) Organización internacio-
nal de investigación espacial a la que pertenecen todos los estados de la Unión Eu-
ropea y algunos otros que participan mediante acuerdos de cooperación. Su sede
central se encuentra en París, aunque tiene centros dedicados a tareas específi-
cas en otros países miembros de la organización y oficinas de enlaces en Rusia y
EE.UU.
fotografía analógica Técnica (y producto de ésta) que consiste en modificar el esta-
do químico de una placa mediante la luz (a través de reacciones de oxidación-
reducción inducidas por la energía de ésta) para hacer permanente sobre dicha
placa la imagen proyectada por esa iluminación. Es analógica porque el grado de
cambio en cada punto de la placa, que depende de la cantidad de luz incidente (es
decir, de la intensidad de ésta y del tiempo de exposición a ella) varía de forma
continua, y no discretamente.
fotografía digital Técnica (y producto de ésta) que consiste en registrar mediante de-
tectores electrónicos la energía de la luz incidente en ellos y almacenar o transmitir
en forma de números enteros (codificados en formato binario) valores proporcio-
nales a esta energía. Es digital por usar una representación entera (en dígitos) de
una magnitud no entera, la energía luminosa.
globo aerostático Globo relleno de un gas más ligero que el aire atmosférico (en sus
inicios, aire caliente, después hidrógeno y, en la actualidad, helio) que se mantiene
elevado por flotación. En teledetección proporciona un punto de vista elevado y
estacionario (su movimiento es lento en ausencia de corrientes rápidas de aire).
44
H ISTORIA DE LA TELEDETECCIÓN
0.5. BIBLIOGRAFÍA
C.T. Holliday (1950). “Seeing the Earth from 80 miles up”. The National Geo-
graphic Magazine, vol. XCVIII, no. 4, págs. 511-528.
L. Urteaga González, F. Nadal i Piqué, J.I. Muro Morales (2009). “Los mapas de
España del Army Map Service, 1941-1953”. Ería, 51: 31-43.
45
C UESTIONES DE TELEDETECCIÓN
46
H ISTORIA DE LA TELEDETECCIÓN
47
C UESTIONES DE TELEDETECCIÓN
The first photograph — Harry Ransom Center (The University of Texas at Austin)
URL: http://www.hrc.utexas.edu/exhibitions/permanent/firstphotograph/
Exposición de la placa metálica que contiene la reproducción fotográfica más anti-
gua conservada, obtenida por Joseph Nicéphore alrededor de 1826-1827. Se puede
ver una explicación de los elementos débilmente visibles en la página:
http://www.hrc.utexas.edu/exhibitions/permanent/firstphotograph/look/elements/
48
Tema 1
GUION-ESQUEMA
Teledetección aerotransportada
Teledetección satelital
Otra teledetección
50
GPS
Órbita polar S. meteorológicos
Heliosíncrona
C UESTIONES DE TELEDETECCIÓN
S. ambientales
Plataforma
Órbita ecuatorial
Geoestacionaria
S. telecomunicaciones
S. meteorológicos Sensor
Enfoque
Analizador
P UNTOS DE VISTA . P LATAFORMAS
1.1. INTRODUCCIÓN
Este tema trata de los soportes desde los que se lleva a cabo la teledetección. Como se
mencionó en el tema sobre la historia de la teledetección, las plataformas de observación
han evolucionado históricamente llegando cada vez más alto: desde puntos accesibles
a pie sobre el terreno, hasta las órbitas geostacionarias de los satélites meteorológicos
(por no mencionar los satélites de exploración planetaria, que también llevan a cabo
teledetección). En este tema se tratan estos diferentes puntos de vista.
El punto de vista más próximo es nuestra propia mano o un trípode sosteniendo una
cámara de fotografía. Esta sencilla plataforma permite examinar dos de los problemas
comunes a todas las plataformas: su orientación y su distancia respecto al objeto remoto
que se quiere estudiar. El siguiente paso en altura son las plataformas aerotransportadas.
Los aviones ligeros son los más utilizados para adquirir datos de alto detalle (por su
poca altura) en fechas programadas y bajo condiciones, hasta cierto punto, controladas.
Los aviones presentan el problema de la altura de vuelo y el movimiento (de cabeceo,
alabeo y guiñada), que se vuelve a traducir en un problema de distancias y ángulos. Un
paso más allá es la teledetección satelital (la más habitual en la actualidad). Los satélites
artificiales se mantienen en órbitas alrededor de la Tierra, caracterizadas por su altura
e inclinación, que determinan el tiempo de visita. En la actualidad existen diferentes
programas espaciales de observación de la Tierra, entre los que se encuentran los de
la ESA y la NASA, pero también los de otras agencias nacionales y privadas. Cada
programa tiene unos objetivos y unas políticas de distribución de datos, que conviene
conocer para escoger los más adecuados para nuestras necesidades.
1.2. CUESTIONES
1. Cuando se hace una fotografía de una escena, la relación entre las distancias entre
tres objetos sobre la imagen tomada depende de:
51
C UESTIONES DE TELEDETECCIÓN
52
P UNTOS DE VISTA . P LATAFORMAS
7. Cuando se adquiere una imagen de satélite, entre la información que se nos ofrece
está si el satélite se halla en su “paso ascendente” o en su “paso descendente”.
¿Qué quiere decir esto? ¿Y para qué sirve?
53
C UESTIONES DE TELEDETECCIÓN
54
P UNTOS DE VISTA . P LATAFORMAS
a) los satélites de las dos series llevan sensores distintos que proporcionan in-
formación complementaria
b) los satélites de las dos series se hallan a diferentes distancias, de modo que
proporcionan resoluciones espaciales y temporales complementarias
c) la serie Meteosat es continuación de la serie histórica de satélites meteoroló-
gicos de la ESA, mientras que los Metop buscan colaborar con los satélites
de órbita polar de la NOAA de EE.UU.
d) todas las anteriores
1. Cuando se hace una fotografía de una escena, la relación entre las distancias
entre tres objetos sobre la imagen tomada depende de:
Respuesta: (a) Las relaciones entre las distancias entre objetos en una fotografía de-
penden del ángulo que forme el plano que los contiene con la dirección de ob-
servación de la cámara: si ese plano gira, alguno o algunos de los ángulos del
triángulo que definen los tres objetos se abrirá, aparentemente, mientras que otro
u otros se cerrarán. Esto cambia las proporciones de las distancias entre objetos.
Una fotografía nos muestra la proyección de los rayos de luz que llegan al objetivo sobre
el plano de enfoque, es decir, lo que se plasma en la película fotográfica o en el chip
CCD (esto es, en el elemento sensible de la cámara) es una imagen proyectiva de la
escena real formada por el sistema óptico de ésta. Luego esa imagen la vemos ampliada
en papel fotográfico o en la pantalla de un ordenador. En cualquier caso, pasamos de una
escena tridimensional a una versión en dos dimensiones, por lo que cierta información
se pierde: la profundidad.
Podemos ver, de manera simplificada, la formación de una imagen como en la si-
guiente figura (figura 1.1), una analogía de las primeras “cámaras oscuras” (habitaciones
en las que la luz exterior entraba sólo por un pequeño orificio). Los rayos procedentes
de los distintos puntos del objeto fotografiado pasan por el centro óptico del objetivo
55
C UESTIONES DE TELEDETECCIÓN
Objetos
Plano de Aumentos
la imagen
x1,5
(normalmente una lente, pero puede ser un espejo cóncavo, o un espejo oscilante, u otro
dispositivo que direccione los rayos de luz) y llegan a una pantalla. En ella forman la
imagen, normalmente invertida. En esta imagen sólo se ven aquellos objetos (o se pue-
den medir aquellas distancias) contenidas en planos paralelos a la pantalla; una hoja de
papel colocada perpendicularmente al plano de la imagen (paralela al eje óptico de la
cámara) no se vería apenas en la imagen. Por lo tanto, las distancias sobre ese papel
parecerían cero sobre la imagen. Inclinando un poco la hoja de papel, veríamos cada vez
distancias mayores, hasta que el papel estuviese paralelo a la pantalla (perpendicular al
eje óptico de la cámara). En esa orientación, sí podríamos determinar las proporciones
de un dibujo en el papel a partir de las proporciones de su proyección en la pantalla.
El tamaño de la imagen proyectada depende de la distancia del centro óptico a la
pantalla. La ampliación (el zoom) puede aumentar más o menos su tamaño; en este mo-
delo geométrico, hacer zoom consistiría en alejar la pantalla más o menos del objetivo.
En una cámara de fotografía, esta distancia es la focal del objetivo: el zoom lo que hace
es variarla. Por supuesto, esto tiene el efecto de que por los bordes se “pierdan” partes de
la imagen: el campo o ángulo de visión de una cámara viene dado por la relación entre el
tamaño de la pantalla (el elemento sensible) y la distancia focal. Lo que no varían son los
56
P UNTOS DE VISTA . P LATAFORMAS
ángulos de la imagen proyectada y, por lo tanto, las longitudes medidas sobre la imagen
no tienen por qué ser proporcionales a las distancias entre objetos reales (dado que no
conocemos la profundidad).
La imagen proyectada en la pantalla depende mucho de la distancia de la cámara a
los objetos en la escena. Cuando nos acercamos a unos, reduciendo nuestra distancia a
ellos a la mitad, a otros nos podemos estar acercando reduciendo nuestra distancia a ellos
a la cuarta parte. Esto cambia mucho las proporciones en las distancias medidas sobre
la pantalla. No son equivalentes cambiar la distancia del objetivo a la escena y cambiar
la distancia de la pantalla al objetivo (la focal, o hacer zoom). Avanzar el trípode que
sostiene la cámara hacia la escena sí que puede variar las relaciones de distancias entre
objetos (incluso las proporciones o la razón de aspecto de éstos).
Respuesta: (b) Para poder ubicar bien una fotografía y orientarla espacialmente, ne-
cesitamos saber nuestro punto de observación (las coordenadas GPS de nuestra
cámara), la relación entre las distancias en la imagen y los ángulos de visión des-
de ésta (dada por la focal de la cámara y el zoom), y la orientación de la cámara
(hacia dónde está orientado su centro de visión: respecto al norte y respecto a la
vertical).
Google Stret View es el sistema ideado por Google para mostrar las calles y los edificios
en ellas, simulando nuestro movimiento por ellas. Básicamente, en cada punto se toman
una serie de fotografías alrededor, se pegan unas a otras y se crea un panorama. El
sistema está diseñado para que se sepa con mucha precisión el lugar desde donde se ha
hecho la fotografía, que las cámaras estén siempre a la misma altura, que entre todas
las cámaras se pueda tomar en un solo instante una instantánea que cubra todas las
direcciones, etc. Además, para mostrar luego las imágenes más adecuadas, un sistema
LiDAR (Light Detection And Ranging, detección y medida de distancias por luz) calcula
las distancias a los objetos en las imágenes; así se puede luego escoger la más próxima
cuando nos la muestran. El LiDAR envía muchos rayos láser (infrarrojos, que no se
ven a simple vista, o rojos o verdes, como los usados para hacer batimetrías) y mide la
distancia a los objetos en función del tiempo que tarda la luz en ir y volver reflejada
desde ellos; es similar a los medidores de distancias láser que se usan en albañilería (que
suelen usar luz láser roja). Es decir, que todo el sistema está diseñado para que todos los
factores que influyen en la formación de las imágenes estén totalmente controlados.
57
C UESTIONES DE TELEDETECCIÓN
Si quisiéramos emular a Google Street View con nuestra cámara en mano, necesita-
ríamos saber desde dónde tomamos la fotografía. Aunque sólo para ubicarla en el mapa;
la precisión de un GPS de mano (o del incrustado en la cámara digital) será suficiente.
Las coordenadas de un punto visto en la fotografía nos daría la dirección en la que mi-
ramos, pero no es suficiente para orientar la cámara en el espacio: podemos determinar
la línea de visión entre nuestra cámara y ese punto, pero no cómo está rotada nuestra cá-
mara respecto a ese punto. Por ello, un único punto no sería la solución. Se necesitarían,
al menos, dos: por cada fotografía que tomásemos alrededor. Si son puntos cercanos (a
menos de 50 m), saber sus coordenadas determinadas con un GPS será inútil: los errores
de estos aparatos son del orden de los 5 m (tanto en nuestra posición como en la de los
puntos de referencia, lo que suma 10 m); la precisión de la orientación será cuestionable.
No obstante, la orientación de una cámara digital puede que ya la mida ella. Algu-
nas cámaras (y algunos teléfonos móviles) disponen de brújulas y niveles electrónicos
incrustados en un único chip, el sensor de orientación. Sabiendo la dirección (respecto
al norte) y la inclinación (respecto a la vertical), se puede determinar la dirección del eje
óptico de la cámara.
Ya sólo es necesario conocer el campo de visión instantáneo. El ángulo de visión
depende del tamaño del elemento sensor (del chip CCD en una cámara digital) y de la
distancia focal. El tamaño del área sensible, es conocida: 36 mm en película fotográfica
de 35 mm y unos 5,37 milímetros para los chips CCD más habituales, aunque depende
del modelo de la cámara. La distancia focal es variable, ya que cambia con el zoom
que estemos empleando (si no con el objetivo intercambiable): debemos tomar nota de
este valor también. Luego, las sucesivas fotografías habrá que hacerlas girando sólo lo
suficiente para que se superpongan en sus bordes las imágenes correspondientes y se
puedan “coser” hasta cubrir la visión de 360◦ (como hace el software libre Hugin).
Por supuesto, si dispusiésemos de un trípode, podríamos evitar algunas de estas li-
mitaciones. Y, no digamos, si dispusiésemos de un Google Street View car.
Nota: Toda esta información que hemos mencionado (coordenadas GPS, orientación,
focal) y mucha otra la guardan las cámaras digitales, junto con la imagen, en lo que
se llaman metadatos EXIF del archivo de fotografía. Veremos que en teledetección
este tipo de metadatos sobre orientación y forma de adquisición de las imágenes
siempre acompañan también a las imágenes.
58
P UNTOS DE VISTA . P LATAFORMAS
Respuesta: (d) Para hacer un estudio automático de los cambios en una escena, se
necesita identificar la orientación de dicha escena respecto a la cámara. Para
ello, es necesario conocer la posición de la cámara, de algún objeto en la escena
de modo que se defina un eje conocido, y la rotación de la imagen respecto a ese
eje. El disponer de estos elementos para dos imágenes, permite formar con ellas
un par estereoscópico, es decir, ubicar espacialmente los objetos de la escena.
Este sería un paso previo para poder hacer comparaciones.
59
C UESTIONES DE TELEDETECCIÓN
Figura 1.2. Par estereoscópico del Teide visto desde dos puntos diferentes, según la GeoPhotopedia. En la
parte inferior, sobre una imagen Landsat, el símil de la visión estereoscópica.
finir una nueva “horizontal” como el plano que contiene los dos puntos de observación
y este punto de referencia. Pero, para saber cómo está cada cámara inclinada respecto
a esa “horizontal” es necesario un segundo punto común: este indicará cómo rotar cada
imagen respecto al eje óptico de la cámara (el centro de la imagen) para “encajar” las
dos vistas del mismo objeto.
Estas operaciones geométricas son las que llevan a cabo nuestros ojos cuando per-
cibimos la profundidad de una escena. Las dos imágenes del mismo objeto que vemos
con cada ojo decimos que forman un par estereoscópico. La necesidad de conocer la
posición de un punto de referencia es tan sólo para poder definir las direcciones de ob-
servación de una cámara respecto a la otra: evitar el “estrabismo”. Con dos imágenes de
la GeoPhotopedia, ambas del Teide, pero tomadas desde distintas localizaciones (que se
pueden leer de sus datos EXIF), podemos formar un par estereoscópico, de forma que
un software de visión estereoscópica pueda comparar ambas (incluso generar un modelo
3D del cono volcánico). Para ello, sin entrar en demostraciones matemáticas, basta ver
en la figura que la situación sería análoga a que alguien estuviese mirando la escena con
un ojo en cada punto (figura 1.2).
60
P UNTOS DE VISTA . P LATAFORMAS
Avión
Re
lie
ve
Ortocorrección
? Nadir ?
Figura 1.3. Efectos del relieve sobre la estimación de los puntos en una fotografía aérea.
61
C UESTIONES DE TELEDETECCIÓN
los puntos fuera de la vertical, requieren conocer su distancia a la plataforma para saber
sus coordenadas geográficas (véase la figura 1.3).
Debemos tener en cuenta que la representación estándar de una imagen de teledetec-
ción es, casi siempre, un mapa. Un mapa representa los puntos geográficos en un plano;
sin embargo, ni la Tierra ni su relieve son planos. En el caso de la curvatura de la Tierra,
existen muchos tipos de proyecciones, adecuadas para evitar determinadas distorsiones
causadas por su curvatura.
En el caso del relieve, existen dos opciones. O bien se evita éste, observando desde
un punto tan elevado que el terreno parezca plano; esto es lo que sucede con los sensores
a bordos de satélites, que se hallarán a una distancias cientos de veces mayor que la ma-
yor diferencia de alturas en un terreno. O bien se conoce este relieve a priori (mediante
un modelo digital de terreno, MDT) y se aprovecha ese conocimiento para calcular las
coordenadas correctas de los puntos en la imagen; esta operación se denomina ortorrec-
tificación y las fotografías corregidas, ortofotografías (como las del Plan Nacional de
Observación Aérea, PNOA).
Respuesta: (a) Es difícil dar una respuesta particular a esta pregunta, porque es un
tema de investigación en la actualidad. La precisión de los sistemas de posicio-
namiento inercial (GPS) y de las unidades de medida inercial (IMU) combinadas
puede llegar a ser muy alta (decimétrica), pero no suficiente para la altísima re-
solución espacial de las imágenes obtenidas desde un UAV. Por lo tanto, quizás
el futuro de la georreferenciación de imágenes de UAV sea una combinación de
estas dos medidas con apoyo de técnicas de visión artificial.
Todos hemos visto recientemente en los centro comerciales pequeños helicópteros tele-
dirigidos que van, desde modelos sencillos (emulando el aspecto de un helicóptero real)
con un mando para dirigirlo similar al de los coches teledirigidos, hasta modelos que
cuentan con 4 hélices (lo que les aporta una mayor estabilidad) y que pueden ser dirigi-
dos desde nuestro smartphone, al que también transmiten imágenes de lo que ven. Estos
“juguetes” forman parte del grupo de los conocidos como vehículos aéreos no tripulados
(UAV, Unmanned Aerial Vehicle). Son, por decirlo de algún modo, los “hermanos pe-
62
P UNTOS DE VISTA . P LATAFORMAS
Figura 1.4. Vehículo aéreo no tripulado modelo Microdrones md4-200. El UAV va dotado de una cámara
multiespectral con la que adquiere imágenes desde una altura de 100 m, aproximadamente (imágenes
tomadas durante una campaña de campo de la empresa Zumain Ingenieros SL).
queños” de la familia. Los UAV, como casi toda la tecnología de teledetección, nacieron
como una herramienta militar, para reconocer áreas de forma remota. En sus aplicacio-
nes militares actuales están tanto el reconocimiento como el ataque, y algunos modelos
pueden realizar vuelos autónomos (siguiendo un plan de vuelo programado previamente)
sin necesidad de control remoto. Además, desde hace unos años este tipo de vehículos
se han utilizado también para aplicaciones civiles: extinción de incendios, vigilancia,
búsqueda de personas desaparecidas, toma de medidas de contaminación del aire, etc.
Los UAV usados en teledetección transportan cámaras para la obtención de imáge-
nes (figura 1.4); como estos vehículos se mueven a poca altitud, las imágenes son de
muy alta resolución espacial. Para asignar correctamente coordenadas geográficas a es-
tas imágenes (esto es, para georreferenciarlas) el sensor a bordo debe registrar, junto
con la imagen, información de localización del vehículo así como del movimiento del
mismo. Estas informaciones las proporcionan los dispositivos GPS (Global Positioning
System) e IMU (Inertial Measurement Unit, unidad de medición inercial) con los que
cuentan estos vehículos. Los GPS registran periódicamente la latitud y longitud de un
objeto situado en la Tierra, mediante triangulación de las señales recibidas de una serie
de satélites de localización bien conocida (la constelación GPS); la precisión que da esta
triangulación es de unos 5 − 10 m (2,5 m con los algoritmos de corrección más avanza-
dos). Para mejorar la precisión, se pueden comparar las sucesivas medidas del GPS en
movimiento con las que proporciona uno estático en una estación de tierra; esto convierte
63
C UESTIONES DE TELEDETECCIÓN
Respuesta: (e) Todas las razones indicadas son a favor de una órbita polar: a menor
distancia a la Tierra, menos potencia se necesita en el cohete que la pone en ór-
bita; además, en órbitas más bajas, se alcanzan mayores resoluciones espaciales
en las imágenes. Las órbitas polares permiten barrer toda la Tierra en pocos días
y hacerlo de tal forma que un mismo punto se vea siempre en las mismas con-
diciones de iluminación solar: éstas son las órbitas heliosíncronas. Por último,
sólo existe una órbita ecuatorial y, en ella, cada vez más satélites; esto acumula
64
P UNTOS DE VISTA . P LATAFORMAS
basura espacial en dicha órbita, algo que también sucede en la zona de órbitas
bajas que ocupan muchos satélites de órbita polar.
Los satélites que orbitan alrededor de la Tierra lo hacen normalmente siguiendo órbitas
contenidas en el plano del ecuador terrestre o perpendiculares a él. Cada una de ellas
cuenta con unas características diferentes que condicionan los productos (imágenes) que
los satélites pueden obtener.
Las órbitas ecuatoriales se suelen emplear para obtener órbitas geoestacionarias. Las
órbitas geoestacionarias garantizan que un satélite se halla siempre sobre el mismo pun-
to; dado que la Tierra gira alrededor del eje polar, estas órbitas sólo pueden hallarse en
el ecuador. Los satélites en estas órbitas tienen el mismo periodo orbital que la rotación
sideral de la Tierra; por eso se dice que son órbitas geosíncronas. Se puede decir que
sólo existe una órbita geoestacionaria: alrededor del ecuador, a una altitud de 35800 km
por encima del nivel del mar; a esta altura, la gravedad terrestre ejerce exactamente la
fuerza centrípeta para mantener al satélite en una órbita circular alrededor del planeta.
Como anécdota, la idea de usar esta órbita para colocar satélites en ella fue lanzada por
primera vez en 1945 por el escritor de ciencia ficción Arthur C. Clarke (en su artículo
Extra-terrestrial relays: Can Rocket Stations Give World-wide Radio coverage?); en su
honor, la zona en que se halla esta órbita se denomina también “cinturón de Clarke”. No
obstante, la capacidad para “mirar” de forma continua el mismo punto de la Tierra hace
que esta órbita sea adecuada para satélites de telecomunicaciones, tal como ya observó
Herman Potočnik en 1928. Desde el punto de vista de la teledetección, se usa, sobre
todo, para los satélites meteorológicos de las diferentes agencias, que monitorizan desde
esa posición la dinámica atmosférica de un hemisferio terrestre prácticamente completo.
Aunque en condiciones ideales un satélite se mantendría en su órbita geoestacionaria
indefinidamente, las perturbaciones orbitales debidas a la Luna y al Sol, las presiones de
radiación solar, incluso el rozamiento con las leves capas exteriores de la atmósfera, cau-
san una lenta deriva. Los satélites corrigen estos efectos mediante maniobras periódicas
de corrección de la órbita (station-keeping), para lo que utilizan pequeños propulsores; el
agotamiento del combustible limita, por ello, su vida útil. El último combustible se suele
utilizar para “desorbitar” el satélite y, o bien colocarlo en una órbita inútil (por ejemplo,
en los cinturones de radiación de Van Allen, donde el campo magnético de la Tierra
concentra las partículas radiactivas procedentes del Sol, protegiendo así la superficie), o
bien hacer que caiga a tierra y se destruya en la atmósfera.
Las órbitas polares, al contrario que las anteriores, se describen en dirección norte-
sur (en realidad con cierto ángulo con el eje que une los polos). No siempre buscan
acompañar a la Tierra en su giro, sino que habitualmente acompañan al sol: pasan sobre
65
C UESTIONES DE TELEDETECCIÓN
Figura 1.5. “Caminos” (paths) seguidos por los satélites Landsat, usados para identificar las imágenes
adquiridas de manera única. Fuente: USGS.
un mismo punto a la misma hora, de forma que la iluminación que recibe éste es, apro-
ximadamente la misma en cada pasada; estas son las órbitas heliosíncronas. Este tipo de
órbitas se utilizan en todos los satélites que quieren realizar una cobertura completa del
planeta, como los mediambientales, aunque con una periodicidad que dependerá de su
altitud y de sus “caminos” (paths, véase figura 1.5). El período orbital, que consiste en
dar una vuelta a la Tierra, suele estar en torno a los 100 minutos. No se debe confundir
con el período de revisita, que es el tiempo que tarda un satélite en pasar (aproximada-
mente) sobre un mismo punto (a la misma hora) y adquirir una imagen en la que ese
punto sea visible. Este período varía: entre los 1 a 3 días de algunos satélites o constela-
ciones como el QuickBird, el RapidEye, los SPOT del CNES frances, los Terra y Aqua
de la NASA o el antiguo ENVISAT de la ESA, a los 16 días de Landsat. Todos estos sa-
télites, aunque pasan por áreas no iluminadas de la Tierra, normalmente solo adquieren
imágenes en las áreas iluminadas por el sol.
Las anteriores son las órbitas más habituales, sin embargo también existen satélites
que describen órbitas inclinadas o altamente excéntricas. Los satélites de la constela-
ción GPS (igual que los proyectados del sistema Galileo), siguen órbitas inclinadas y no
son ni geo- ni heliosíncronos: dan dos vueltas a la Tierra cada día. Entre los de órbitas
excéntricas, elípticas y muy alargadas, el mejor ejemplo es el de los satélites rusos de
comunicaciones Molniya que cubrían todo el territorio de la antigua URSS describiendo
una órbita con una inclinación de unos 65◦ y con un período de 12 h.
Casi todos los satélites que se han puesto en órbita desde finales de la década de los
66
P UNTOS DE VISTA . P LATAFORMAS
50 han tenido una vida útil de entre 2 y 15 años (aunque pueden llegar a los 28 años, co-
mo en el caso del Landsat 5, el más longevo). Una vez que esta “vida útil” se extingue,
cuando los sistemas energéticos dejan de funcionar y desde Tierra no se puede dirigir
su movimiento, quedan flotando inicialmente en la órbita que describían, pero que van
modificando por perturbaciones orbitales. Toda esta “basura espacial” rodea nuestro pla-
neta produciendo en algunas ocasiones colisiones (como la producida el 10 de febrero
de 2009 entre los satélites Iridium 33 y Cosmos 2251). En 1978 el consultor de la NASA
Donald J. Kessler planteó el problema de la basura espacial orbitante describiendo un
escenario futuro donde las colisiones se sucederían y estas a su vez generarían más ba-
sura espacial aumentando las probabilidades de nuevas colisiones, llegando a un efecto
dominó conocido como Síndrome de Kessler. Existen programas específicos para hacer
un seguimiento de esta basura espacial como el “Orbital Debris” de la NASA.
Respuesta: (b) Esta expresión indica la forma de avance del satélite sobre la escena,
en dirección norte o en dirección sur, esto es, ascendente o descendente respecto
al plano del ecuador.
Los satélites artificiales son seguidos desde varias estaciones de telemetría en tierra (con
antenas de seguimiento), a partir de las que se calcula su posición exacta en la órbita;
incluso cuando dejan de comunicarse con tierra, son seguidos mediante radar o teles-
copios o usando otros satélites. La órbita de un satélite se puede calcular con mucha
aproximación, pero va cambiando con el tiempo (por la atracción del Sol y la Luna,
el leve rozamiento o empuje causado por el viento solar, las capas más altas de la at-
mósfera, etc.) y muchas veces requiere corrección; para ello los satélites incluyen unos
pequeños propulsores que permiten modificar su posición sobre la órbita o la inclinación
de dicha órbita. Por ejemplo, el satélite ENVISAT incluía en su diseño un segmento de
tierra (ground segment), es decir, el conjunto de operaciones que se deben llevar a cabo
en tierra para el correcto mantenimiento del satélite: entre ellas su órbita. Durante las co-
rrecciones de la órbita, todas las operaciones del satélite se suspendían, porque se trataba
de una operación delicada. En abril de 2012, se perdió la comunicación con el satélite.
En la actualidad se está estudiando su “desorbitación” (es decir, caída a tierra) desde los
768 km de altitud en que se halla, para minimizar los riesgos que presenta al no poderse
controlar su órbita.
67
C UESTIONES DE TELEDETECCIÓN
Figura 1.6. “Camino” de un satélite de órbita polar sobre la superficie de la Tierra. Área observada por el
instrumento SCIMACHY del satélite ENVISAT. Fuente: ESA.
68
P UNTOS DE VISTA . P LATAFORMAS
Los satélites geoestacionarios envían datos a las estaciones de Tierra cada poco tiem-
po (prácticamente, cada vez que adquieren una imagen). Sin embargo, los satélites en
órbitas no geoestacionarias, las almacenan y las envían a las estaciones cuando éstas
vuelven a ser visibles; entonces se establece un enlace de descarga (down-link), al tiem-
po que se programan operaciones en el satélite (up-link). Por ejemplo, los satélites Terra
y Aqua de la NASA, cuando pasan sobre una estación de la NASA, descargan toda las
imágenes que han adquirido desde el paso anterior, lo que les lleva un par de horas (du-
rante las que continúan adquiriendo nuevos datos); estos satélites tienen la particularidad
de que, el resto del tiempo, retransmiten en directo para quien pueda escuchar las imáge-
nes que están adquiriendo en ese momento. Es de resaltar que gran parte de los esfuerzos
tecnológicos en las últimas décadas se han enfocado a optimizar estos enlaces de datos,
para cada vez descargar mayores imágenes en menos tiempo.
Respuesta: (c) La resolución vertical obtenida por estereoscopía es siempre del mismo
orden de magnitud que la resolución horizontal de las imágenes a partir de las
que se calcula. En el caso del ASTER, si no se puede distinguir un punto de otro a
menos de 15 m, no podría determinar alturas con menor precisión de unos 30 m
(mirando con un ángulo de 20◦ ). Sin embargo, dado que se usa no un punto, sino
un entorno de él, se puede rebajar este error hasta unos 10 m.
69
C UESTIONES DE TELEDETECCIÓN
ο
θ=20
δh
δl = 15 m
Figura 1.7. Error en la altura estimada por el sensor ASTER.
El sensor ASTER a bordo del satélite Terra, el HRS del SPOT, el CHRIS del PRO-
BA, o el Ikonos, son capaces de adquirir imágenes mirando hacia el nadir (es decir, hacia
abajo) y mirando hacia alguna otra dirección, hacia delante o hacia atrás (o ambas), so-
bre su órbita. Dada la velocidad a la que avanzan los satélites, las dos o más imágenes
adquiridas son prácticamente simultáneas (por ejemplo, en cuanto al movimiento de las
nubes; pero no de un vehículo por una autopista). En el ejemplo dado del ASTER, la
imagen estereoscópica se procesó mediante técnicas de visión artificial (que buscan so-
bre las dos imágenes coincidencias en el entorno de los puntos, tal como harían nuestros
ojos) para estimar la distancia de cada punto al satélite; así se generó un modelo digital
del terreno (DTM, digital terrain model) o modelo digital de elevaciones (DEM, digi-
tal elevation model). La precisión obtenida en la determinación de la altura siempre es
del mismo orden que la precisión con la que se ubican horizontalmente los puntos en la
imagen. Por ejemplo, en este GDEM (global DEM) el error medio en altura es de unos
10 m, aproximadamente igual que la precisión horizontal.
70
P UNTOS DE VISTA . P LATAFORMAS
Para estimar este error de una forma aproximada, se puede considerar un punto que
haya sido visto por el ASTER desde el cenit y desde 20◦ de separación de éste. Ya
que el sensor ve no este punto, sino un cuadrado de 15 × 15 metros alrededor de él
(porque esa es su resolución horizontal), en el peor de los casos, confundirá un lado de
ese cuadrado a una altura dada con el lado opuesto del cuadrado a una altura δh (véase
la figura 1.7). Este es, justo, el error en la determinación de la altura. Como el ángulo
que forma el ángulo de visión con la vertical es de 20◦ , esta diferencia de alturas vendrá
dada por 15/ tan 20◦ ≃ 40 m. Nos hemos puesto en el peor de los casos. En promedio,
considerando todos los posibles ángulos, el error será prácticamente la mitad. Cuando
se calculó el GDEM, además, no se buscó en las dos imágenes sólo un punto, sino
un entorno del mismo: esto equivale a aumentar la precisión con la que se localiza el
“centro” de ese entorno del punto, por lo que se puede entender que el error medio final
fuese de sólo 10 m.
En otros modelos digitales, como el SRTM (Shuttle Radar Topography Mission,
misión topográfica llevada desde la lanzadera espacial), el error vertical está en torno a
los 5 m (esto es, la altura de un punto en el SRTM puede estar entre 5 m por encima y 5 m
por debajo del valor real). En estos modelos, obtenidos por radar, la resolución espacial
es de 1′′ (un segundo de arco, aproximadamente 30 m en latitudes medias); hasta octubre
de 2014 se distribuía gratuitamente al resto del mundo con resolución de sólo 3′′ (90 m),
pero actualmente se distribuye a su resolución completa. Otro modelo digital del terreno,
muy conocido, y también distribuido gratuitamente es el GETASSE30 (Global Earth
Topography And Sea Surface Elevation at 30′′ resolution) derivado del SRTM, pero con
mucha menos resolución.
Obsérvese que todos estos DEM son para la zona emergida de nuestro planeta. Los
océanos (el 80 % de la superficie de la Tierra) no se incluyen en ellos, mucho menos el
fondo marino. Para calcular la altura de los océanos, que además cambia con el tiempo
por las mareas y otros fenómenos (algunas corrientes, cálidas o frías, dilatan o contraen
el volumen del océano e influyen en su topografía), se recurre a altímetros como el
famoso Topex Poseidon o el ERS. Para determinar la elevación del fondo de los océanos,
lo más habitual es recurrir a las técnicas acústicas: al sónar. En este caso, el conocimiento
que tenemos del fondo marino lo debemos a la combinación de registros de múltiples
“misiones” y de los datos suministrados por los barcos transoceánicos que ceden los
registros sónar de sus rutas.
Nota: Más información sobre construcción de DEM desde satélite, en las respuestas 7
y 8 del tema 11.
71
C UESTIONES DE TELEDETECCIÓN
Respuesta: (b) La ESA garantiza a través de otros sensores de otras agencias (de ám-
bito europeo, de naciones miembro, o con la NASA) la continuidad de los datos
de la misión ENVISAT. Es decir, proporciona acceso (a los investigadores que lo
soliciten) a imágenes adquiridas con satélites que tienen las mismas o mejores
prestaciones que los instrumentos del ENVISAT, de manera que se puedan conti-
nuar las investigaciones puestas en marcha con datos de los instrumentos a bordo
de ese satélite.
El satélite ENVISAT fue lanzado en marzo de 2002 y puesto en una órbita polar que
le permitía cubrir toda la Tierra pasando por el mismo punto cada 35 días. Este satélite
fue concebido por la ESA como una herramienta global de estudio de la atmósfera y de
la superficie terrestre, dando continuidad a los satélites ERS 1 y ERS 2, pero aumen-
tando sus capacidades. Contaba con 10 instrumentos a bordo: ASAR, MERIS, AATSR,
RA-2, MWR, GOMOS, MIPAS, SCIAMACHY, DORIS, LRR que le permitían medir
variables como la temperatura y contenido de clorofila de las aguas oceánicas, el nivel
de contaminación en la atmósfera o la altitud de la superficie terrestre y de los océanos,
entre otras muchas.
El fallo prematuro del ENVISAT (el 8 de abril de 2012), que llevó a su pérdida, y el
retraso del lanzamiento de los Sentinel, debido a la crisis económica (satélites pensados
para dar continuidad a la serie de datos), ha provocado un parón en la adquisición (y pro-
ducción) de imágenes con los instrumentos instalados a bordo del ENVISAT, frenando
numerosas investigaciones en curso. Para evitar una pérdida importante de las inversio-
nes (en término de tiempo y dinero) que representan estas investigaciones, es necesario
disponer de imágenes de similares características a las que adquirían los instrumentos
del ENVISAT, obteniéndolos de otras misiones operativas, ya sean de la propia agencia
europea, o de otras (NASA, EUMETSAT, NOAA, etc).
Actualmente la ESA tiene en marcha el programa “third party missions” que po-
ne a disposición de investigadores europeos (previa solicitud) imágenes obtenidas por
72
P UNTOS DE VISTA . P LATAFORMAS
sensores instalados en satélites de otra agencias. Así, por ejemplo, muchos datos obte-
nidos por el sensor oceanográfico MERIS del ENVISAT pueden ser reemplazados por
algunos del sensor MODIS, de los satélites Terra y Aqua de la NASA; la NASA pro-
porciona actualmente también estos datos en abierto. El sensor AATSR, que permitía
medir la temperatura superficial marina (SST, sea surface temperature), por ejemplo,
puede ser sustituido por datos del AVHRR de la NOAA (la agencia meteorológica de
EE.UU.) o del MetOp de EUMETSAT (la agencia meteorológica europea). De este mo-
do, la ESA sigue proporcionando productos similares a muchos de los obtenidos con los
instrumentos del ENVISAT. Sin embargo para disponer de otros productos con calidad
similar, como los de color oceánico proporcionados por MERIS, será necesario esperar a
la puesta en órbita y funcionamiento de los Sentinel: primero, del Sentinel-2 y su sensor
óptico multiespectral (en el verano de 2015) y, posteriormente, del Sentinel-3, que será
la continuación natural del ENVISAT, con todos sus sensores ambientales.
La continuidad de las series de datos la buscan todas las agencias espaciales. Por
ejemplo, el pasado 30 de mayo de 2013, comenzó a operar la misión Landsat 8 de la
NASA (inicialmente llamada LDCM, Landsat Data Continuity Mission). Este satélite
lleva el sensor OLI (Operational Land Imager), que incorpora las características del
ETM+ (Enhanced Thematic Mapper) del Landsat 7 y algunas mejoras; el ETM+ era a su
vez continuación de los TM (Thematic Mapper) de los Landsat 4-5, que trataban de ser
similares aunque con algunas mejoras, a los MSS de los Landsat 1-3. De este modo, las
sucesivas misiones Landsat proporcionan datos cada vez mejores, pero suficientemente
parecidos a los sensores anteriores como para hacer estudios con datos homogéneos de la
Tierra desde 1972 hasta la actualidad; esta es la misión más longeva hasta la actualidad.
Respuesta: (d) Los Meteosat son satélites geoestacionarios que envían continuamente
imágenes de la Tierra, mientras que los MetOP toman otro tipo de información
desde una órbita polar mucho más próxima a la superficie de la Tierra (860 km),
una información que no se puede obtener desde 36000 km (distancia de la órbita
geoestacionaria). Además, los MetOP forman parte del Sistema Polar Conjunto
gestionado entre la NOAA y EUMETSAT (cada agencia recibe los datos cuando
los satélites pasan por su cara del planeta).
73
C UESTIONES DE TELEDETECCIÓN
Figura 1.8. Primeros datos obtenidos por el satélite MetOP-B. Fuente: EUMETSAT.
74
P UNTOS DE VISTA . P LATAFORMAS
Los satélites MetOP transportan instrumentos parecidos a los de los Meteosat (por
continuidad de la misión), pero también otros sensores compatibles con los de los saté-
lites NOAA de la agencia meteorológica de EE.UU. y otros de nuevo diseño. De hecho,
estos satélites forman parte del Acuerdo Inicial para un Sistema Polar Conjunto (Initial
Joint Polar System Agreement, IJPS) entre EUMETSAT y la NOAA. Por su diseño, los
MetOP permiten obtener imágenes de mayor resolución espacial (en torno a 1 km) y,
además, transportan instrumentos que no podrían funcionar desde una órbita geostacio-
naria. En particular, el ASCAT, que permite medir el viento sobre la superficie del mar.
Otros instrumentos importantes son los IASI y AMSUA, que proporcionan información
precisa sobre la distribución y temperatura de los gases de efecto invernadero en la at-
mósfera: metano, dióxido de carbono y agua. Un estudio reciente ha demostrado que
los datos procedentes de los instrumentos IASI y AMSUA de los MetOP son los que
más han contribuido a reducir los errores de los modelos de predicción numérica en los
últimos tiempos.
Hoy en día, sin embargo, los satélites meteorológicos no se ocupan sólo del tiem-
po atmosférico, sino también de lo que se llama el tiempo del espacio. Es importante
tener información a tiempo sobre los fenómenos solares, en particular sobre el vien-
to solar, porque éste pude afectar a las comunicaciones de larga distancia, o dañar los
satélites, tanto sus paneles solares como cambiar las fuerzas magnéticas y de arrastre so-
bre ellos (requiriéndose respuestas rápidas desde el segmento de tierra para corregir su
orientación). Tanto los satélites geoestacionarios GOES de la NOAA como los MetOP
de EUMETSAT poseen sensores para monitorizar este ambiente del espacio exterior:
ambos miden los flujos de electrones, protones y campo magnético; los GOES, además,
miden los rayos X solares.
75
C UESTIONES DE TELEDETECCIÓN
ángulo de visión Ángulo formado por los dos puntos visibles simultáneamente por un
observador y que se hallan, respecto a éste, en direcciones más diferentes.
basura espacial Residuos (satélites no operativos, restos de colisiones, elementos des-
prendidos, etc.) dejados por las naves espaciales enviadas por el hombre alrededor
de la Tierra y que se mantienen en órbitas que impiden que se alejen indefinida-
mente de ésta o que hagan su reentrada en la atmósfera terrestre.
CCD (charge coupled device) Dispositivo electrónico semiconductor empleado para de-
tectar eficientemente fotones. El dispositivo se construye como un chip formado
por una matriz de pequeños “pozos”. En cada uno de estos pozos se aprovecha la
capacidad que da el semiconductor para controlar la concentración de electrones,
creando una zona libre de electrones (sometida a un potencial eléctrico), tal que si
un electrón es arrancado el choque de un fotón con un átomo, se registra una señal
eléctrica.
continuidad de datos Plan de una agencia o empresa espacial para mantener la serie
histórica de datos obtenidos con los sensores a bordo de sus satélites con carac-
terísticas similares. Normalmente estas características se refieren a que los nue-
vos sensores tienen bandas espectrales coincidentes con los anteriores (además de
otras bandas nuevas) y resoluciones espaciales iguales o mayores que las de sus
predecesores, de modo que los productos de unos y otros son comparables a pesar
del tiempo y los cambios en la tecnología.
DEM (digital elevation model) Modelo numérico que relaciona las coordenadas geo-
gráficas con la elevación del terreno (respecto a una referencia, usualmente un
elipsoide de referencia).
distancia focal Distancia desde el centro óptico de una lente o un espejo a la que conver-
gen (o parecen converger) los rayos de luz paralelos, por ejemplo, los que llegan
de un objeto muy distante. A esta distancia se puede formar sobre una placa una
imagen nítida de una escena lejana.
estereoscopía Técnica de visualización y de medida que emplea dos imágenes (cali-
bradas angularmente) adquiridas desde dos puntos de coordenadas conocidas para
estimar por trigonometría las distancias a los objetos. En teledetección es uno de
los métodos que se utilizan para construir modelos digitales de elevación.
EXIF (exchangeable image file format) Formato estándar para incrustar en un archi-
vo de imagen, obtenida con cámaras de fotografía digitales convencionales, datos
76
P UNTOS DE VISTA . P LATAFORMAS
IMU (inertial measurement unit) Dispositivo electrónico que mide las variaciones en
el movimiento y orientación de un vehículo en el que se halla. En teledetección se
emplea en las plataformas aerotransportadas para conocer con precisión su orien-
tación y compensar así los movimientos de guiñada, alabeo y cabeceo que puede
sufrir. También se utiliza para mejorar la precisión de la medida de la posición de
estas plataformas dada por el sistema GPS.
LiDAR (light detection and ranging) Método de medida remota de distancias basado
en el “tiempo de vuelo” de un rayo de luz emitido y reflejado en una superficie.
En teledetección se emplea para construir modelos de elevación. Se suele emplear
desde plataformas aerotransportadas, desde las que se envían rayos de luz láser
(roja o infrarroja cercana, para elevación del terreno, o también verde, para ba-
timetrías) en direcciones precisas (compensando los movimientos del avión). La
distancia al terreno a lo largo de cada rayo se calcula a partir del tiempo que se
tarda en detectar la luz reflejada.
77
C UESTIONES DE TELEDETECCIÓN
rente a las longitudes de onda visibles, la mayoría de las bandas de interés de estos
satélites se encuentran en el infrarrojo de onda corta y en el térmico.
órbita ecuatorial Órbita contenida en el mismo plano que el ecuador. Un caso particu-
lar de estas órbitas son las geoestacionarias.
plataforma Vehículo que transporta un sensor y que determina el punto de vista (su
distancia a los objetos de estudio) y el tiempo de visita de éste.
UAV (unmanned aerial vehicle) Vehículo aéreo pequeño, habitualmente teledirigido (es
decir, no transporta al piloto), capaz de transportar un sensor que adquiera imáge-
nes de un campo de estudio reducido. Se emplean cada vez más para estudios que
78
P UNTOS DE VISTA . P LATAFORMAS
resultarían costosos desde aviones y que requieren más resolución de la que pue-
de proporcionar un sensor satelital. Coloquialmente se llaman “drones”, por su
propulsión por hélices.
1.5. BIBLIOGRAFÍA
S. Joo, J. Eyre, R. Marriott (2012). “The impact of Metop and other satellite da-
ta within the Met Office global NWP system using an adjoint-based sensitivity
method”. MetOffice, Technical Report no. 562.
K Deilami, M. Hashim (2011). “Very high resolution optical satellites for DEM
generation: a review”. European Journal of Scientific Research, 49(4), pp. 542-
554.
79
C UESTIONES DE TELEDETECCIÓN
80
P UNTOS DE VISTA . P LATAFORMAS
Meteosat — EUMETSAT.
URL: http://www.eumetsat.int/website/home/Satellites/CurrentSatellites/Meteosat/
Página dedicada a los satélites meteorológicos Meteosat, tanto de la primera como
de la segunda generación, y a algunas de sus aplicaciones (detección de tormentas,
de nubes volcánicas, de formación de nieblas, etc.).
MetOp — EUMETSAT.
URL: http://www.eumetsat.int/website/home/Satellites/CurrentSatellites/Metop/
Página dedicada a los satélites MetOp y a los sensores que portan para el estudio de
la composición y propiedades de la atmósfera (IASI, ASCAT, GOME-2 y GRAS).
Satellite Orbits — EUMETSAT.
URL: http://www.eumetsat.int/website/home/Satellites/LaunchesandOrbits/Satellite
Orbits/index.html
Explicación gráfica de los tipos de órbitas (geoestacionarias y polares bajas) em-
pleadas por los satélites meteorológicos actuales.
EUMETSAT IPPS animation — Meteosat 0 degree.
URL: http://oiswww.eumetsat.org/IPPS/html/MSG/
Visor de imágenes del sensor SEVIRI a bordo de los satélites Meteosat (canales
VIS0.6, IR3.9, IR10.8 y WV6.2) en tiempo casi real.
EUMETSAT IPPS animation — Metop.
URL: http://oiswww.eumetsat.org/IPPS/html/METOP/IMAGERY/
Visor de imágenes de MetOp (canales VIS0.6 e IR10.8) en tiempo casi real.
Geophotopedia de la Biblioteca de Geografía de la US.
URL: http://www.flickr.com/groups/geophotopedia/
Grupo de Flickr puesto en marcha por investigadores del departamento de Geo-
grafía Física y Análisis Geográfico Regional de la Universidad de Sevilla para
compartir fotografías etiquetadas geográficamente.
Fototeca Digital — Instituto Geográfico Nacional.
URL: http://www.fototeca.cnig.es/
Visor de mapas del Centro Nacional de Información Geográfica del IGN que per-
mite explorar la información de varios vuelos fotogramétricos sobre el territorio
español, desde 1924 hasta la actualidad.
81
C UESTIONES DE TELEDETECCIÓN
82
P UNTOS DE VISTA . P LATAFORMAS
83
Tema 2
Métodos de medida
GUION-ESQUEMA
El proceso de medida
Medidas geométricas
2.1. INTRODUCCIÓN
Este tema trata de las formas de medir remotamente, tanto de los conceptos físicos
involucrados como de los instrumentos empleados. Comienza con un repaso a qué es
un proceso de medida y de qué forma se asigna un valor numérico a una magnitud; en
particular se trata el importante tema de la calibración de una medida y del origen y
tratamiento de los errores asociados a ella.
Las medidas más sencillas son las geométricas (distancias y ángulos); estas medi-
das geométricas permiten, por ejemplo, la generación de modelos digitales de terreno a
partir de pares estereoscópicos de imágenes ópticas. Las medidas de radiometría ópti-
ca, por ejemplo, permiten determinar la composición de una cubierta basándose en los
pigmentos de la misma que absorben la luz solar. En un sensor se divide la luz en sus
componentes (en “colores”) mediante un analizador y posteriormente se cuantifica la
cantidad de luz en cada uno. Los instrumentos para registrar estas medidas han evolu-
cionado desde las primitivas películas fotográficas a los últimos sensores CCD y CMOS.
Otros tipos de sensores emplean otros rangos del espectro electromagnético (diferentes
del rango óptico) para realizar otras medidas: temperatura, distancia, etc.
2.2. CUESTIONES
a) de la distancia al objeto
b) del tamaño de la imagen
c) de la focal de la cámara
d) del tamaño del objeto
87
C UESTIONES DE TELEDETECCIÓN
2. Toda medida con un sistema digital (desde una cámara fotográfica moderna, hasta
un sensor en un satélite) consiste en una serie de valores o niveles digitales (DN,
digital number) que el sensor asigna a cada punto de la imagen; los puntos de la
imagen también son discretos, se llaman píxeles (picture element). ¿Qué guardan,
realmente los valores asignados a estos píxeles?
88
M ÉTODOS DE MEDIDA
a) se perdían líneas
b) se perdían píxeles
c) las líneas se veían curvadas
d) las líneas se veían separadas en los bordes de la imagen
6. Las medidas de un sensor multiespectral vienen limitadas por su diseño que deter-
mina sus resoluciones espacial, radiométrica y espectral. Pero estas resoluciones
no son totalmente independientes. Lograr una mayor resolución espectral, ¿cómo
suele afectar a las otras dos resoluciones?
a) que se distinguirán bien dos objetos siempre que tengan un tamaño mayor a
2.5 metros
b) que se distinguirán bien dos objetos siempre que tengan un tamaño mayor a
10 metros
89
C UESTIONES DE TELEDETECCIÓN
a) paralelamente
b) perpendicularmente, paralelamente a la dirección de barrido
c) perpendicularmente, perpendicularmente también a la superficie de la Tierra
d) es indistinto, porque al utilizarse un espejo para barrer la escena, la dirección
puede ser arbitraria
10. Los sensores activos, como el radar, emplean una técnica semejante a la que usan
los murciélagos para orientarse en la oscuridad: emiten señales y escuchan sus
ecos. Pero, ¿qué tipo de señales usa un radar?
90
M ÉTODOS DE MEDIDA
Respuesta: (d) El error de una medida está, por lo general, asociado al instrumento y
al proceso de medida. En el caso de una fotografía, en el proceso de formación
de la imagen intervienen (en orden de recorrido del haz de luz) la distancia al
objeto, la focal de la cámara y el tamaño del elemento sensible de la cámara, que
determina el tamaño físico de la imagen. Pero, también, influye el otro tamaño de
la imagen: medido en número de detectores (celdas del CCD, por ejemplo). Lo que
no influye en esta incertidumbre es el tamaño del objeto medido: la incertidumbre
se refiere a la medida de cualquier longitud a la distancia a la que se halla el
objeto (visto desde la cámara que lo fotografía) por lo que las características del
objeto en sí no son relevantes.
91
C UESTIONES DE TELEDETECCIÓN
92
M ÉTODOS DE MEDIDA
ΔL
Δa
Δ H : incertidumbre Δf
Altura minima estimada
93
C UESTIONES DE TELEDETECCIÓN
o los metros, si usamos un GPS), tampoco conoceremos la focal de nuestra cámara con
exactitud (aunque las cabeceras EXIF la suelen guardar hasta las décimas de milímetro).
Por tanto, no sabremos exactamente a qué distancia equivale un píxel, nuestra unidad de
medida: éste es nuestro error sistemático. Por otra parte, si el tamaño de nuestro objeto
depende de otras condiciones que nos pueden hacer verlo más grande o más pequeño
(pensemos en ráfagas de viento que doblan un árbol), tendremos una incertidumbre de-
bida a nuestro error aleatorio.
2. Toda medida con un sistema digital (desde una cámara fotográfica moderna,
hasta un sensor en un satélite) consiste en una serie de valores o niveles
digitales (DN, digital number) que el sensor asigna a cada punto de la imagen;
los puntos de la imagen también son discretos, se llaman píxeles (picture
element). ¿Qué guardan, realmente los valores asignados a estos píxeles?
Respuesta: (b) Los niveles digitales son números enteros que registra el sensor cuanti-
ficando el nivel de excitación de cada uno de sus detectores. Están relacionados
con este nivel de excitación y, por lo tanto, con la señal que excitó el detector. No
obstante, la forma concreta de esta relación puede variar en el tiempo.
Un detector de un sensor almacena la energía que recibe durante un tiempo dado. Esta
energía suele ser energía electromagnética, y excita los electrones en un material despla-
zándolos o aumentando su energía. Estos cambios electrónicos se producen durante el
tiempo que la onda electromagnética está incidiendo sobre el detector o el tiempo que
se prefije: el tiempo de integración. Por ejemplo, en el CCD de una cámara fotográfica
(o en el CCD de un sensor remoto como el HRG del SPOT) la luz hace que se acumulen
en cada “pozo” del CCD (un píxel en la imagen) electrones; más cuanta más energía
electromagnética incida en él. Después del tiempo de obturación de la cámara (o el lla-
mado tiempo de “readout” del HRG) se descarga esta carga eléctrica, para poder volver
a cargar la siguiente fotografía o línea. Al descargarla, según se vacían los electrones,
se usan para incrementar un contador, que da un número proporcional a la carga que
había y, por lo tanto, a la cantidad de energía electromagnética recibida en el píxel. Este
contador se pone a cero antes de comenzar a leer un píxel y su valor se guarda en una
memoria electrónica al terminar de leerlo.
La carga eléctrica que se acumula en un pozo del CCD depende de varios factores.
El principal es el material de que está hecho: distintos materiales son más o menos
sensibles a la luz de diferentes longitudes de onda (de diferentes colores). Por ejemplo,
los CCD más usados en las cámaras fotográficas son de silicio, que es sensible a la luz
94
M ÉTODOS DE MEDIDA
ultravioleta y a la visible, pero menos a la luz infrarroja. Para tener detectores sensibles
al infrarrojo, se utilizan semiconductores de arseniuro de galio, que es más sensible a
esas longitudes de onda: produce más electrones por cada fotón recibido. Los valores
numéricos que dan los contadores, por lo tanto, dependerán de esta eficiencia de los
materiales del CCD. Además, los dispositivos electrónicos envejecen, sobre todo, debido
a las variaciones de la temperatura, ; esto hace que varíen ligeramente las propiedades del
material semiconductor. Por lo tanto, la relación entre energía recibida y carga eléctrica
acumulada no se mantendrá constante a lo largo de la vida del sensor.
La consecuencia más importante de que en los píxeles de una imagen se guarden
valores digitales (números enteros) relacionados con aquello que se quiere medir (la
cantidad de energía de la luz que llega al detector) es que introduce un error instrumental
en la medida. Lo más habitual en los sensores ópticos (los que captan luz visible o
infrarroja) es que la relación entre la energía captada y el DN sea de la forma
L = a DN + b
95
C UESTIONES DE TELEDETECCIÓN
Respuesta: (c) Los algoritmos usados para derivar productos en teledetección suelen
usar medidas indirectas de las propiedades que caracterizan, basadas en cómo la
luz (la radiación electromagnética) interactúa con la materia. Estas interacciones
son muy complejas, por lo que los algoritmos se calibran con medidas in situ: este
proceso permite estimar coeficientes del algoritmo que son muy variables o que
no se pueden medir directamente.
Cuando se diseña un sensor, se hace con un propósito dado. Este diseño conlleva la elec-
ción de las bandas espectrales, de su resolución radiométrica, de su resolución espacial,
de la órbita de su satélite y su tiempo de revisita, etc. Por ejemplo, las bandas espectra-
les, esto es, los colores que distinguirá el sensor (entendiendo por colores no sólo los que
percibimos como tales sino, en general, intervalos del espectro electromagnético, como
el infrarrojo), dependen de la clase de cubiertas naturales que se quieran estudiar con él.
Un sensor oceanográfico, por ejemplo, estará interesado en bandas del espectro visible
en las que reflejen la luz los pigmentos de las algas microscópicas del fitoplancton: estas
bandas son mucho más estrechas (en torno a las decenas de nanómetros) que las tres que
nosotros percibimos con nuestros ojos (de casi un centenar de nanómetros cada una).
Los sensores meteorológicos, por otro lado, se diseñan para determinar la temperatura
y composición de la atmósfera a diferentes alturas; por ello se deben escoger bandas en
las que emitan o absorban los gases de la atmósfera, como el dióxido de carbono o el
agua, y que estén relacionadas con sus temperaturas: por ello trabajan, la mayor parte,
en el infrarrojo (medio y térmico). En todos los casos, los detectores de estas bandas
proporcionan unos valores digitales que permiten calcular la radiancia que llega a ellos
utilizando unos coeficientes que se obtienen por calibración del instrumento de medida
(como se explicó en la cuestión anterior). Pero esta calibración de los valores digitales
a radiancia es sólo uno de los primeros pasos para aplicar los algoritmos que llevan al
producto de teledetección.
Una vez se conoce la radiancia que llega al sensor (es decir, la radiancia fuera de la
atmósfera o TOA, top of the atmosphere), es necesario corregir ésta para conocer cómo
los cuerpos afectan a la radiación que reciben (las características de la radiación reci-
bida o de la reflejada no suelen ser de interés en sí mismas, pero deben conocerse para
96
M ÉTODOS DE MEDIDA
inferir las propiedades de los cuerpos con los que interactúan). Se hacen ciertas hipó-
tesis acerca de cuál es la radiación solar que llega al planeta en cada longitud de onda
(algunas misiones como la SORCE de la NASA se han dedicado a medir su variación a
lo largo del tiempo) y sobre cómo es ésta absorbida o dispersada en la atmósfera (tanto
al bajar hacia la superficie observada, downwelling, como al ascender de nuevo hacia
el sensor, upwelling). El proceso mediante el que corregimos la radiancia recibida en
el sensor para intentar “eliminar” el efecto de la atmósfera se llama corrección atmos-
férica. Una vez realizada, lo que queda es determinar cómo ha modificado la materia
esa luz: absorbiendo una parte, reflejando otra, emitiendo otra (por emisión térmica, útil
para determinar la temperatura del cuerpo, o por fluorescencia, útil para determinar la
presencia del compuesto fluorescente, por ejemplo, la clorofila-a).
Para determinar indirectamente, a partir de la luz reflejada o emitida por un cuerpo,
otras propiedades (la temperatura, la composición, la intensidad y dirección del viento,
la altura, la gravedad, la actividad fotosintética, etc.), es necesario establecer modelos
que relacionen ambas. Estos modelos físicos describen todos los procesos que hay que
tener en cuenta. Por ejemplo, para determinar la relación entre la radiancia emitida por
un cuerpo en el infrarrojo térmico y su temperatura, existen los modelos (o leyes) de
Kirchoff y de Planck; estos modelos contienen parámetros que pueden ser constantes
de la naturaleza o propiedades que dependen del tipo de material. Es necesario cono-
cer ambos. Otro ejemplo sería la medida de la concentración de clorofila: se conocen
los modelos (leyes) de Lambert-Beer que relacionan absorción, profundidad y concen-
tración; sin embargo existen parámetros de estas leyes que se deben medir in situ para
optimizar y validar el cálculo. A estas medidas que permiten ajustar los parámetros de
los modelos para que los resultados de los algoritmos coincidan con los valores reales,
se llama calibración de los algoritmos. La ESA, por ejemplo, publica para cada producto
derivado de un sensor su documento de bases científico-técnicas del algoritmo (ATBD,
Algorithm technical basis document) donde se describen los métodos y los coeficientes
resultantes de la calibración.
97
C UESTIONES DE TELEDETECCIÓN
Respuesta: (d) Las imágenes del Landsat 7, desde que falló el corrector de línea de
escaneo (SLC, scan line corrector) a finales de mayo de 2003, están formadas por
líneas de escaneo que se cruzan en el centro de la escena, pero que dejan huecos
(gaps) en los bordes de ésta.
Una imagen se construye gracias a un sistema óptico que enfoca la luz sobre los detecto-
res. En el caso de una cámara fotográfica, este sistema óptico son las lentes de la cámara
(que enfocan la luz sobre la película o el CCD) y su diafragma (el obturador) que blo-
quea o permite el paso de la luz. En el caso de un sensor remoto (óptico), la luz suele ser
enfocada por un telescopio (normalmente, un espejo cóncavo), separada en sus colores
fundamentales por un analizador (que funciona como un prisma que abre los rayos de luz
en un arco iris) y dirigida a los detectores con un espejo. Cualquier fallo en uno de estos
elementos o en el detector, dará lugar a una distorsión radiométrica, es decir, a un error
en la medida de la cantidad de luz recibida en un píxel de la imagen. Estas desviaciones
se muestran como pérdidas o bandeado en las líneas o errores en píxeles aleatorios.
La pérdida de píxeles es un defecto común en las cámaras fotográficas: al cabo de
un tiempo (años) de uso, algunos píxeles de la imagen se “queman”, es decir, el pozo
del CCD en donde se almacena la información de este píxel deja de funcionar correc-
tamente; el resultado es que, desde ese píxel, no se proporciona el color de la escena
fotografiada. Algunos sensores de los satélites muestran píxeles o líneas perdidas, debi-
do no a píxeles quemados, sino a errores en la sincronización del sistema de escaneo y el
de almacenamiento. Este problema se da, por ejemplo, en el sensor experimental CHRIS
a bordo del satélite (también experimental) PROBA de la ESA.
Los sensores a bordo de satélites han variado a lo largo de la historia. Las primeras
cámaras tomaban tres imágenes completas de cada escena a través de filtros de color;
de este tipo era el sensor vidicom (RBV) de los Landsat 1 al 3. En la actualidad, los
sensores a bordo de satélites de observación de la Tierra (que se mueven en órbitas
polares) aprovechan el desplazamiento de éstos para adquirir las imágenes línea a línea.
98
M ÉTODOS DE MEDIDA
s
ro
filt D
CC
Objeto
NIR
Rojo
Verde
Azul
Analizador
Detector
Enfoque
Figura 2.2. Partes de un sensor óptico: sistema de enfoque (lente, en una cámara; espejo, en un sensor de
espejo oscilante), analizador (filtros RGB en una cámara; prisma, rejilla de difracción o también filtros, en
un sensor multiespectral) y detector (matriz CCD, en una cámara; detectores CCD o CMOS en un sensor
multiespectral).
Esto tiene la ventaja de reducir el número de detectores, y por lo tanto, las diferencias de
calibración entre ellos, o dicho de otro modo, reduce las distorsiones radiométricas.
La primera forma de adquirir imágenes por líneas fue dirigir la luz de cada banda
espectral con un espejo oscilante (o rotatorio) hacia un único detector. Este escaneo o
barrido de la imagen da nombre a los sensores: sensores de barrido (whiskbroom scanner,
figura 2.3 izquierda). Éste es el tipo de sensores más frecuentes en la actualidad. Sin
embargo, el elemento mecánico que realiza el barrido plantea un problema: requiere un
control muy fino y una sincronización exacta con el sistema electrónico de adquisición
de datos, algo que, con el tiempo (la puesta en órbita, los cambios de temperatura, etc.),
se puede perder.
En el caso del ETM+ del Landsat 7, el error de sincronía con el mecanismo del
espejo del SLC producía que las líneas de escaneo se recorriesen en zig-zag “sobre el
terreno”: lo que sucedía es que no corregía el avance del Landsat sobre la superficie
de la Tierra, y ésta se movía bajo él mientras el escáner barría de un lado a otro en la
dirección perpendicular al “path”; la imagen salía “movida”. Por eso, el centro de las
99
C UESTIONES DE TELEDETECCIÓN
jo
ejo 000000000
111111111 el s
pe
Esp 000000000
111111111 sd
Es
a
000000000
111111111 Band
000000000
111111111
000000000
111111111
000000000
111111111
pejo
pejo
000000000
111111111
es
es
por el
por el
ada
ado
Escena Escena
enfoc
enfoc
avance avance
línea
píxel
del del
sensor sensor
imágenes se ve bien, pero no se ven bien los bordes de éstas (véase la figura 2.4). Es
decir, no se perdían totalmente las líneas, sino que hacía se produjesen huecos (gaps) en
los bordes de la imagen (allí donde el espejo da la vuelta para adquirir la siguiente línea
recorriéndola en sentido opuesto).
El espejo oscilante se elimina en los sensores de barrido por empuje (pushbroom
scanner, figura 2.3 derecha). En este caso, cada línea de la imagen es adquirida por
una línea de detectores según avanza el sensor por su órbita; la línea de detectores está
colocada perpendicularmente a la dirección de avance.
El tener diferentes detectores es la causa del bandeado de líneas, que es otra distor-
sión radiométrica común. Un sensor de barrido, como los TM o ETM+ del Landsat, usa
un mismo detector para adquirir muchos puntos de una imagen; en este caso particular,
cada una de sus bandas es escaneada por 16 detectores simultáneamente, es decir, cada
vez que el escáner barre de un lado a otro, el TM adquiere 16 líneas paralelas adya-
centes a la vez (32, en el caso de la banda pancromática del ETM+). Aunque durante
el proceso de fabricación y durante la calibración posterior se intenta que cada uno de
estos sensores sea idéntico a los otros 15, lo cierto es que son independientes y miden
independientemente. Ese patrón de diferencia es visible cada 16 líneas de las imágenes
Landsat, sobre todo, sobre zonas homogéneas como el agua del mar. En los sensores de
barrido por empuje, como el CHRIS, las diferencias de funcionamiento entre detectores
vecinos de la línea de detectores se manifiestan en un bandeo sobre las columnas de la
imagen. Este bandeo es fácil de ver y fácil de corregir, ya que no se mezclan los píxeles
de unos detectores con los de otros, como en el caso del Landsat.
100
M ÉTODOS DE MEDIDA
Figura 2.4. Efecto del mal funcionamiento del SLC del Landsat 7 en el borde de una escena.
Figura 2.5. Ejemplos de defectos en imágenes de TM (un sensor de barrido por espejo que adquiere varias
líneas simultáneamente, en este caso, sobre una escena acuática) y CHRIS/PROBA (un sensor de empuje
que adquiere cada línea simultáneamente, en este caso, sobre una escena con nubes).
101
C UESTIONES DE TELEDETECCIÓN
102
M ÉTODOS DE MEDIDA
se denotan por una “L” seguida de un número (0, 1, 2, . . . ) y, posiblemente, de una le-
tra. Como ejemplo, vamos a describir los niveles de corrección usados por los sensores
Landsat y MERIS: L0, L1, L2, L3 y L4.
El nivel L0 corresponde a la imagen “en bruto”, tal y como la recibe el receptor en
Tierra cuando el sensor la envía. Cuando esta imagen original se somete a correcciones
radiométricas (pasando los niveles digitales originales a radiancia o reflectividad en el
sensor, es decir, fuera de la atmósfera) y geométricas (utilizando datos orbitales, puntos
de control o un modelo de elevación del terreno) la imagen obtenida tendrá un nivel de
corrección L1, y en ella los valores radiométricos y geométricos serán fiables. Este nivel
no implica una georreferenciación detallada (los usuarios deben comparar y ajustar la
georreferenciación en su área de estudio), ni evita errores puntuales en áreas concretas
de la imagen (deben siempre comprobarse los valores radiométricos de las cubiertas ba-
jo estudio). Cuando a las imágenes de nivel L1 se les aplican algoritmos para convertir
la radiación en valores de variables geofísicas de las cubiertas, como su temperatura, la
reflectividad de las cubiertas, etc. obtenemos imágenes de nivel L2. La interpretación
de estas variables geofísicas, es decir, la producción de un mapa temático derivado de
la imagen L2, se dice que es un producto L3: concentración de clorofila, contenido de
agua de la vegetación, etc. En estos productos, la resolución espacial no tiene por qué
ser la original de la imagen. Además, pueden combinarse informaciones de varios pro-
ductos L2: por ejemplo, para un producto de riesgo de incendios, se pueden combinar
la temperatura y el contenido de agua, y hacerlo combinando varios píxeles del nivel L2
(normalmente, por criterios estadísticos). Cuando a los productos L2 o L3 se les une otra
información procedente de otras fuentes que no son del sensor o que no se han obtenido
por teledetección (por ejemplo, calculadas mediante modelos numéricos, o basadas en
información geográfica, etc.), o se combinan en forma de series temporales, se habla de
productos L4.
Respuesta: (d) Obtener más resolución espectral (con una misma tecnología del sen-
sor) requiere disminuir la radiométrica y la espacial. Lograr mayor resolución
espectral requiere recibir la luz sólo dentro de una banda espectral más estre-
cha, es decir, recibir una fracción muy seleccionada de la radiación que llega al
sensor. Por lo tanto, se debe lograr un compromiso entre la cantidad de energía
103
C UESTIONES DE TELEDETECCIÓN
Para saber si las imágenes obtenidas por un satélite (por su sensor) son adecuadas para
los objetivos que perseguimos necesitamos conocer la localización de sus bandas (dentro
del espectro electromagnético) y sus cuatro resoluciones: espacial, temporal, espectral y
radiométrica.
La resolución espacial de la imagen obtenida por un sensor define el tamaño de
la unidad espacial mínima de muestreo. En algunos casos se emplea el IFOV (campo
instantáneo de visión) que se define como la sección angular (en radianes) observada
en un momento determinado. El IFOV determina el tamaño de píxel (L) de la imagen
siguiendo la relación L = 2H tan(IFOV), siendo H la distancia del sensor a la superficie
terrestre. En este sentido el tamaño de píxel depende en primer término de la distancia del
satélite a la Tierra; las órbitas geoestacionarias se describen a distancias mucho mayores
de la Tierra que las órbitas polares: 36000 km frente a unos 1000 km. Además, cuanto
mayor sea la distancia focal del telescopio que el sensor utiliza para la captación de la
luz, igual que sucede con los teleobjetivos en fotografía, menores IFOV alcanzamos,
“más lejos” podemos llegar, mayor resolución espacial obtenemos. Sin embargo, esto
quiere decir que menos energía será recibida dentro del IFOV.
La órbita define también el “tiempo de revisita” o resolución temporal, que es tiempo
que transcurre desde que un sensor toma datos de un punto de la cubierta terrestre hasta
que vuelve a tomar datos del mismo punto (no necesariamente repitiendo exactamente
FOV, field of view, de la imagen previa). Este valor es del orden de días en los satélites
de teledetección en órbita polar, pero muy variables: 16 días (Landsat 7), 7 días (CHRI-
S/PROBA), 3 días (Deimos), 26 días (SPOT), etc. En los satélites geoestacionarios, la
resolución temporal es de entre 15’ y 30’, el tiempo que tardan en integrar la radiación
electromagnética que les llega dentro de sus bandas hasta formar una imagen. En este
caso, cuenta sobre todo la poca energía que llega desde el Sol en el infrarrojo medio,
donde se hallan muchas de las bandas de interés para estudiar el agua en la atmósfera;
por ello se necesitan tiempos tan largos para captar suficiente señal.
La resolución radiométrica del sensor es la capacidad que tienen sus detectores para
discriminar diferentes intensidades de radiación (de luz). Queda definida por el número
de bits que se utilizan para guardar el valor de intensidad en cada píxel (para una banda
concreta), que definen el número de niveles digitales (DN) que puede discriminar el
sensor. Si el sensor tiene una resolución radiométrica de 8 bits podrá caracterizar cada
píxel con 28 DN (los 256 niveles de una escala de grises). Si el sensor tiene 14 bits
104
M ÉTODOS DE MEDIDA
podrá captar hasta 214 DN (16384 intensidades de color para una determinada banda).
Un sensor que vaya a adquirir mucha señal, ya sea porque sus bandas son anchas, porque
la adquiere en un IFOV grande o porque sus detectores son muy sensibles, requerirá un
número grande de bits para diferenciar entre todo el rango de valores de radiancia que
medirá. Por el contrario, si la señal que se adquiere es muy poca, no se pueden diferenciar
muchos niveles de radiancia, y la resolución radiométrica necesaria será menor.
Por último, la resolución espectral hace referencia al número y “anchura” de cada
una de las bandas en las que el sensor recoge información. La resolución espectral de un
sensor, atendiendo al número de bandas, lo clasifica en pancromático (1 banda, habitual-
mente abarcando todo el rango visible), multiespectral (habitualmente de 3 a 7 bandas
en el rango visible e infrarrojo) e hiperespectral (llegando hasta 100 bandas). Además de
con el número de bandas, la resolución espectral aumenta inversamente con el ancho de
las mismas. Si las bandas son muy anchas recogerán valores promediados e impedirán
la observación de elementos de diferenciación en el espectro de las cubiertas terrestres.
Así resulta más informativo contar con 3 bandas en el visible (rojo, verde y azul) que
con una sola banda pancromática (fotografía en blanco y negro). Los sensores hiperes-
pectrales se caracterizan por tener bandas estrechas, lo que les permite situar un número
elevado de bandas contiguas en el rango visible e IR, especialmente interesante para el
estudio de la vegetación. Que las bandas sean estrechas y próximas permite reconstruir
fielmente los espectros de reflexión de las cubiertas, que es la principal ventaja de estos
sensores.
Aunque lo ideal sea disponer de sensores con elevadas resoluciones en todos los
aspectos, el aumento de cualquiera de ellas afecta a las demás. También implica un
aumento importante del número de datos, es decir, necesidades de memoria (en este
sentido el más costoso es el aumento de resolución espacial). Por esta razón cuando
se diseñan los sensores se hacen con objetivos concretos y se busca la combinación
de resoluciones que mejor responda a esas necesidades. El sensor CHRIS/PROBA, por
ejemplo, cuenta con 62 bandas entre los 400 y 1000 nm, con un ancho de 6-20 nm. Su
resolución espacial es de unos 10 m, es decir, bastante alta. Para aumentar la señal que
recibe, utiliza en lugar de un detector CCD, un detector CMOS, que es más sensible. Por
otro lado, el OLI del Landsat 8 usa un detector CCD para adquirir bandas de entre 60 nm
(en el azul) y 200 nm (en el infrarrojo medio) que cubren parcialmente el rango visible
e infrarrojo. Su resolución espacial es de 30 m.
105
C UESTIONES DE TELEDETECCIÓN
Respuesta: (a) Por lo general, los objetos que se diferencian en color, se diferencian
también (aunque peor) en la banda pancromática. Existen técnicas para combinar
la información de ambos tipos de bandas: la alta resolución espacial de la banda
pancromática y la alta resolución espectral de las bandas multiespectrales.
El sensor de alta resolución en el visible (HRV, high resolution visible) de los primeros
satélites SPOT (SPOT-1,2,3) proporcionaba imágenes de alta resolución espacial, 10 m,
en su banda pancromática, y de 20 − 30 m en las otras bandas espectrales del visible:
rojo, verde y azul. Con el SPOT-4 se introdujo el HRVIR, con una mejora: bandas en
el infrarrojo (en el cercano y en el medio), con 20 m de resolución espacial. Los SPOT-
5, que es a los que se refiere este enunciado, proporcionan un producto HRV(IR) con
bandas espectrales adquiridas con resolución de 10 m, y una pancromática sintética de
2,5 m; el nuevo sensor se denomina HRG (high resolution geometrical).
Es habitual que los sensores dedicados a obtener imágenes de la Tierra (en particular
de la zona continental) dispongan de bandas pancromáticas de alta resolución espacial.
Por ejemplo, los sensores Landsat disponen de esta banda pancromática en el ETM+ del
Landsat-7 y el OLI (Operational Land Imager) del Landsat 8, que proporciona una reso-
lución espacial de 15 m, el doble que sus bandas espectrales, que tienen píxeles de 30 m
(lo tradicional en los productos Landsat). Otros satélites orientados a obtener productos
de alta resolución espacial para la elaboración y actualización de cartografías, empleadas
en sistemas de información geográfica (GIS), también contienen bandas pancromáticas:
Ikonos (pancromática de 1 m, multiespectrales de 4 m), QuickBird (pancromática de
0,7 m, multiespectrales de 2,8 m), WorldView-2 (pancromática de 0,5 m, multiespectra-
les de 2 m), WorldView-3 (pancromática de 0,3 m, multiespectrales de 1,24 m).
Las bandas espectrales del HRG son bandas como las adquiridas por otros sensores
de barrido por empuje: con una línea de detectores (un array CCD) de 6000 píxeles en
cada banda. La banda pancromática, se adquiere simultáneamente en dos detectores, ca-
da uno con dos arrays de 12000 píxeles. Así, se puede construir una banda pancromática
en la que a cada píxel de las bandas espectrales se le asignan 4 (2 × 2) de los detectores
de alta resolución espacial.
Por lo tanto, en las bandas multiespectrales del HRG de SPOT, se pueden diferenciar
objetos separados 10 m entre ellos, es decir, la distancia entre muestras sobre el terreno
106
M ÉTODOS DE MEDIDA
Respuesta: (c) Los detectores que captan la luz procedente del analizador de un sensor
multiespectral o hiperespectral (de barrido o de empuje) suelen hallarse coloca-
dos en una línea perpendicular a la dirección de barrido del escáner, que podemos
imaginar como paralela a la trayectoria del sensor. Aunque con una combinación
de espejos se podría dirigir el haz de luz a cualquier sitio, siempre se trata de
reducir al mínimo el número de reflexiones, para evitar al máximo las pérdidas de
luz.
107
C UESTIONES DE TELEDETECCIÓN
108
M ÉTODOS DE MEDIDA
Cada elemento de la cubierta terrestre tiene, en base a sus características (físicas, bioquí-
micas y de estructura interna), un comportamiento único ante la incidencia de la energía
del espectro electromagnético (la luz), tanto si ésta proviene del sol (teledetección pasi-
va) como si es emitida por una antena (teledetección activa).
La presencia de pigmentos o de determinados componentes químicos provoca la ab-
sorción de longitudes de onda concretas. Por ejemplo, la clorofila tiene dos picos de ab-
sorción, uno en el azul y otro en rojo, por lo que todos aquellos elementos que contengan
clorofila mostrarán esta característica espectral: la vegetación, el agua cuando contiene
algas fotosintéticas, etc.; otro tipo de pigmento presente en vegetales y animales, los ca-
rotenos, tienen también dos picos de absorción, esta vez en el azul y en el verde, lo que
les aporta a nuestra vista un color anaranjado, como el de la zanahoria (pero también el
de algunos langostinos).
La estructura interna de las hojas, con múltiples espacios huecos en el parénquima,
presenta muchas oportunidades para que la luz se refleje: una por cada interfase aire-
pared celular. Por esta razón, en ausencia de los pigmentos, las hojas reflejarían gran
parte de la luz que les llega. De hecho, en el infrarrojo cercano, ya sin influencia de las
clorofilas, carotenos y xantófilos (responsables de los colores verdes o amarillos de las
hojas, y también de los diversos colores de las flores), las hojas reflejan hasta un 80 %
de la luz que les llega. Por eso aparecen muy brillantes en las imágenes de cámaras
de “visión nocturna”, que usan luz infrarroja invisible al ojo humano, o en las bandas
NIR de los sensores de teledetección. Luego, en longitudes de onda más largas, vuelve
a aparecer un “pigmento” que absorbe la luz: el agua.
109
C UESTIONES DE TELEDETECCIÓN
10. Los sensores activos, como el radar, emplean una técnica semejante a la que
usan los murciélagos para orientarse en la oscuridad: emiten señales y
escuchan sus ecos. Pero, ¿qué tipo de señales usa un radar?
Respuesta: (b) Los sensores radar envían hacia la superficie pulsos electromagnéticos
que, por su longitud de onda (entre 1 mm y 1 m), pertenecen al rango de las mi-
croondas. Estas ondas son mucho más cortas que las utilizadas para transmitir
señales radiofónicas, que tienen longitudes de onda entre 10 m y 1 km, aunque
sólo un poco más cortas que las usadas generalmente en televisión, que se hallan
entre 0,1 m y 10 m.
110
M ÉTODOS DE MEDIDA
muestreadas por circuitos electrónicos, es decir, como para grabarlas, por lo que es posi-
ble extraer después toda la información reemitida por la superficie. No sólo la intensidad
de la onda en cada banda (como en el caso de los sensores ópticos) si no también la
información de fase de oscilación de la onda. El radar emite con su antena esta radiación
con una fase conocida, por lo tanto, puede compararla con la fase que llega: esto da in-
formación, por ejemplo, sobre la rugosidad de la superficie, el comportamiento eléctrico
de ella, la velocidad a la que se está acercando o alejando de ella, etc.
La antena de un radar de teledetección emite ondas esféricas, pero con su energía
concentrada alrededor de una dirección: más concentrada en la dirección de avance del
satélite (el path) y menos concentrada en la dirección transversal a ésta. De ese modo,
barre una franja de terreno. Los puntos a los que antes llega la onda, reflejan antes su
energía: por lo tanto son recibidos antes por la antena del radar. La sucesión de señales
procedentes de los distintos puntos de la superficie que barre la onda del radar, se llama
eco. Cuando se representa la amplitud del eco en función del tiempo, se tiene una idea de
cómo es la reflexión a lo largo del área iluminada por la señal emitida por la antena. Este
modo de funcionamiento del radar se denomina de apertura real (RAR, real aperture
radar) y visión lateral. Era el funcionamiento de los primeros sensores radar y el de los
radares que se usan desde muchas plataformas aerotransportadas (aviones). Cuanto más
ancha es la antena en una dirección, más puede concentrar la energía en ella, por eso la
resolución espacial de estos radares está limitada por el tamaño de su antena.
Los radares actuales son radares de apertura sintética o SAR (synthetic aperture
radar). Proporcionan la misma información que los antiguos, pero con mayor resolución
espacial. Esto es porque, gracias a algoritmos de procesamiento de los sucesivos ecos,
son capaces de “simular” cómo se vería la escena con una antena de mucho mayor
tamaño: tan grande como la distancia avanzada por el satélite mientras desde él se ve
un punto dentro del área iluminada por su antena.
Nota: Más información sobre los sensores radar se puede encontrar en el tema 11, “La
información de las ondas: el radar”.
111
C UESTIONES DE TELEDETECCIÓN
datos crudos (raw data) Datos numéricos transmitidos por un sensor al adquirir una
imagen sin ningún procesamiento posterior.
detector Dispositivo electrónico capaz de convertir una señal energética en una señal
eléctrica relacionada con la energía transmitida por esa señal. Por ejemplo, un
CCD es un detector que convierte una señal luminosa en una corriente eléctrica
cuya intensidad es proporcional a la energía radiante incidente en él.
112
M ÉTODOS DE MEDIDA
error Diferencia entre una medida de una magnitud física y el valor real de dicha mag-
nitud.
GSD (ground sampling distance) Longitud característica, medida sobre el terreno, del
área de la que procede la energía radiante correspondiente a un píxel de una ima-
gen.
incertidumbre Longitud del intervalo de valores alrededor del valor de una medida en
el que se puede afirmar (con alta probabilidad) que se halla el valor verdadero
de una magnitud. Toda medida está afectada de error; la incertidumbre indica la
magnitud esperable de ese error.
medida directa Medida realizada por interacción directa entre el instrumento de medi-
da (el sensor, en teledetección) y el objeto medido (por ejemplo, la radiancia de la
onda luminosa).
multiespectral Sensor capaz de medir la radiancia recibida en varias bandas en las que
se dan características de absorción o de reflexión de determinadas cubiertas de
interés (p.ej. la banda del rojo y la del NIR para caracterizar la vegetación, o ban-
das de absorción de los hidróxidos en el SWIR para caracterizar estos minerales).
Las bandas no son tan estrechas como las de un sensor espectroscópico (como
los de color oceánico) ni tan contiguas como las de un sensor hiperespectral. La
113
C UESTIONES DE TELEDETECCIÓN
NIR (near infra-red) Banda espectral que comprende longitudes de onda entre 800 nm
y 1,3 μm, es decir, entre la banda visible y el infrarrojo de onda corta (SWIR). Es
una banda característica de la vegetación, por su alta reflectividad en ella.
banda pancromática Banda espectral ancha que abarca todo o la mayor parte del rango
visible de un sensor. Al adquirir gran cantidad de energía radiante (por su amplitud
espectral y porque la Tierra refleja la mayor parte de la luz en el visible) esta
banda permite usar detectores y tiempos de adquisición pequeños, dando una alta
resolución espacial, muy útil para el análisis visual de las imágenes.
path (camino) Línea o extensión geográfica de la que adquiere imágenes un sensor se-
gún se desplaza su plataforma (aerotransportada o satelital).
píxel Elemento más pequeño en una imagen. Por extensión, detector (o detectores que
adquieren la señal simultáneamente en varias bandas) de un sensor que adquiere
la señal que se almacena en él (en el producto original sin procesar). A veces,
abusando del lenguaje, se refiere al área correspondiente sobre el terreno, de la
que procede la energía radiante detectada en cada uno de estos elementos.
precisión Mínima diferencia significativa entre dos medidas llevadas a cabo con un
instrumento.
radar Sensor activo que emite ondas de radio y recibe los ecos de su reflexión, por
ejemplo, en la superficie de la Tierra. Originalmente era el acrónimo de Radio
Detection and Ranging, es decir, detección y medida de distancias mediante ondas
de radio.
resolución espacial Distancia mínima sobre el terreno entre dos objetos que pueden ser
distinguidos en una imagen adquirida por un sensor. Esto es, la precisión con que
un sensor remoto puede determinar la posición de un objeto sobre el terreno. Es
igual o superior al tamaño del píxel.
114
M ÉTODOS DE MEDIDA
resolución espectral Diferencia entre dos longitudes de onda cuya energía radiante
puede distinguir un sensor. Corresponde a la anchura de una banda espectral en un
sensor multiespectral, o a la distancia entre los centros de dos bandas contiguas,
en un sensor hiperespectral.
sensor activo Sensor que emite una señal radiante que, tras reflejarse en el objeto a es-
tudiar, vuelve a ser captada por el propio sensor. Ejemplos son el radar, el LiDAR
y el sónar.
sensor de empuje (pushbroom) Sensor que dispone de una línea de detectores hacia
los que se dirige la energía radiante procedente de una cubierta simultáneamente,
sin necesidad de elementos ópticos móviles. El desplazamiento del sensor sobre
el terreno hace que se adquieran las líneas de barrido una tras otra que, apiladas,
forman la imagen.
sensor pasivo Sensor que recibe energía radiante sin haberla emitido previamente. Usual-
mente los sensores ópticos captan la energía solar reflejada por las cubiertas y los
sensores térmicos la energía radiante emitida espontáneamente por los cuerpos en
función de su temperatura.
SWIR (short wave infrared) Banda espectral del infrarrojo de onda corta, correspon-
diente a longitudes de onda entre los 1,3 μm y los 2,5 μm, aproximadamente. Es
una banda característica de los minerales, que presentan muchas bandas de absor-
ción que permiten diferenciar grupos químicos como carbonatos o hidróxidos.
telescopio (sistema de enfoque) Sistema óptico formado por lentes y/o espejos que con-
centra la energía radiante procedente de la superficie terrestre en un punto desde
el que se dirige al analizador y al detector.
115
C UESTIONES DE TELEDETECCIÓN
VIS (visible) Banda espectral del espectro visible, entre los 400 nm y los 800 nm (apro-
ximadamente), dentro de la cual es sensible el ojo humano a la radiación electro-
magnética. Además de en la fotointerpretación, en teledetección esta es la banda
de los pigmentos, de la clorofila en la vegetación y las microalgas (especialmente
en las bandas del azul y el rojo), y de los óxidos de minerales (como los ferrosos).
2.5. BIBLIOGRAFÍA
M. Barnsley (1999). “Digital remote sensing data and their characteristics”. En:
Geographical Information Systems: Principles, Techniques, Applications and Ma-
nagement, Editado por M. G. P. Longley, pp 451–466. John Wiley, New York,
1999.
L. Di, B. Kobler (2000). “NASA Standards for Earth Remote Sensing Data”. In-
ternational Archives of Photogrametry and Remote Sensing, 33(B2) PART 2: 147-
155.
J.R. Jensen (2005). “Remote Sensing Data Acquisition Alternatives”. En: Intro-
ductory Digital Image Processing: A Remote Sensing Perspective, capítulo 2. Pren-
tice Hall, New Jersey, 2005.
116
M ÉTODOS DE MEDIDA
117
C UESTIONES DE TELEDETECCIÓN
118
Tema 3
GUION-ESQUEMA
V. escotópica V. fotópica
C UESTIONES DE TELEDETECCIÓN
Aberración cromática I
lum
i
na
cia
inan
nc
Lum
ia
Cono Bastón
PUPILA
CORNEA
CRISTALINO
RETINA
Aberraciones geométricas
Miopía
Hipermetropía
F ÍSICA DE LA VISIÓN HUMANA
3.1. INTRODUCCIÓN
El ojo humano actúa como un sensor multiespectral por lo que conocer su funciona-
miento permite entender mejor cómo adquieren la información los sensores multiespec-
trales; en particular, algunos defectos en la adquisición. También es interesante conocer
cómo cuantifica nuestro ojo la cantidad de luz que recibe: en esto se basa la representa-
ción de las imágenes que hacemos, esto es, los modelos de color.
3.2. CUESTIONES
1. Para enfocar la luz sobre el detector del ojo, el ojo humano posee varios elementos
transparentes. ¿Cuál de éstos no lo es?
a) córnea
b) iris
c) cristalino
d) humor vítreo
2. Como los sensores remotos de barrido, el ojo humano puede tener defectos en su
enfoque de la luz sobre el detector; ¿cómo se manifiestan éstos?
a) su resolución radiométrica
b) su resolución espacial
c) su resolución espectral
d) su resolución temporal
121
C UESTIONES DE TELEDETECCIÓN
5. Igual que muchos sensores remotos, el ojo humano puede funcionar en diferentes
“modos de ganancia”, mediante adaptación a las condiciones de luz ambiente. . .
a) agrandando la pupila
b) aumentando la cantidad de pigmentos fotosensibles
c) aprovechando el ruido para mejorar la señal
d) todas las anteriores
a) radiancia
b) luminancia
c) intensidad radiante
d) irradiancia
122
F ÍSICA DE LA VISIÓN HUMANA
a) el lux
b) la candela
c) el lumen
d) el nit
a) la luminancia total
b) la luminancia en el color rojo
c) la luminancia en el verde
d) ninguna de las anteriores
10. De los siguientes modelos de color, ¿cuál es el empleado para transmitir vídeo?
a) sRGB
b) CMYK
c) YUV
d) HSV
123
C UESTIONES DE TELEDETECCIÓN
Figura 3.1. Anatomía del ojo humano: (1) esclerótica, (2) úvea o coroides, (3) canal de Schlemm (drenaje
del humor acuoso), (4) base del iris, (5) córnea, (6) iris, (7) pupila, (8) y (9) cámaras anterior y posterior
con el humor acuoso, (10) cuerpo ciliar, (11) cristalino, (12) cámara vítrea con el humor vítreo, (13) retina,
(14) nervio óptico, (15) zónula o ligamento suspensorio. Fuente: Wikimedia Commons, por Joël Gubler,
CC-BY-SA.
3.3. RESPUESTAS
1. Para enfocar la luz sobre el detector del ojo, el ojo humano posee varios
elementos transparentes. ¿Cuál de éstos no lo es?
Respuesta: (b) Como sistema óptico, el ojo humano posee una lente, el cristalino, que
proyecta la luz sobre una pantalla que actúa también como elemento sensible, la
retina. Entre la retina y el cristalino no hay aire, sino un líquido transparente, el
humor vítreo. La luz que llega al cristalino es seleccionada con el iris (un ele-
mento opaco), que determina el tamaño de la pupila de entrada. Todo el sistema
óptico está encapsulado dentro de la esclerótica (también opaca), con una venta-
na recubierta por la córnea, que es transparente, y a través de la que entra la luz
en el sistema (ver figura 3.1).
El ojo que poseen la mayoría de los vertebrados (entre ellos los seres humanos) es un
órgano complejo resultado de miles de millones de años de evolución. El ojo más simple
que podemos encontrar en la naturaleza, representando las primeras instancias en la
evolución de este órgano, consiste sencillamente en un pequeño punto ocular (orgánulo)
124
F ÍSICA DE LA VISIÓN HUMANA
2. Como los sensores remotos de barrido, el ojo humano puede tener defectos en
su enfoque de la luz sobre el detector; ¿cómo se manifiestan éstos?
Respuesta: (b) El enfoque de la luz por los distintos elementos transparentes del ojo
hace que se pierda capacidad para distinguir puntos vecinos, ya que éstos apare-
cen deformados o mal enfocados: se ven como discos o elipses, en lugar de como
puntos.
125
C UESTIONES DE TELEDETECCIÓN
f
C
Figura 3.2. Geometría de la formación de una imagen por el cristalino sobre la retina.
paralelos al eje óptico, son desviados hacia el foco del sistema óptico. De este modo, es
fácil calcular en dónde se formará la imagen: allí donde converjan ambos rayos.
Los defectos de la visión debidos al mal enfoque se pueden clasificar, entonces,
según como el ojo forma la imagen de un punto. Básicamente, la imagen de un punto
por el sistema de visión, puede ser deformada (véase la figura 3.3). Un punto se ve como
un disco cuando no es correctamente enfocado en el plano de formación de la imagen,
sino antes (en este caso, hablamos de hipermetropía) o después (caso de la miopía).
En ambos casos, el mal enfoque se produce por una incapacidad de los músculos que
tiran del cristalino (los músculos ciliares) para deformarlo. Con el paso de los años, este
problema acaba apareciendo y es lo que se llama vista cansada o presbicia, la dificultad
para enfocar los objetos a poca o mucha distancia. Cuando los músculos ciliares ejercen
sobre el cristalino una tracción mayor en una dirección que en otra, el punto aparecerá
desenfocado en una de ellas, dando la impresión de “alargar” el punto; en esto consiste
el astigmatismo. Todos estos defectos (y otros posibles) en la forma de enfocar un punto
se denominan aberraciones del sistema óptico.
El plano en el que se forma la imagen depende de la distancia del objeto a nosotros
y de la longitud focal de la lente de nuestro ojo. A su vez, la longitud focal de la lente de
nuestro ojo depende de las curvaturas de los elementos que lo forman. Principalmente,
de la córnea y del cristalino. De ellos, sólo podemos hacer variar la forma del crista-
lino; cuando no somos capaces de hacerlo para enfocar los puntos a todas las distancias,
necesitamos lentes de corrección (“gafas”) con curvaturas positivas, si el cristalino es-
tá demasiado plano como para enfocar objetos cercanos, o curvaturas negativas, si los
músculos ciliares no son capaces de aplanar el cristalino para enfocar objetos lejanos.
En el caso del astigmatismo es válido lo mismo, teniendo en cuenta que la curvatura va-
riará en función del eje de deformación de la imagen. En la actualidad, también existen
técnicas que modifican la curvatura de la córnea (mediante lentillas, durante el sueño)
para corregir estos defectos.
126
F ÍSICA DE LA VISIÓN HUMANA
f
C
f
C
f’
C f’’
Figura 3.3. Defectos de la visión: enfoque detrás de la retina o miopía (arriba), enfoque delante de la retina
o hipermetropía (centro) y enfoque antes o después dependiendo de la dirección del rayo de luz, que causa
astigmatismo (abajo).
127
C UESTIONES DE TELEDETECCIÓN
Respuesta: (c) La principal diferencia entre los receptores de luz en la retina (las cé-
lulas con pigmentos fotosensibles llamadas conos y bastones) y los de un sensor
multiespectral es su resolución espectral: mientras que las bandas de un sensor
multiespectral no suelen superponerse, las “bandas” de sensibilidad del ojo hu-
mano normal están altamente superpuestas. Además, se limitan al rango del es-
pectro electromagnético que llamamos (por esa razón) visible. No obstante, tam-
bién presentan diferencias la resolución espacial (casi siempre mayor en un sen-
sor remoto; además, en el ojo humano es mayor en el centro del campo de visión
que en la periferia), la resolución radiométrica (mucho mayor en un sensor mul-
tiespectral, en términos absolutos, aunque el rango de valores admitidos por el
ojo sea mucho mayor), y la resolución temporal (mayor en el ojo humano, que es
capaz, de detectar cambios en todo el campo visual en tiempos del orden de la
décima de segundo, en condiciones normales).
El ojo humano es un sistema con un sensor analógico (la retina) unido a un potente
procesador de imágenes en tiempo real (la propia retina y la región occipital de córtex
cerebral). Es difícil, por lo tanto, precisar qué es su resolución radiométrica, espacial, es-
pectral o temporal. Por ejemplo, el ojo humano normal (es decir, sin defectos de visión)
es capaz de diferenciar unos 16 niveles de gris, por lo que tendría una resolución radio-
métrica de sólo 4 bits; sin embargo, es capaz de diferenciar un número de colores muy
grande, que además depende del contexto cultural del individuo (los propios colores,
proceden de una evolución para percibir mejor el entorno que nos rodea ). El ejemplo
típico es el del esquimal que percibe decenas de blancos en la nieve (relacionados con
el estado de ésta), allí donde nosotros percibiríamos sólo “blanco”, o del indígena de
la Amazonia, capaz de distinguir multitud de verdes en la vegetación, donde nosotros
sólo percibiríamos “verde” (básicamente, porque poseen experiencia y expresiones para
ellos). Por otro lado, esos niveles de gris se refieren a una iluminación fijada, pero el ojo
humano es capaz de funcionar en un rango muy amplio y adaptable de iluminaciones:
entre la luminosidad del objeto más brillante en un día soleado y el objeto más tenue que
podemos distinguir en una noche sin luna, hay una relación de 1012 ; eso representaría
unos 40 bits de resolución radiométrica para un sensor multiespectral. Por último, el ojo
humano (normal y sin defectos de visión) es capaz de diferenciar dos objetos puntuales
situados a 1′ de arco; si estuviésemos en un satélite a 900 km sobre la superficie, ello
representaría 262 m (compárese con la resolución de MERIS o MODIS, en torno a los
300 m, y con la de los sensores Landsat, de 30 m, o SPOT, de 2,5 m).
128
F ÍSICA DE LA VISIÓN HUMANA
Sensibilidad
Longitud de onda ( μ m )
Figura 3.4. Sensibilidad de las bandas del sensor Landsat ETM+. Fuente: NASA, USGS.
Sensibilidad
Longitud de onda ( n m )
Figura 3.5. Curvas de sensibilidad de los tres tipos de conos perceptores del color en la retina humana: L
(rojo), M (verde) y S (azul).
129
C UESTIONES DE TELEDETECCIÓN
0.3
sensibilidad espectral
0.2
0.1
0.0
−0.1
400 500 600 700
λ (nm)
Figura 3.6. Bandas de sensibilidad espectral de la visión cromática humana (medida psicométrica). Nótese
la sensibilidad negativa de nuestra “banda roja” en longitudes de onda entre el verde y el azul.
130
F ÍSICA DE LA VISIÓN HUMANA
Densidad de celulas
131
C UESTIONES DE TELEDETECCIÓN
Respuesta: (d) El ojo humano es capaz de variar la cantidad de luz que entra en él
contrayendo el iris (es decir, reduciendo el tamaño de la pupila). Su capacidad
para detectar la luz varía también en función de la concentración de pigmentos
fotosensibles: a menor intensidad luminosa, mayor es esta concentración. Ade-
más, se ha propuesto que el cerebro utiliza el “ruido” en las propias células de la
retina (es decir, su comportamiento aleatorio) para detectar señales muy débiles.
La ganancia del ojo humano varía en función de las condiciones de iluminación. Por un
lado, el iris se acomoda a la cantidad de luz, protegiendo la retina de deslumbramientos.
El diámetro de la pupila puede variar en un factor 5 o más (es decir, que el área por la
que entra la luz, puede variar hasta en un factor 30). La respuesta del iris es rápida, del
orden del segundo.
La concentración de los pigmentos fotosensibles también varía en función de la ilu-
minación a la que esté sometido el ojo. El pigmento más variable es la rodopsina, el
132
F ÍSICA DE LA VISIÓN HUMANA
133
C UESTIONES DE TELEDETECCIÓN
luego, al procesar las imágenes, se normalizaban las ganancias para que fuesen siempre
las mismas nominalmente. La banda 6, por otra parte, siempre se digitalizaba en los dos
niveles de ganancia: por eso se sirven dos bandas 6, una con ganancia nominal 1 y otra
con ganancia aumentada 1.5. La ganancia, en este caso, se lograba variando el voltaje
de alimentación del conversor analógico-digital que lee los valores de los detectores.
Cuando esta ganancia era demasiado alta para los píxeles brillantes en una escena, esos
píxeles aparecían saturados. Esto sería análogo a que, con la vista acostumbrada a un
ambiente de oscuridad (y, con la concentración de rodopsina muy alta), se nos expusiera
a la luz del mediodía: nuestros píxeles se saturarían, seríamos deslumbrados.
Otros sensores, como en CHRIS/PROBA, emplean otra estrategia: para aumentar la
ganancia, unen bandas. Este sensor hiperespectral puede adquirir más de 100 bandas;
sin embargo suele adquirir datos en el modo 1 (hiperespectral), en el que combina estas
bandas en 64 bandas, 2 (de aguas), 3 (de tierra) y 4 (de clorofila), en los que las combina
en 18 bandas sintéticas, o en modo 5 (de tierra, a medio barrido) con 37 bandas; cada
combinación es adecuada para un objetivo. Esto es parecido a como nuestro ojo aprove-
cha la luz captada por los bastones para “reforzar” la visión proporcionada por los conos,
cuando disminuye la cantidad de luz.
Respuesta: (c) Esta zona con “píxeles insensibles” es la denominada mácula lútea o
punto ciego. En ella no se percibe imagen y, por lo tanto, no llega información
al cerebro. No obstante, como está alejada de la fóvea, donde se centra nuestra
atención, y como vemos con los dos ojos, la información en esa zona es rellena-
da por el cerebro, o bien a partir de la imagen captada por el otro ojo, o bien
“completando” la imagen.
134
F ÍSICA DE LA VISIÓN HUMANA
que está conectada, o bien, inhibir éstas para que no sean estimuladas: esto es equivalente
a aplicar un filtro de suavizado o de detección de bordes, respectivamente. Es decir, las
neuronas en la retina actúan como un procesador de imágenes (en el propio detector).
La propia retina hace sumas y restas de imágenes, detecta bordes, estima valores de
“píxeles” a partir de sus vecinos y lleva a cabo otras transformaciones no lineales (filtros
de máximo o mínimo, o de mayoría), etc. Toda esta información es transmitida por el
nervio óptico al cerebro, que la une e interpreta.
Por ejemplo, la información que no le llega del “punto ciego” se suple con un valor
estimado a partir de la imagen que lo rodea. Esto se puede comprobar fácilmente con el
clásico experimento de situarse a la distancia en la que, mirando (con un solo ojo) a un
punto, otro punto “desaparece” dentro de esta zona de ceguera: en realidad, lo “vemos”
relleno del color que lo rodea, del fondo de la imagen.
La consecuencia de que al cerebro le llegue esta información, y no sólo los píxeles
adquiridos por conos y bastones, la podemos encontrar en varios efectos visuales. Tam-
bién están en el origen de cómo interpretamos una imagen según las leyes de la Gestalt:
completando y prolongando líneas, uniendo objetos próximos, etc.
Respuesta: (b) Las magnitudes físicas que describen cómo es percibida la luz por el
ojo humano son las unidades fotométricas. Cada una de estas magnitudes per-
mite caracterizar un tipo de cuerpo emisor de luz o una forma de percibirla. En
particular, la sensación captada por el ojo procedente de un punto de un objeto
se describe mejor por la luminancia.
La luz visible emitida por un foco puntual se caracteriza por su intensidad luminosa.
Esta cantidad se define de manera que caracteriza lo iluminada que se ve la pared de
un espacio vista por quien lleva ese foco puntual, es decir, de forma que no depende
de la distancia a dicha pared, sino de la potencia de la fuente y de lo concentrado del
haz luminoso. La unidad de intensidad luminosa es la candela (cd), históricamente, la
intensidad luminosa dada por la llama de una vela. La cantidad de luz visible que emite
totalmente el foco, es decir, su potencia luminosa, se mide en lumens (lm), y resulta
de integrar la intensidad luminosa a lo largo de los 4π estereorradianes sobre los que la
candela emite su luz.
Desde el punto de vista de una superficie iluminada, la cantidad de luz que llega a
ella (a toda ella, es decir, medida en lumens) no es suficiente para conocer el aspecto que
135
C UESTIONES DE TELEDETECCIÓN
136
F ÍSICA DE LA VISIÓN HUMANA
Respuesta: (a) La unidad de iluminancia, es decir, el flujo luminoso que llega por uni-
dad de área a los objetos de una escena, es el lux. Dado que nuestra visión percibe
la escena en su totalidad, esta iluminancia es la que definirá cómo de luminosa u
oscura la veremos.
137
C UESTIONES DE TELEDETECCIÓN
luminancia procedente de ésta, así que se integra la luminancia sobre los algo más de
2π estereorradianes que vemos con nuestros dos ojos. Dado que este ángulo sólido es
constante, lo que queda después de tener en cuenta los nits de todos los objetos visibles
dentro de él, son los lux que bañan a cada uno de estos objetos. Existe también un motivo
práctico para caracterizar la cantidad de luz en la escena por su iluminancia en lux: se
puede llevar un fotómetro a la escena y medir la cantidad de luz por unidad de superficie
(la de la ventana de entrada de luz en él) que llega a los objetos.
138
F ÍSICA DE LA VISIÓN HUMANA
Figura 3.8. El modelo de color XYZ (normalizado a Y = 1): en color se muestra la equivalencia con los
colores del modelo RGB dentro del “gamut” o gama de colores posibles. Los números indican la longitud
de onda del color totalmente saturado. Fuente: Wikimedia Commons.
139
C UESTIONES DE TELEDETECCIÓN
Tono
0º
H = 20
n
racio
Satu
7 %
5
S=
Figura 3.9. Coordenadas cromáticas del modelo HSV: la distancia al centro, es la saturación; el ángulo,
indica el tono.
10. De los siguientes modelos de color, ¿cuál es el empleado para transmitir vídeo?
Respuesta: (c) La transmisión de vídeo requiere una representación del color que cap-
ture muy eficientemente la información que nuestro sistema visual considera im-
portante. La razón es que es necesario reducir la cantidad de datos que se deben
transmitir por un canal de vídeo, sin perder información apreciablemente (trans-
mitiendo la suficiente para que no se observen pérdidas significativas en la ima-
gen).
140
F ÍSICA DE LA VISIÓN HUMANA
Un modelo de color es una forma de cuantificar los colores y, por lo tanto, una
forma de representarlos numéricamente. El modelo de color sRGB o RGB estándar, ha
sido definido como estándar internacional para la representación del color en imágenes
transmitidas por Internet (participaron en su definición empresas como Hewlett-Packard,
Microsoft, Intel o Corel, y organizaciones internacionales como el W3C).
El modelo HSV o HSL (hue, saturation, value/lightness; tono, saturación y valor o
luminosidad) es un modelo que representa el color por su luminancia, un ángulo que
señala el tono del color (rojo, amarillo, verde, cyan, azul o magenta) y un valor entre
0 y 1 que indica la pureza de ese color, entendida como la cantidad de otros colores
mezclados con él, que se observan como una adición de blanco. Este es un modelo
perceptual: representa características que nosotros observamos en los colores de una
imagen. En Teledetección se emplea muchas veces este modelo de color para representar
imágenes que destacan visualmente características de la imagen; en este caso, una banda
(por ejemplo, la pancromática) se interpreta como la coordenada de luminosidad, otra
(por ejemplo, la temperatura) se interpreta como el tono (variando entre, por ejemplo,
los 240◦ del azul y los 0◦ del rojo), y otra banda (por ejemplo, el NIR) la saturación.
El modelo de color YUV es el escogido para representar el color en la transmisión
de vídeo (por ejemplo, en el formato MPEG o los formatos de transmisión PAL y NTSC
usados originalmente en la televisión analógica), pero también en la compresión de la
información de color en formatos de imagen para escenas naturales (como el JPEG).
Como el HSV, separa la información de luminancia (la componente Y) de la informa-
ción cromática (el “croma”). La coordenada Y se normaliza al intervalo 0 (negro) - 1
(blanco), correspondiente a los valores mínimo y máximo del canal del dispositivo de
visualización (la pantalla de ordenador o de televisión). Las coordenadas UV represen-
tan la diferencia entre el rojo y el azul respecto a Y: estas diferencias se normalizan al
intervalo [−0,5; 0,5]. Por decirlo de alguna manera, no es necesario guardar muchos de-
cimales de estas coordenadas para tener una idea del color representado; ahí es donde se
logra la compresión en esta representación aproximada del color.
Por último, el modelo CMYK (acrónimo de Cyan, Magenta, Yellow y blacK) es un
modelo de color “sustractivo” que se utiliza para describir los colores en los dispositivos
de impresión, como las impresoras. Igual que el modelo RGB se basa en caracterizar có-
mo se generaría un color con luces de tres colores (los primarios), de forma que nuestro
ojo no distinguiese entre el color del objeto original y el sintetizado con esas luces, el
modelo CMYK busca cómo mezclar cuatro pigmentos de forma que la absorción de la
luz logre el mismo efecto: hacernos ver un color igual que el del objeto natural. Esto se
logra porque el color que presenta un objeto corresponde a la parte de la luz que incide
sobre éste y que no es absorbida, sino reflejada. Los colores cyan, magenta, amarillo y
141
C UESTIONES DE TELEDETECCIÓN
negro son, respectivamente, los complementarios de los colores rojo, verde, azul y blan-
co; por eso con ellos se puede sintetizar cualquier color que se pueda sintetizar con los
RGB.
(Respuesta con colaboración de Juan Ojeda Cáceres).
142
F ÍSICA DE LA VISIÓN HUMANA
aberración Defecto de un sistema óptico que hace que la imagen de un objeto formada
por sus lentes (o espejos) no sea semejante a dicho objeto. La aberración geomé-
trica consiste en que puntos que en el objeto se hallan en un plano en la imagen
formada se enfocan en planos diferentes, o que puntos que desde el centro óptico
del sistema se ven en una dirección, no forman su imagen a lo largo de esa misma
dirección. Cuando este comportamiento depende, además, del color, se habla de
aberración cromática.
astigmatismo Defecto de un sistema óptico que consiste en que éste forma las imágenes
a diferentes distancias dependiendo del ángulo polar en que los rayos llegan a él.
Esto tiene el efecto de generar imágenes anisótropas de objetos isótropos, por
ejemplo, imágenes alargadas de objetos puntuales.
143
C UESTIONES DE TELEDETECCIÓN
magnitud fotométrica Magnitud física que cuantifica la percepción visual de una señal
radiante.
magnitud radiométrica Magnitud física que cuantifica la energía de una señal radiante.
miopía Defecto de la visión que consiste en que el cristalino forma la imagen antes de
la retina, por lo que no se ven bien enfocados los objetos lejanos.
potencia luminosa Magnitud fotométrica que representa la cantidad de luz total emitida
por una fuente luminosa. Su unidad es el lumen (lm).
pupila Abertura del ojo por la que penetra la luz en él. Su tamaño está controlado por el
iris, que cierra esta abertura para evitar deslumbramiento en condiciones de mucha
luminosidad.
retina Capa de tejido que recubre el fondo del ojo y que contiene células fotosensibles
(conos y bastones) y neuronas que captan, procesan y transmiten las sensacio-
nes visuales, haciéndolas converger en el nervio óptico que parte de ella hacia el
cerebro.
RGB (red, green, blue) Sistema para definir un color mediante sus coordenadas tricro-
máticas, es decir, mediante las intensidades con que ese color estimularía la per-
cepción visual del rojo, el verde y el azul separadamente. Como norma general,
todo sistema para definir un color (y su brillo) debe usar tres coordenadas que se
transforman (de manera biunívoca) en las coordenadas RGB.
144
F ÍSICA DE LA VISIÓN HUMANA
XYZ Modelo de color que describe éste en un espacio matemático abstracto en el que
la coordenada Y representa la luminosidad y las otras dos componentes recogen
la cromaticidad, con la particularidad de que las curvas de sensibilidad del ojo
humano en estas nuevas coordenadas son siempre positivas. Es el modelo estándar
del CIE.
3.5. BIBLIOGRAFÍA
P. Kaiser (2013). The joy of visual perception — A web book. York University,
2013
URL: http://www.yorku.ca/eye/thejoy.htm
A. Patel, B. Kosko (2005). “Stochastic resonance in noisy spiking retinal and sen-
sory neuron models”. Neural Networks, 18(5-6):467-78.
D. Purves, G.J. Augustine, D. Fitzpatrick, et al., editors. (2001). “Vision: the eye”.
En: Neuroscience, 2ª edición, Capítulo 10. Sinauer Associates, 2001.
W.S. Stiles, J.M. Burch (1959). N.P.L. “Colour-matching Investigation: Final Re-
port (1958)”. Optica Acta, 6(1):1-26.
M.A. Webster, J.D. Mollon (1997). “Adaptation and the color statistics of natural
images”. Vision Research, 37(23): 3283-3298.
145
C UESTIONES DE TELEDETECCIÓN
146
F ÍSICA DE LA VISIÓN HUMANA
Breve curso por John W. Shipman del Instituto Tecnológico de Nuevo Mexico
sobre la teoría del color (con un cierto sesgo hacia la informática).
Colour Science.
URL: http://www.itp.uni-hannover.de/∼zawischa/ITP/effects.html
Sitio web mantenido por Dietrich Zawischa de la Universidad de Hannover con
mucha información sobre la medida, descripción y representación de los colores
explicada a diferentes niveles (alguno muy matemático).
147
Tema 4
Sensores de ejemplo
GUION-ESQUEMA
Tipos de sensores
El espectrorradiómetro de campo
Sensores aerotransportados
C UESTIONES DE TELEDETECCIÓN
150
S ENSORES DE EJEMPLO
4.1. INTRODUCCIÓN
4.2. CUESTIONES
Cuando se quiere realizar un estudio a pequeña escala sobre, por ejemplo, la dis-
1. tribución de determinados tipos de vegetación o suelos en una zona, se suele com-
parar la información espectral medida desde el satélite con información espectral
medida in situ con un espectrorradiómetro de campo. ¿En qué condiciones se lle-
van a cabo estas medidas?
151
C UESTIONES DE TELEDETECCIÓN
a) A la hora exacta del paso del satélite por la zona de estudio, midiendo las
cubiertas presentes en un único punto
b) En las mejores condiciones de iluminación: al mediodía, un día despejado
de verano, midiendo todas las cubiertas presentes en la zona de estudio
c) Entre una hora antes y una hora después del paso del satélite, midiendo varias
cubiertas de interés en la zona de estudio
d) A la hora exacta del paso del satélite, midiendo la radiación solar que incide
sobre el suelo
a) Se deben medir los espectros in situ, con la cubierta reflejando la luz del sol,
con éste elevado sobre el horizonte entre 20◦ y 70◦
b) Se deben tomar muestras y hacer las medidas iluminándolas solamente con
una lámpara calibrada (cuyo espectro conocemos) en el laboratorio
c) Se deben medir los espectros in situ, pero usando una lámpara calibrada,
para evitar la degradación de las muestras.
a) MERIS y SPOT
b) MODIS y Landsat 5-7
c) ALI y Landsat 7
d) todos los anteriores
152
S ENSORES DE EJEMPLO
a) DEIMOS
b) Ikonos, QuickBird y WorldView
c) RapidEye
d) SPOT
5. El satélite Landsat 8 fue lanzado el 11 de febrero del 2013. Este satélite cuenta
con dos sensores a bordo: el OLI (con 9 bandas) y el TIRS (con 2 bandas en el
infrarrojo térmico). Teniendo en cuenta que la resolución espacial (de 15 m en
la pancromática, 30 m en las bandas multiespectrales y 100 m en el IR térmico)
es mucho más baja que la de otros sensores con aplicaciones medioambientales y
bandas similares como el SPOT, IKONOS o QuickBird. ¿Por qué es tan importante
el lanzamiento de este satélite?
153
C UESTIONES DE TELEDETECCIÓN
7. Los satélites Meteosat de segunda generación (MSG) mantienen entre sus bandas,
las clásicas de los Meteosat: visible, infrarrojo medio (3,9 μm), vapor de agua
(6,2 μm) e infrarrojo térmico (10 μm). Cuando en la información del tiempo, en
televisión, muestran unas imágenes de satélite en las que se observa el avance de
frentes, o la evolución de la nubosidad a lo largo del día, ¿qué se muestra?
9. Las imágenes de satélite que solemos ver en los medios referidas a desastres,
naturales o artificiales (terremotos, vertidos de hidrocarburos,...) o las que nos
muestran los efectos del cambio climático en el Ártico o la Antártida (movimiento
de los glaciares, pérdida de espesor de hielo), suelen proceder de sensores activos
como el ASAR de la ESA. ¿Qué características hacían a este sensor tan mediático?
154
S ENSORES DE EJEMPLO
10. En España existen instituciones públicas que cuentan con sensores hiperespectra-
les aerotransportados que pueden ser utilizados por investigadores y empresas. A
pesar del carácter público de estas instituciones los costes de los vuelos son muy
altos y deben ser cubiertos por el solicitante. Por esta razón es importante diseñar
la campaña correctamente para minimizar el riesgo de errores. Si queremos tomar
datos de un área costera, ¿qué debemos tener en cuenta?
155
C UESTIONES DE TELEDETECCIÓN
1. Cuando se quiere realizar un estudio sobre una zona geográfica pequeña para
caracterizar, por ejemplo, la distribución de determinados tipos de vegetación o
suelos en una zona, se suele comparar la información espectral medida desde el
satélite con información espectral medida in situ con un espectrorradiómetro
de campo. ¿En qué condiciones se llevan a cabo estas medidas?
156
S ENSORES DE EJEMPLO
Pantalla de
visualización
Miniordenador
Espectrorradiómetro
(analizador)
Fibra óptica
Captador
(coseno−receptor)
157
C UESTIONES DE TELEDETECCIÓN
pués del paso, que suele darse a media mañana o mediodía (en la latitud de España). No
es conveniente que el sol esté demasiado bajo ni demasiado alto: entre 30◦ y 60◦ de ele-
vación. Si está demasiado bajo, la absorción de la radiación de “bajada” (downwelling)
será muy diferente de la absorción que sufre durante la “subida” al sensor (upwelling);
es conveniente que ambas sean parecidas para reducir el error en la corrección. Los ex-
pertos tampoco suelen realizar medidas con el sol demasiado cercano al cenit.
Respuesta: (c) o (d) El mejor método para construir una biblioteca de espectros de
reflectividad es hacer medidas in situ con una lámpara calibrada, ya que ésta
abarcará la totalidad del espectro, sin zonas “oscuras” en las bandas de absor-
ción de la atmósfera. No obstante, los otros métodos pueden ser razonables para
determinados estudios, como aquéllos en los que no se puede transportar la lám-
para o no se pueden mover las muestras de su lugar.
Una biblioteca de espectros contiene los espectros de reflectividad de una serie de mate-
riales (“cubiertas terrestres”) de interés para estudiar una región, obtenidos con medidas
en el campo con un espectrorradiómetro o en el laboratorio. Por ejemplo, una biblioteca
de espectros será la de los minerales en una zona, para determinar con teledetección su
distribución. Otra biblioteca de espectros será la de las hojas de los árboles en una región
o de los vegetales cultivados en otra, para determinar la distribución espacial o la evo-
lución estacional (del estado fenológico) de unos u otros. Existen bibliotecas estándar
construidas promediando muchas medidas, como la base de datos de firmas espectra-
les ASTER. Es muy empleada también la biblioteca de firmas espectrales del software
(comercial) de referencia el teledetección hiperespectral, ENVI.
Para construir una biblioteca de espectros de reflectividad, es necesario medir ésta.
La reflectividad es el cociente entre la radiancia espectral (la cantidad de luz de una
longitud de onda) reflejada por un material y la que reflejaría si no absorbiese ninguna
de esa energía. Para calcularla, se emplea un “blanco de referencia”, es decir, un material
blanco, puro, que refleja la totalidad (o la casi totalidad) de la luz que llega a él: esto da
el espectro de radiancia espectral incidente (es decir, de energía medida sin absorción
del material). Luego, se mide la radiancia espectral reflejada por el material y se divide
por la del blanco de referencia, longitud de onda, a longitud de onda. El cociente, es la
reflectividad espectral.
158
S ENSORES DE EJEMPLO
1 1
0.8 0.8
Reflectividad
Reflectividad
0.6 0.6
0.4 0.4
0.2 0.2
0 0
500 1000 1500 2000 2500 500 1000 1500 2000 2500
Longitud de onda (nm) Longitud de onda (nm)
Figura 4.2. Izquierda: Espectro de reflectividad de vegetación con ruido en las bandas de absorción
atmosféricas. Derecha: Espectro de reflectividad de vegetación de laboratorio.
Cuando observamos el espectro de radiancia espectral que nos llega del Sol, vemos
rápidamente por qué no siempre se pueden realizar estas medidas: la energía que procede
del Sol, en determinadas bandas de longitudes de onda, se hace prácticamente cero, y
no se puede dividir por cero o valores muy próximos a cero. En esos casos se obtienen
espectros de reflectividad como el de la figura , en el que los valores de la fracción de
energía reflejada por una hoja aparecen, a veces, superiores a la unidad: esto es, por
supuesto, un error; estas bandas deben ser descartadas.
Para evitar los efectos de la absorción atmosférica, las medidas de los espectros
de reflectividad se llevan a cabo usualmente con lámparas calibradas con las que se
iluminan tanto el blanco de referencia como la muestra a caracterizar. La luz de estas
lámparas, al estar muy próxima a las muestras, no sufre ninguna clase de absorción, por
lo que el espectro que se obtiene está completo. En cuanto a las aguas (continentales
o marinas) o las cubiertas biológicas (hojas de vegetación, algas marinas) las medidas
espectrales se realizan lo más cerca posible del lugar de muestreo: habitualmente, en el
mismo lugar (desde barcas, para el agua, o a pie de playa, por ejemplo, para las algas).
De este modo, las firmas espectrales medidas corresponderán a su estado natural, sin
que se hayan degradado por el transporte, y podrán compararse luego con las medidas
hechas por teledetección.
159
C UESTIONES DE TELEDETECCIÓN
Respuesta: (d) El MSI de los Sentinel-2 será un sensor óptico que heredará bandas
de los principales sensores de observación de la Tierra diseñados hasta ahora:
MODIS (de los satélites Aqua y Terra de la NASA), ALI (de los Earth Observer de
la NASA), OLI (del Landsat-8), TM/ETM+ (de los Landsat 4-5 y 7) y HVR (de los
Spot-4 y 5).
Los sensores MSI (multi spectral instrument) del Sentinel-2 que la ESA pondrá en órbita
próximamente, proporcionarán imágenes de la Tierra con una alta resolución espacial de
10 m en el visible (aunque en otras bandas proporcionará resoluciones de 20 m o 60 m).
Estos sensores irán a bordo de dos satélites gemelos que permitirán un tiempo de revisita
de 5 días (10 días cada satélite).
El MSI poseerá 13 bandas. Seis de esas bandas serán para dar continuidad a las
imágenes Landsat (aunque también SPOT): una en el azul, otra en el verde y otra en el
rojo, para cubrir el rango visible (bandas 2, 3 y 4); una en el infrarrojo cercano (banda
8), una en el infrarrojo medio (banda 11) y otra en el infrarrojo de onda corta (banda 12).
Además, como el ALI del Landsat-8 (y el MODIS), tendrá una banda más estrecha en el
160
S ENSORES DE EJEMPLO
azul (la banda 1): ésta servirá para medir la luz dispersada por la atmósfera, y corregir así
mejor el efecto de los aerosoles. Otras dos bandas, también orientadas a corregir el efecto
de la atmósfera son la banda 10 en el infrarrojo medio (también presente en MODIS y
Landsat-8) que sirve para identificar los cirros más finos, las nubes altas que también
afectan a la transparencia de la atmósfera, y la banda 9 en el infrarrojo cercano (presente
en MODIS y MERIS), situada en el límite de una banda de absorción del vapor de agua,
uno de los principales absorbentes de la luz infrarroja.
Por último, tendrá 3 bandas estrechas (las 5, 6 y 7), situadas en el rojo (donde absor-
ben las clorofilas) heredadas del MERIS: permitirán identificar pigmentos fotosintéticos
tanto en aguas como en tierra, para determinar el estado de la vegetación e, incluso,
clasificarla.
Con todas estas características, los Sentinel-2 serán los satélites ópticos de observa-
ción de la Tierra más completos, al menos en el momento de su lanzamiento, y posi-
blemente durante los 7 años de vida que se prevé que dure el combustible usado para
corregir su órbita.
Respuesta: (d) La serie SPOT es la serie de satélites “misiones de terceros” que más
tiempo lleva incorporada a la ESA. No obstante, en la actualidad, la agencia
proporciona acceso a algunas imágenes archivadas de las misiones DEIMOS y
RapidEye, más jóvenes que SPOT, por lo que (a) y (c) también serían respues-
tas válidas. Ikonos, uno de los satélites de DigitalGlobe, también se ha incluido
tradicionalmente entre estas misiones, aunque sus imágenes están restringidas a
proyectos muy concretos, que hayan sido previamente aprobados por los expertos
de la ESA.
Las imágenes de alta resolución espacial, entre 0,60 y 5 m de tamaño de píxel, son adqui-
ridas casi exclusivamente por sensores de satélites de entidades privadas (por lo menos
161
C UESTIONES DE TELEDETECCIÓN
aquéllas a las que la población civil tiene acceso). Para hacer rentable la inversión que
construir y poner un satélite en órbita representa, estas entidades venden sus imágenes
a precios muy elevados (de hasta 100 e/km2 ), lo que las deja fuera del alcance de la
mayor parte de pequeñas empresas y grupos de investigación.
La Agencia Espacial Europea (ESA) además de contar con satélites propios (Cryo-
Sat, SMOS, GOCE, Envisat, ERS, Proba-1) establece acuerdos con otras entidades pú-
blicas, como la NASA, y privadas, como Deimos Space o RapidEye, que le dan acceso
a imágenes adquiridas con sus sensores bajo condiciones específicas (por ejemplo, li-
mitados al continente europeo, limitados a unos meses, etc.). Estos acuerdos bilaterales
benefician a ambas partes ya que permiten sacar un mayor rendimiento de los satélites
(construir un satélite y ponerlo en órbita tiene un coste muy elevado, pero la posterior
captura de imágenes apenas tiene costes asociados) y les da acceso a un mayor número
de imágenes/productos. La ESA engloba todos estos acuerdos en las llamadas “3rd Party
Missions” y permite a cualquier investigador europeo solicitar estas imágenes mediante
la presentación de un proyecto donde se expongan los objetivos del trabajo a realizar,
junto con un compromiso de informar de los resultados obtenidos.
Esta iniciativa permite a muchos investigadores tener acceso a imágenes que, de otro
modo, nunca podrían adquirir y, además, tiene un efecto positivo para los propietarios de
los satélites ya que al aumentar el número de investigaciones que utilizan sus imágenes
se descubren nuevas utilidades para las mismas, lo que las revaloriza y aumenta su es-
pectro de clientes potenciales. Este aspecto es bien conocido por estas empresas que, en
ocasiones, abren sus propias convocatorias (independientes de acuerdos con la ESA) pa-
ra que los investigadores presenten proyectos en los que los objetivos sean aplicaciones
de sus imágenes y, si son bien valorados, las ceden gratuitamente.
5. El satélite Landsat 8 fue lanzado el 11 de febrero del 2013. Este satélite cuenta
con dos sensores a bordo: el OLI (con 9 bandas en el espectro óptico) y el TIRS
(con 2 bandas en el infrarrojo térmico). Teniendo en cuenta que la resolución
espacial (de 15 m en la pancromática, 30 m en las bandas multiespectrales y
100 m en el IR térmico) es mucho más baja que la de otros sensores con
aplicaciones mediambientales y bandas similares como el SPOT, IKONOS o
QuickBird. ¿Por qué es tan importante el lanzamiento de este satélite?
Respuesta: (d) El nuevo satélite de la serie Landsat (Landsat-8, hasta poco después de
su lanzamiento, LDCM, Landsat Data Continuity Mission) seguirá siendo gestio-
nado por la NASA y el USGS, con el compromiso de proporcionar sus imágenes
162
S ENSORES DE EJEMPLO
El primer satélite Landsat (el Landsat 1) fue puesto en órbita el 23 de julio de 1972. Tras
éste fueron lanzados el Landsat 2 (1975), Landsat 3 (1978), Landsat 4 (1982), Landsat
5 (1985), Landsat 6 (1993, aunque no llegó a ponerse en órbita debido a un accidente
durante el lanzamiento), Landsat 7 (1999) y, en febrero de este año 2013, el Landsat 8.
Estos satélites han tomado imágenes de la superficie de la Tierra de forma ininterrumpida
y homogénea (todos los satélites contaron con sensores que tuviesen, como mínimo, las
mismas bandas del anterior y, en algunos casos, alguna nueva), lo que los convierte en
la familia de satélites civiles con una serie temporal más larga (más de 40 años).
Durante muchos años la NASA, a través de empresas intermediarias, vendía las imá-
genes adquiridas por los sensores de los satélites Landsat. Aunque estas imágenes tenían
precios (en e/km2 ) mucho más asequibles que otras disponibles con bandas similares,
como las SPOT (de mayor resolución espacial, por otro lado), sus costes seguían siendo
elevados dejándolas fuera del alcance de muchos interesados. Sin embargo, en abril de
2009, el Servicio Geológico de EE.UU. (USGS) anunció que gran parte de las imágenes
Landsat (adquiridas en fechas previas así como futuras adquisiciones) serían puestas a
disposición de cualquier usuario de forma gratuita (a través de una aplicación en línea).
Desde entonces cualquier investigador registrado puede bajarse de forma gratuita imá-
genes Landsat, georreferenciadas y con un nivel de procesamiento básico, y trabajar con
ellas libremente.
163
C UESTIONES DE TELEDETECCIÓN
El acceso gratuito a estas imágenes fue un hecho muy relevante, tanto para la co-
munidad científica como para administraciones públicas y empresas, que contribuyó a
la popularización de la teledetección. Esto representó aún más para países en desarrollo
donde, hasta entonces, los costes de adquisición de imágenes de satélite de estas carac-
terísticas las hacían inaccesibles. La longitud de su serie temporal, su homogeneidad y
su carácter gratuito hacen de estas imágenes la herramienta escogida actualmente para
numerosas aplicaciones (científicas, de gestión territorial, etc.). Un ejemplo es la apli-
cación Earth Engine desarrollada por Google utilizando la serie histótica de imágenes
Landsat.
Además de estas características, los Landsat, y en particular el Landsat-8, cuenta con
una ventaja más frente a las imágenes de otros sensores, como el QuickBird o el SPOT:
añaden bandas en el visible (azul) y en el IR (medio, de onda corta y térmico) que les
permiten abordar estudios sobre vegetación, suelos, o zonas urbanas que no son viables
con los anteriores.
Respuesta: (b) Los satélites CZCS, SeaWiFS y el par Terra y Aqua, con sensores MO-
DIS, son la serie histórica de sensores de “color oceánico” de la NASA; en la
OceanColor Web, se puede acceder a sus datos, que comienzan en 1978. Los otros
sensores que se mencionan también son sensores espectroscópicos que se han em-
pleado para estudiar los pigmentos en la superficie del océano, pero pertenecen a
las agencias espaciales japonesa (OCTS) y europea (MERIS).
Se denominan satélites oceánicos a aquellos satélites que tienen como objetivo principal
la caracterización de variables en la capa superficial de los océanos (la atenuación de la
onda electromagnética restringe el estudio a esta capa) como la temperatura superficial
(Sea Surface Temperature, SST), la concentración de clorofila, la turbidez causada por
materia en suspensión, la salinidad, el nivel del mar, etc.
Todos estos satélites se caracterizan por tener un tiempo de revisita corto (pocos días)
y una resolución espacial baja (entre 250 m y los 4 km). Por esta razón generalmente las
imágenes adquiridas por sus sensores se han utilizado para el estudio de fenómenos glo-
bales, como la subida del nivel del mar, las corrientes oceánicas, fenómenos meteoroló-
164
S ENSORES DE EJEMPLO
gicos a gran escala (“El Niño”, por ejemplo) o el calentamiento global (subida de la SST
del océano). Sin embargo, su amplia serie temporal disponible (y también la distribución
gratuita de sus datos) hace que cada vez se utilicen para mayor número de estudios oceá-
nicos, climáticos y costeros, asumiendo en éstos la pérdida del área del “pixel mixto” (es
decir, que en algún píxel se mezclan una cubierta acuática y una terrestre).
De entre los satélites oceánicos hay un grupo de ellos cuyo objetivo principal es ca-
racterizar los “pigmentos” del agua (normalmente la concentración de clorofila-a), me-
diante la inclusión de varias bandas espectrales estrechas en el rango visible del espectro.
De estos sensores se dice que estudian “el color” del agua (“ocean color”) aunque, en
realidad, integran la luz que penetra en el primer espesor óptico (hasta donde llega un
37 % de la luz solar incidente). La NASA, al igual que sucede con las imágenes Landsat,
ha intentado tener de forma continua esta variable caracterizada, poniendo en funcio-
namiento una serie de satélites: CZCS (1978-1986), SeaWiFS (1997-2010) y MODIS
(desde 1999). [A pesar de ello, existe un periodo de 11 años sin datos (entre 1986 y
1997)].
Pero este interés no fue exclusivo de la NASA. La ESA incluyó en el Envisat el
sensor MERIS, con bandas específicas para este propósito, y que será remplazado por el
sensor MSI del próximo Sentinel-2 y, en un futuro, por los sensores de estudio del océano
del Sentinel-3, que proporcionarán continuidad a la serie de datos. También la NASDA
(Agencia Nacional de Desarrollo Espacial de Japón, actualmente JAXA) quiso obtener
imágenes de estas características y puso en órbita a finales de 1996 el sensor OCTS a
bordo del satélite MIDORI; desafortunadamente sólo adquirió imágenes durante apenas
siete meses.
Los datos de variables oceanográficas calculados a partir de las imágenes obtenidas
con estos tres sensores pueden descargarse georreferenciados de la página de la NASA
dedicada al estudio del “color del océano”. Por otro lado, en España, el CREPAD (Cen-
tro de REcepción, Proceso, Archivo y Distribución de Imágenes de Observación de la
Tierra) reprocesa los productos L1 de esos satélites, calculando esas variables, así como
medias semanales y mensuales de las mismas (también otras, como los valores de tem-
peratura superficial del mar, SST, a partir de imágenes del satélite AVHRR) y las cede
gratuitamente a los investigadores previa solicitud. Al igual que con los datos de los sa-
télites meteorológicos, que se emplean para alimentar modelos numéricos de predicción,
estos datos de satélites oceanográficos “alimentan” modelos numéricos de predicción de
corrientes marinas, con los que también se pueden llevar a cabo predicciones.
165
C UESTIONES DE TELEDETECCIÓN
Respuesta: (c) Aunque para la predicción meteorológica se emplean las bandas del
satélite Meteosat (particularmente, las 3 originales), a la hora de mostrar la nu-
bosidad, con continuidad a lo largo de todo el día, se suele emplear la banda 7
del SEVIRI, que corresponde al infrarrojo térmico (centrada en 10 μm).
166
S ENSORES DE EJEMPLO
Figura 4.5. Imagen del producto MSG de cenizas en la que se puede observar, sobre el Atlántico, la nube
de cenizas volcánicas de la erupción del Eyjafjallajokull en 2010. Fuente: EUMETSAT.
167
C UESTIONES DE TELEDETECCIÓN
El tiempo de revisita que permite a los satélites Terra y Aqua (ambos con sensor MODIS)
adquirir una imagen completa de la Tierra cada día, viene determinado por la altura de
su órbita: es una órbita baja, a 700 km de altitud, y las imágenes que obtienen barren
un “swath” de 2300 km; es decir, el MODIS adquiere datos hasta a casi 60◦ a cada lado
del nadir. Tener un swath tan amplio está relacionado con su baja resolución: sus píxeles
serán más grandes (de 200 m, 500 m o 1000 m, dependiendo de la banda concreta).
Los productos de “fuegos” son un ejemplo de imágenes que requieren alta resolución
temporal y moderada resolución espacial. La ESA proporcionaba el World Fire Atlas,
obtenido con el sensor ATSR (un radiómetro infrarrojo térmico, inicialmente pensado
para medir la temperatura superficial del mar, la SST) a bordo del satélite Envisat. Es-
tos productos permiten visualizar dónde se producen fuegos (aunque también detectan
“falsos positivos”), pero no medir con precisión el área que está ardiendo: los datos ob-
tenidos en la banda SWIR detectan sólo la presencia de fuego en un píxel en el instante
de paso del sensor. Esto era crítico en el caso del ATSR, ya que sólo permitía detectar
los fuegos durante la noche, y debido a su swath más pequeño que el del MODIS, su
tiempo de revisita era de 5 días.
9. Las imágenes de satélite que solemos ver en los medios referidas a desastres,
naturales o artificiales (terremotos, vertidos de hidrocarburos,. . . ), o las que
nos muestran los efectos del cambio climático en el ártico o la antártida
(movimiento de los glaciares, pérdida de espesor de hielo), suelen proceder de
sensores activos como el ASAR de la ESA. ¿Qué características hacían a este
sensor tan mediático?
Respuesta: (d) De todas las imágenes obtenidas por los sensores a bordo de satélites,
sólo las de radar como el ASAR, muestran siempre los objetos en el área barrida
por el sensor. Los demás, los ópticos, muestran muchas veces nubes que ocultan
la superficie terrestre; los radar pueden ver siempre a través de ellas.
Los satélites activos radar trabajan en la zona del espectro electromagnético de longi-
tudes de onda muy largas (superiores al centímetro) en la que la atmósfera terrestre
es totalmente transparente. Esto quiere decir que el barrido que hacen de la superficie
terrestre es continuo, sin interrupciones debidas a la meteorología como sufren otros
sensores (compruébese en http://miravi.eo.esa.int/en/, por ejemplo, lo complicado que
es encontrar escenas sin nubes de un sensor como el MERIS). Por esta razón es muy
probable que cuando sucede algún fenómeno visible desde el espacio, un sensor radar
esté ahí para verlo.
168
S ENSORES DE EJEMPLO
Figura 4.6. Imagen ASAR en “single-view” (izquierda) y promediada en “multi-view” (derecha). Fuente:
ESA.
169
C UESTIONES DE TELEDETECCIÓN
Figura 4.7. Interferograma sísmico del terremoto de L’Aquila del 6 de abril de 2009, obtenido estudiando
la diferencia entre dos imágenes ASAR (de abril de 2008 y de abril de 2009, tras el terremoto). La línea
roja indica la zona de ruptura identificada en la imagen. Fuente: Papanikolau et al. (2010). Nat. Hazards
Earth Syst. Sci., 10, 73–87. CC-BY-SA.
ejemplo, durante un terremoto. Quizás el caso más conocido, haya sido el del terremoto
de L’Aquila, en Italia.
Otra información que pueden proporcionar, es la relacionada con la conducción eléc-
trica del suelo o del agua; en el primer caso, se relaciona con la humedad, y en el se-
gundo, con la salinidad. El campo eléctrico de la onda de radar induce corrientes en los
objetos que ilumina: precisamente, la onda es reflejada por la resistencia de estos objetos
a que se establezcan en ellos dichas corrientes. En función de la cantidad de energía que
se pierda en ese proceso, es posible determinar la conductividad eléctrica del objeto (su-
puesto éste suficientemente grande) y, a partir de ella, sus propiedades. El satélite SMOS
de la ESA utiliza estas capacidades del radar para estudiar sistemáticamente la humedad
del suelo y la salinidad del océano.
170
S ENSORES DE EJEMPLO
Respuesta: (b) Ya que hablamos de un estudio costero, lo más importante será dentro
de lo imprevisible, la climatología en el área de estudio el día del vuelo, y dentro
de lo previsible, la hora de la marea alta o de la marea baja, si nuestro estudio se
centra en la zona intermareal. No obstante, es también importante planificar las
pasadas del avión para evitar reflejos del sol que producen sunglint en el agua.
Otros factores pueden ser también importantes, en función de nuestro interés en
características de la costa, y de nuestro presupuesto.
171
C UESTIONES DE TELEDETECCIÓN
Figura 4.8. Imagen adquirida desde una cometa con efecto de sunglint debido a la reflexión especular de la
luz del sol en el agua. En la imagen se puede ver el principal canal navegable hacia el Río Grande en la
punta sur de Isla Padre, en Texas, EE.UU. Fuente: Geospectra.net (copyright James S. and Susan W. Aber,
2006).
Al trabajar en una zona con agua, como la zona costera, la dirección de la pasada
relativa al azimut del sol y a su altura puede generar problemas en la imagen. En parti-
cular, cuando el ángulo entre los rayos del sol y las olas causa la reflexión de la luz del
sol directamente al sensor, se produce el fenómeno conocido como sunglint: entonces
los píxeles de la imagen aparecen saturados (blancos), algo similar a cuando se “que-
ma” una foto. Por esta razón es importante evitar la luz del mediodía y, si se cuenta con
suficiente flexibilidad (normalmente los vuelos están programados para un día y hora
determinados y cualquier cambio conlleva un coste importante) realizar la adquisición
con un estado del mar óptimo (en calma y sin viento).
Por último, cuando se trabaja en la zona costera, es importante no olvidar que ésta es
dinámica y cambia a lo largo del día, especialmente por el efecto de la marea y especial-
mente en costas oceánicas (donde el rango mareal puede ser más de 3 m). Si queremos
estudiar el área emergida o la franja intermareal, debemos planear el vuelo para las ho-
ras alrededor de la marea baja, para maximizar la zona no cubierta por agua. Igualmente,
para estudiar fondos marinos, debido a los procesos de atenuación de la luz en el agua,
también conviene planificar el vuelo cuando la capa de agua que los cubra sea menor (es
decir, con marea baja).
En resumen, la lista de comprobaciones para planificar el vuelo será: primero, el
tiempo meteorológico, para seleccionar la época y el día del vuelo; después, la altura y
azimut del sol y la hora de la marea, para seleccionar la hora y dirección del vuelo.
172
S ENSORES DE EJEMPLO
color oceánico (sensor de) Sensor con bandas estrechas (de unos 10-20 nm) localiza-
das en las longitudes de onda de absorción o fluorescencia de los pigmentos que
contiene el fitoplancton (clorofila-a, ficocianinas) y la materia en suspensión típi-
ca en las aguas marinas. En particular, los sensores de color oceánico suelen tener
bandas centradas en 410 nm (sustancia amarilla), 442 nm (máximo de absorción
de la clorofila-a), 510 nm (sedimentos en suspensión), 625 nm (ficocianina) y 681
nm (fluorescencia de la clorofila-a).
173
C UESTIONES DE TELEDETECCIÓN
suele tener uno o más analizadores (habitualmente rejillas de difracción) que se-
paran las diferentes longitudes de onda dirigiéndolas a múltiples detectores, uno
por cada banda del espectrorradiómetro. Las bandas suelen ser muy estrechas, del
orden de 1 nm o menos. Se utilizan para medir la firma spectral de cubiertas o
elementos concretos.
óptico (sensor) Sensor cuyos detectores captan la radiación electromagnética dentro del
rango óptico, es decir, dentro de las bandas UV, visibles, NIR o SWIR. En estas
bandas, la radiación detectada procedente de los objetos en la superficie de la tierra
es debida a la reflexión en ellos de la radiación solar. Se emplea este término por
contraposición con los sensores térmicos o radar.
radar (sensor) Sensor cuyo detector es una antena que emite ondas de radiación elec-
tromagnética en el rango de las microondas (ondas de radio) y capta la radiación
electromagnética que se refleja sobre la superficie de la tierra. Es, por eso, un sen-
sor activo, ya que genera su propia radiación incidente. Originalmente, RADAR
era un acrónimo de radio detection and ranging, detección y medida de distancia
por radio.
174
S ENSORES DE EJEMPLO
4.5. BIBLIOGRAFÍA
T.R. Loveland, and J.L. Dwyer (2012). “Landsat: Building a strong future”. Re-
mote Sensing of Environment, 122: 22-29.
J-F. Mas, 2011. “Aplicaciones del sensor MODIS para el monitoreo del territorio”.
Secretaría de Medio Ambiente y Recursos Naturales, Mexico, D.F., Mexico.
M. Rast, J. L. Bezy & S. Bruzzi (1999). “The ESA Medium Resolution Imaging
Spectrometer MERIS a review of the instrument and its mission”. International
Journal of Remote Sensing, 20(9):1681-1702.
175
C UESTIONES DE TELEDETECCIÓN
Envisat’s ASAR reveals extent of massive oil spill off Spanish coast / Observing
the Earth / Our Activities / ESA.
URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Envisat_s_ASAR_
reveals_extent_of_massive_oil_spill_off_Spanish_coast
Página web de la ESA que contiene la noticia de la imagen del vertido del Prestige
en 2002 frente a las costas de Galicia, y las imágenes que adquirió de él el ASAR
a bordo del satélite Envisat.
Image Gallery.
URL: http://earth.esa.int/handbooks/asar/CNTR1-4.htm
Galería de imágenes de la ESA que contiene ejemplos ilustrativos de las capaci-
dades de los sensores radar ASAR y ERS.
176
S ENSORES DE EJEMPLO
177
C UESTIONES DE TELEDETECCIÓN
178
S ENSORES DE EJEMPLO
EarthExplorer — USGS.
URL: http://earthexplorer.usgs.gov/
Herramienta web del USGS para buscar y descargar imágenes de teledetección de
varios sensores de la NASA.
179
Tema 5
Imagen digital
GUION-ESQUEMA
La digitalización de la información
182
Vegetación
Metadatos Índices
Nubosidad
Bandas
Temperatura
C UESTIONES DE TELEDETECCIÓN
Contraste
Brillo
...
Color natural
PRODUCTOS
Píxeles
R
G
B
Pseudocolor
JPEG
Visualización TIFF
R IF
G BMP
GeoTIFF B PNG
ENVI(HDR) ...
HDF Gris
NetCDF
...
I MAGEN DIGITAL
5.1. INTRODUCCIÓN
5.2. CUESTIONES
1. Una imagen digital es una matriz de píxeles que se visualiza en colores (los grises
son colores también) en una pantalla, ¿cómo se asignan estos colores?
183
C UESTIONES DE TELEDETECCIÓN
2. ¿Cómo cree que se ha formado la imagen digital en color de la figura 5.1 (adqui-
rida por un satélite de Google), en la que se ve un avión en vuelo como “un arco
iris”?
Figura 5.1. Imagen de un avión tomada, posiblemente, por la cámara del satélite GeoEye-1. Fuente:
Google Earth (2013).
3. Un mapa a escala 1:50000 se digitaliza (se escanea) a una resolución de 600 ppp.
¿Cuál será la escala del mapa digitalizado?
a) 1:50000
b) 1:6250
c) 1:400000
d) ninguno de los anteriores
184
I MAGEN DIGITAL
a) 8 Megapíxeles
b) 24 Megapíxeles
c) depende del zoom
d) depende del brillo de la imagen
5. Las imágenes de escenas naturales, como las que se supone que hará una cámara
fotográfica no profesional, o las ortofotografías que se emplean como base para
trabajos topográficos, se suelen guardar comprimidas en formato:
a) TIFF
b) JPEG
c) PNG
d) RAW
a) TIFF
b) HDF
c) NetCDF
d) cualquiera de los anteriores
a) 321
b) 432
c) 642
d) ninguna de las anteriores
185
C UESTIONES DE TELEDETECCIÓN
a) banda
b) canal
c) capa
d) máscara
9. Cuando se quiere utilizar una imagen de satélite o una fotografía aérea para foto-
interpretar (reconocer y digitalizar sobre la imagen) algún elemento del terreno,
la línea de costa por ejemplo, ¿cuál será la escala a la que debemos realizar el
trabajo?
10. Para una temperatura dada, las gotitas de la niebla son menos brillantes en la banda
térmica de 12 μm que en la de 10,8 μm, y más en ésta que en la de 8,7 μm; por eso
se construyen imágenes RGB del sensor SEVIRI con R:IR12-IR10.8, G:IR10.8-
IR8.7, B:IR10.8. En estas imágenes, las nieblas se ven de un color blanco azulado.
Por otro lado, las gotitas y cristales de hielo en los topes de las nubes, son prácti-
camente igual de emisivas en el IR10.8 y el IR8.7, y más fríos. ¿Con qué color se
verán?
a) azul
b) verde
c) rojo
d) magenta
186
I MAGEN DIGITAL
1. Una imagen digital es una matriz de píxeles que se visualiza en colores (los
grises son colores también) en una pantalla, ¿cómo se asignan estos colores?
Respuesta: (d) La asignación de los colores a cada píxel de una imagen se hace en fun-
ción de los valores de las diferentes bandas en dicho píxel. Normalmente se busca
que tengan relación con los valores que representa la magnitud física: radiancia
espectral, reflectividad, u otras magnitudes derivadas, como la temperatura, el vi-
gor vegetal, la altura o profundidad, etc. Y, lo más importante, es que el resultado
destaque, visto por el ojo humano, aquello que haya de interés en la imagen. Por
lo demás, la relación entre valores de las bandas y colores es arbitraria.
187
C UESTIONES DE TELEDETECCIÓN
Figura 5.2. Imagen ASTER (banda 1) de la ciudad de Madrid vista con dos ventanas y niveles distintos:
izquierda, rango completo de valores; derecha, ventana alrededor del ND 114.
5.2). En muchas ocasiones se habla también de ajustar el “brillo” (subir o bajar el nivel)
y el “contraste” (aumentar o reducir el tamaño del intervalo).
No obstante, algunas veces lo intuitivo es justamente lo contrario: asignar brillo a las
zonas con valores más bajos de radiancia espectral. Esto sucede, por ejemplo, con las
imágenes del infrarrojo térmico de los satélites meteorológicos. En ellas, las nubes (que
intuitivamente mostramos como blancas) son, en realidad, la zona más fría de la escena
y, por ello, la que menor energía radiante emite. En este caso, por tanto, la relación entre
el ND y el brillo en la visualización es inversa: mayor ND, menor intensidad. Pero, a
cambio, se ven “nubes blancas” y no “frentes oscuros” . Es decir, la estética es importante
y nos proporciona una información sobre lo que estamos viendo, relacionándolo con
cómo percibimos las cosas en nuestra vida diaria.
Otro caso en que la estética también es importante es en imágenes de termografía:
más claramente que con una imagen en la que las zonas más calientes se ven brillantes y
las más frías, oscuras, puede resultar más intuitivo visualizar las primeras con “colores
cálidos” (rojas) y las segundas con colores “fríos” (azules). Esto tiene además la ventaja
de que nuestro ojo puede distinguir más colores que niveles de brillo y, por lo tanto, que
se podrán distinguir una mayor variedad de valores (es decir, percibir más información).
Esta asignación de una colección de colores, por otra parte arbitrarios, a los valores de
una banda de un sensor se llama “paleta” de color. Por uso y convención existen ciertas
paletas de color conocidas. Por ejemplo, el vigor vegetal (que se calcula a partir de las
bandas roja e infrarroja cercana de un sensor, es decir, las relacionadas con la clorofila
y el agua que posea) se representa con una paleta que va desde tonalidades marrones o
amarillas (que nos evocan un suelo desnudo o falto de vegetación) a tonalidades verdes
188
I MAGEN DIGITAL
Figura 5.3. Índice de vegetación normalizado, calculado a partir de las bandas 1 (860 nm) y 2 (670 nm) del
sensor MODIS. Fuente: NASA.
(que nos evocan vegetación sana, véase la figura 5.3). Por supuesto, no son los colores
reales de la vegetación, pero nos ayudan a interpretar el significado de imagen.
Los sensores multiespectrales permiten asignar colores de una manera natural a una
imagen: dirigiendo los valores de las bandas en el azul, el verde y el rojo a los cana-
les azul (B, blue), verde (G, green) y rojo (R, red) del dispositivo (o, si el sensor no
proporciona imágenes de 8 bits, “estirando” o “comprimiendo” su rango de valores al
intervalo 0. . . 255 en cada canal). Esta asignación se llama color natural. No obstante,
rara vez proporciona colores que identifiquemos como naturales (véase figura 5.4). Esto
se debe a tres razones: que hay una atmósfera entre el objeto y el sensor, que la ganan-
cia de nuestro sensor (el ojo humano) en cada canal es distinta de la del sensor a bordo
del satélite, y que nuestra percepción de la intensidad de la luz no es lineal, sino que
nuestro ojo se adapta a la iluminación del entorno. La primera de ellas suele causar una
presencia excesiva de azules (en la imagen, en comparación con lo que nosotros vemos
“al natural”), y la segunda y la tercera un exceso de brillo (y falta de contraste) en la
imagen. Un ejemplo: las imágenes de color natural del Landsat se visualizan en RGB
como una combinación 321 (la banda Landsat-3 está en el rojo, la L2, en el verde y la
L1, en el azul).
No obstante, un sensor multiespectral adquiere otras bandas que nuestro ojo no per-
cibe. Del mismo modo que se asignan a los canales visibles las bandas del espectro visi-
ble, también se puede asignar las bandas “invisibles”. Por ejemplo, es común visualizar
imágenes del sensor HRV de SPOT-5 como una combinación 321: la banda asignada al
189
C UESTIONES DE TELEDETECCIÓN
Figura 5.4. Imagen Landsat 5 de la isla de Tenerife: izquierda, composición RGB con los ND de las
bandas 321 (color natural); derecha, transformación gamma y contraste aplicados a las bandas.
rojo es la banda NIR (la 3) del HRV (entre 0,79 μm y 0,89 μm). Dado que en esta banda
refleja mucho la vegetación, son típicas las imágenes de “vegetación roja”. En este caso,
más que la intuición, prima la tradición. Una combinación más “natural” sería, quizás,
la 231.
2. ¿Cómo cree que se ha formado esta imagen digital en color (adquirida por un
satélite de Google), en la que se ve un avión en vuelo como “un arco iris”?
190
I MAGEN DIGITAL
para proporcionar el color. Esto se observa perfectamente en la imagen del avión, donde
su parte anterior se dibuja con el color de la vegetación, mientras que en las “alas azules”
se observa la forma de los surcos del terreno cultivado.
La idea del producto “PAN sharpened”, es la siguiente: si la cantidad total de radian-
cia reflejada en el visible es la que contiene la banda pancromática, de alta resolución,
entonces conociendo en qué proporciones se distribuye la radiancia espectral en la otras
bandas de color del visible, se puede hacer un reparto proporcional de la señal del PAN
en los canales correspondientes a ellas. De este modo, la intensidad de la imagen (la
suma de las señales en los tres canales de color) viene dada por el PAN, y sus proporcio-
nes (la cromaticidad: el tono y la saturación), por las proporciones que tenían las bandas
de color originales. Esta operación entre las bandas, se llama también transformada de
Brovey. La diferencia en la resolución espacial de los dos tipos de bandas vuelve a estar
relacionada con la cantidad de información que nos proporcionan los colores. No obs-
tante, en cuanto al detalle espacial, nos guiamos más por la intensidad de la imagen: por
eso funciona tan bien esta transformación.
Los productos “PAN sharpened” permiten soslayar una normativa internacional (in-
troducida por la legislación de EE.UU.) que restringe la distribución de imágenes de
sensores de alta resolución espacial. No se pueden distribuir (ni pública, ni comercial-
mente) imágenes de satélite con menos de 0.5 m de píxel en la banda pancromática, ni
con menos de 2 m de píxel en las bandas multiespectrales. De hecho existen satélites, co-
mo los propios Geoeye, que adquieren imágenes con 0.4 m de píxel en la pancromática
y 1.6 m en las multiespectrales, pero que luego remuestrean para ser distribuidas.
Respuesta: (a) La escala de un mapa se refiere a la relación entre los tamaños medi-
dos sobre él y los tamaños reales. Cuando se da en la forma de quebrado, como
1:50000, se asume que el mapa se ha impreso y, por lo tanto, las líneas sobre él
tienen un tamaño fijo, dado por la resolución de impresión. No obstante, dado que
sólo se habla de digitalizar, y no de imprimir, también podría haber sido buena la
(d), ninguno de los anteriores.
Tradicionalmente los mapas impresos se han caracterizado por la proporción entre el ta-
maño de los detalles que mostraban y el tamaño real de esos detalles en la naturaleza. Al
tratarse ambas magnitudes de longitudes, la escala bastaba darla como un quebrado: <ta-
191
C UESTIONES DE TELEDETECCIÓN
192
I MAGEN DIGITAL
forma tradicional como un quebrado, no tiene significado. Cuando más, GSD e, ideal-
mente, la resolución espacial en la práctica de la imagen sobre el terreno barrido por el
sensor.
Respuesta: (b) Dado que la imagen se guarda sin compresión, y que por cada píxel se
guardan 3 canales (uno correspondiente a cada color), los datos contenidos en la
imagen son 24 Mb (asumiendo 8 bits por cada canal de color). En formato RAW
se guardan todos estos datos, por lo que ese será el tamaño del archivo (salvo por
otra información relativa a la adquisición, que no irá más allá de unos kilobytes).
El formato RAW guarda todos los datos adquiridos por el CCD de la cámara fotográfica.
Podríamos decir que es el “negativo digital” de la fotografía.
En el enunciado hemos especificado sin compresión, porque la compresión se refiere
a la relación entre esos datos y la información en la imagen; esos datos son una forma de
representar la información, pero esta forma no es única. Se puede representar con más o
menos datos, y esto es lo que aprovechan los métodos de compresión. Por ejemplo, una
imagen de un único color se puede comprimir con dos datos: el que indica el número de
píxeles que tiene la imagen y el del color que tienen. Si es de un color hasta una fila y de
otro, a partir de ahí, bastarían cuatro datos. Con métodos de compresión más sofisticados
se puede aprovechar la redundancia de los datos para expresar la información esencial
reproduciéndola en pocos datos, sin perder ninguna.
Así, cuando decimos que una imagen se guarda en un archivo RAW de 24 MB,
queremos decir que puede guardar hasta 24 Mega bytes (millones de bytes, MB) de
información: el byte (1 B) son 8 bits (8 b), y el bit es la unidad de información. En te-
ledetección, casi todas las imágenes se distribuyen comprimidas. Las imágenes Landsat
de ETM+ se distribuyen en formato TIFF y son posteriormente comprimidas. Descom-
primidas, cada banda de una escena ocupa unos 60 MB (15 MB las bandas térmicas, por
su menor resolución espacial), pero luego, comprimidas pueden pasar a ocupar entre 20
y 30 MB (5 a 6 MB, las térmicas).
Una forma intuitiva de ver la información es como el “grado de sorpresa” al recorrer
los bits de una imagen: si son datos monótonos, de forma que visto el valor de un píxel
podemos predecir con cierto grado de acierto cuál será el valor del que le sigue, la imagen
193
C UESTIONES DE TELEDETECCIÓN
bits
7
0 x2
6
1 x2
entero de 8 bits
1 x25
4
1 x2
0 x23
2
0 x2
1 x21
0
1 x2
115
Figura 5.5. Los valores de los bits que codifican un entero de 8 bits.
tendrá poca información. Pensemos en una sola banda Landsat, con 8 bits por cada píxel
(véase la figura 5.5). Si tenemos una banda azul de una escena, dado que las cubiertas
terrestres suelen reflejar poca luz en estas longitudes de onda, esa banda será “oscura”.
Eso quiere decir que los valores de los píxeles serán pequeños y que casi todos los bits
que indican valores altos (los de la parte superior en la figura 5.5) van a ser cero: no
causan ninguna “sorpresa”. Sin embargo, en una banda pancromática, de una escena
con muchas variaciones, como un área urbana o con mucha orografía, y sobre todo, con
muchos contrastes y gradientes de luz, es mucho más difícil predecir cual será el valor
del píxel que sigue a otro (y de sus bits). Esta imagen contiene mucha más información
y se comprimirá mucho menos.
Por esto se suele decir que en el archivo RAW, hay mucha más información (utilizada
esta expresión en su sentido estricto) en las luces que en las sombras. Y por eso es que
a la hora de hacer una fotografía se tiende a “derechear en el histograma”, es decir, a
sobreexponer la fotografía, aunque sin llegar a saturar el blanco: entonces lo monótono
sería que a un “píxel quemado” le siguiese otro “píxel quemado”. De este modo se
almacena más información que luego podremos recuperar postprocesando la imagen,
aplicando, por ejemplo, curvas de ganancia no lineales que “estiren el histograma” en
las zonas de interés.
(Respuesta con colaboración de Sergio Gómez Pascual).
194
I MAGEN DIGITAL
5. Las imágenes de escenas naturales, como las que se supone que hará una
cámara fotográfica no profesional, o las ortofotografías que se emplean como
base para trabajos topográficos, se suelen guardar comprimidas en formato. . .
Respuesta: (b) El formato más adecuado para guardar imágenes que van a ser visua-
lizadas por seres humanos es el JPEG, ya que aprovecha las peculiaridades de la
visión humana para comprimir la información, produciendo archivos de pequeño
tamaño pero que cubren escenas muy amplias.
Los diferentes formatos empleados para guardar imágenes en archivos informáticos han
nacido por diferentes necesidades y, por eso, son adecuados para distintos usos. De los
tres que se mencionan, TIFF, JPEG y PNG (el RAW no es un formato propiamente dicho
y fue tratado en una cuestión anterior), el JPEG es el único desarrollado para almacenar
fotografías, especialmente de escenas naturales.
El nombre JPEG responde a Grupo Unido de Expertos en Fotografía (Joint Photo-
graph Expert Group). La idea del formato es separar la información en color e intensi-
dad, algo que como ya vimos al hablar de la transformada de Brovey (en los productos
“PAN sharpened”), permite reducir mucho la información de color, siempre que se man-
tenga la de intensidad; el sistema visual humano detecta mejor el detalle espacial por las
variaciones de brillos, aunque es capaz de percibir más matices en los colores. Por otra
parte, la intensidad se puede descomponer en patrones de diferente importancia, en di-
ferentes escalas. El JPEG tradicional hace esta descomposición dividiendo la imagen en
losetas (habitualmente de 8 × 8 píxeles) y separando las diferentes “frecuencias espacia-
les”, es decir, los patrones periódicos que se repiten en ellas. Luego desprecia aquellos
patrones menos importantes y deja los más; de este modo logra comprimir la imagen,
aunque con pérdidas. Pero pérdidas que el ojo humano no percibe.
Las ortofotografías, como las que acompañan a muchos productos GIS (por ejem-
plo, modelos digitales de terreno obtenidos por LiDAR), se suelen distribuir en formato
JPEG: no están pensadas para ser procesadas por algoritmos de teledetección, sino pro-
porcionar un apoyo visual a la información que acompañan.
El formato JPEG se emplea, sobre todo, por dos razones: es rápido de leer o de
escribir, y es un estándar abierto. La primera, permite diseñar circuitos que realicen la
compresión en una cámara sencilla y también que lo descompriman para mostrar la
imagen en una pantalla. La segunda permite que cualquiera lo utilice y que, además, sea
independiente de la procedencia de la imagen, es decir, del fabricante de la cámara. Por
lo mismo, no es necesario un software especial para poder ver las imágenes JPEG en
cualquier ordenador.
195
C UESTIONES DE TELEDETECCIÓN
El formato TIFF fue desarrollado inicialmente con fines comerciales por la empresa
Aldous, absorbida posteriormente por Adobe. Su nombre se refiere a la manera en que
guarda la información: Formato de Archivo de Imagen Etiquetado (Tagged Image File
Format). Es decir, en el archivo existen una serie de etiquetas seguidas de datos acerca
de la imagen; cada etiqueta indica el tipo de dato y la información que sigue. Un ejemplo
de “clase de información”, son las propias bandas de la imagen. Gracias a esta estruc-
tura los archivos TIFF son muy flexibles: pueden guardar, además de imágenes, todo
tipo de información acerca de ellas. En particular, información geográfica: esto se logra
aumentando el número de etiquetas disponibles, dando origen al formato GeoTIFF.
El formato TIFF, a pesar de no ser exactamente un formato libre de derechos (Adobe
sigue manteniendo cierto control sobre él, de cara a estandarizar las etiquetas), se ha con-
vertido en un formato estándar para guardar imágenes tanto artísticas (por su capacidad
para guardar perfiles de color, manejar transparencias y capas, . . . ), como de fotografía
(admite imágenes de tamaños enormes, con diferentes valores de bits por píxel, . . . ),
como de teledetección (en GeoTIFF), etc.
El formato GeoTIFF es el formato abierto estándar en teledetección, con una especi-
ficación que mantiene la Open Source Geospatial Foundation (OSGeo); su objetivo es,
principalmente, facilitar el intercambio de imágenes de teledetección georreferenciadas
entre los diferentes softwares.
El formato PNG es un formato de imagen nacido para Internet. Su nombre signi-
fica formato de Gráficos Portables para la Red (Portable Network Graphics) y ha sido
desarrollado por el Consorcio para la WWW (W3C) para proporcionar un formato de
imágenes estándar para utilizar en las páginas web. Tiene muchas de las ventajas del
TIFF (como diferentes valores de bits por píxel, transparencias, y compresión sin pér-
didas), pero no tiene su flexibilidad para guardar información sobre la imagen (fuera de
algunos comentarios en texto). Su principal ventaja: se puede visualizar en cualquier na-
vegador moderno. Se emplea, por ejemplo, en los servidores WMS que sirven imágenes
de teledetección u ortofotografías aéreas a través de la Red.
En la última década se ha venido definiendo una mejora en el formato JPEG, el
JPEG2000. Este formato introduce potentes algoritmos de compresión sin pérdidas que
aprovechan las características de multirresolución de las imágenes. El JPEG2000 no se
emplea todavía en la electrónica de consumo. Sin embargo sí se ha empezado a utilizar
en ámbitos como la medicina y la teledetección. Productos como las imágenes de SPOT-
6 ya se distribuyen en JPEG2000, logrando tamaños muy inferiores a los del GeoTIFF,
incluso comprimido. Un ejemplo con una imagen SPOT-6 (pancromática): 380 MB en
GeoTIFF, 183 MB después de la compresión habitual, y sólo 70 MB en JPEG2000.
196
I MAGEN DIGITAL
Respuesta: (a) El formato TIFF, en su versión GeoTIFF (que incluye metadatos geo-
gráficos para georreferenciar las imágenes), es el formato estándar (abierto) de
intercambio de imágenes de teledetección en la actualidad. Los otros dos forma-
tos, también abiertos, son utilizados en ciertos ámbitos y por ciertos programas
dentro de la teledetección.
El formato GeoTIFF es un formato específico para guardar datos de imágenes de te-
ledetección. El TIFF original contemplaba tener varias imágenes en un único fichero
o, como se suelen llamar, varias capas. Además, la manera de almacenar las imágenes
ya era altamente flexible. Por ejemplo, era posible guardarlas por rectángulos (“tiles” o
baldosas), de modo que se pudiese cargar cada una de ellas por separado, y visualizar
imágenes muy grandes sin exceder la memoria del ordenador. También era posible guar-
dar los valores de los píxeles de dos formas: por ternas, RGB (o cuaternas RGBA con
transparencia, o CMYK, si se trata de colores de impresión: cyan, magenta, amarillo y
negro), o un color de cada vez (primero todos los rojos, luego todos los verdes y, por
último, todos los azules; o primero todos los cyan, luego los magenta, amarillo y negro).
Esta última habilidad se explota en el GeoTIFF para guardar las bandas de los sensores,
una tras otra, mientras que los compuestos RGB, se guardan en el formato más habitual
de ternas RGB sucesivas.
El almacenamiento de los datos de una imagen ha sido históricamente una cues-
tión de cómo se transmitía esa información. Existen tres formas de almacenar los datos
de las bandas de un sensor. La más simple, usada por las cámaras fotográficas, es se-
cuencialmente por píxeles, cada uno de ellos definido por su terna de valores RGB; esta
estructura se llama BIP (band interleaved by pixel, bandas por píxeles intercalados). Es
como guardan los valores los formatos de imagen usados habitualmente: PNG, BMP,
TIFF. La siguiente más simple consiste en guardar los datos como los envía el sensor
multiespectral: línea a línea adquirida en cada banda espectral, es decir, como una se-
cuencia de líneas, una por banda; esta estructura se llama BIL (band interleaved by line,
bandas por líneas intercaladas). Este formato es poco empleado en las imágenes, incluso
en teledetección, aunque se mantiene en algunos productos L0 de algunos sensores. Por
último, la estructura más usada en teledetección es la BSQ o secuencia de bandas (band
sequential): los valores de los píxeles en cada banda se almacenan uno a continuación
de otro y, muchas veces, cada banda en un archivo separado. Así, por ejemplo, se dis-
tribuyen las imágenes Landsat: como una serie de archivos GeoTIFF, cada uno de ellos
conteniendo una única banda. Véase la figura 5.6.
197
C UESTIONES DE TELEDETECCIÓN
Columnas
Imagen BIL Imagen BSQ
Filas
en archivos separados
Imagen BIP
Imagen BSQ
Figura 5.6. Estructuras BIL, BIP y BSQ.
Los otros dos formatos, el HDF (Hierarchical Data Format, formato de datos jerár-
quico) y NetCDF (Network Common Data Format, formato de datos de ordenador para
la red), son formatos de almacenamiento de datos científicos de propósito general.
El HDF fue desarrollado por el NCSA (National Center for Supercomputing Appli-
cations, centro nacional de aplicaciones de la supercomputación, de EE.UU.) aunque
ahora es mantenido por el HDF Group. En su primera versión distribuida, el HDF4 o
simplemente HDF, permitía guardar tipos de datos numéricos incluyendo atributos de
estos datos: por ejemplo, el nombre de la magnitud, sus unidades físicas, instrumento
que la adquirió, precisión de la medida, etc. Es el formato adoptado por el programa
de observación de la Tierra de la NASA (EOS), en que se distribuyen los datos de los
satélites oceanográficos a través de la plataforma OceanColor; también es el formato en
que distribuye la ESA los productos de CHRIS/PROBA, y es utilizado en otros ámbitos
científicos fuera de la teledetección (como en imagen médica). La nueva versión HDF5
es aún más flexible que el HDF4, pero incompatible con él. El principal problema del
HDF es que, al ser un formato tan general, requiere una aplicación específica para inter-
pretar los datos en función del origen de éstos (figura 5.7). Por ejemplo, una aplicación
que abra archivos de un sensor como CHRIS/PROBA, seguramente no será capaz de
abrir archivos del programa EOS distribuidos a través de OceanColor (aunque todos es-
tos productos EOS han sido estandarizados para que no dependan del tipo de sensor).
198
I MAGEN DIGITAL
Paleta de color
Imagen raster Datos científicos multidimensionales
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
111111111111111
000000000000000
111111111111111
000000000000000
000000000000000
111111111111111
Tablas Anotaciones
Id SST Chl−a El contenido de este archivo HDF
0001 ha sido obtenido dentro del proyecto
13.2 1.34 de la Agencia Europea del Espacio
0002 13.8 1.78 ...
0003 14.0 2.52
0004 13.9 1.80
0005 15.0 1.76
VGroup
(grupo de estructuras de datos HDF)
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
Id SST Chl−a
0001 13.2 1.34
0002 13.8 1.78
El contenido de este archivo HDF 0003 14.0 2.52
ha sido obtenido dentro del proyecto 0004
de la Agencia Europea del Espacio 13.9 1.80
0005 15.0 1.76
...
Por último, el formato NetCDF fue creado por UNIDATA, una asociación científica
estadounidense, como formato estándar para uso en ciencias de la Tierra. Su orientación
es semejante a la del HDF: contiene la suficiente información para poder saber qué clase
de dato se encuentra en el archivo (tipo de variable, unidades, dimensiones, institución
que la creo, etc.). Es, por ejemplo, el formato estándar en que se distribuyen los productos
de meteorología.
(Respuesta con colaboración de Juan Ojeda Cáceres).
199
C UESTIONES DE TELEDETECCIÓN
Respuesta: (b) Las composiciones RGB se indican por los números de las bandas que
se asignan a cada canal. Las bandas de los sensores se suelen numerar en se-
cuencia de longitud de onda creciente. Las “bandas Landsat-8” comienzan con
una primera banda estrecha en el azul y luego la siguen las tradicionales, más
anchas, en el azul, verde, rojo, etc.: para obtener una imagen en color natural, se
emplearía una combinación 432.
Para conseguir una imagen con una composición que se corresponda al color natural
se han de combinar las bandas rojo, verde y azul (RGB de sus iniciales en Inglés). Es-
tos colores se corresponden, respectivamente, a las bandas que adquieren las longitudes
de onda del espectro visible comprendidas entre 0,6-0,7 μm (R), 0,5-0,6 μm (G) y 0,4-
0,5 μm (B).
En los sensores Thematic Mapper (TM) de los satélites Landsat 4 y 5, y ETM+
del Landsat 7 estos colores se corresponden con las bandas del visible 3 (VIS-R: 0,63 −
0,69 μm), 2 (VIS-G:0,52 − 0,60 μm) y 1 (VIS-B: 0,45 − 0,52 μm). Las bandas 4 a 7 de es-
tos sensores recogen bandas dentro del rango infrarrojo próximo (NIR: 0,76 − 0,90 μm),
de onda corta (SWIR: 1,55 − 1,75 μm), térmico (TIR: 10,40 − 12,50 μm) y otra más de
onda corta (SWIR: 2,09 − 2,35 μm), respectivamente. En el ETM+, una octava banda, la
pancromática, recoge toda la luz dentro de toda la banda visible (PAN: 0,52 − 0,90 μm).
Sin embargo, el sensor OLI del Landsat-8 incorpora una primera banda en el azul
muy estrecha, de sólo 20 nm de anchura (0,43 − 0,45 μm). Esta banda, llamada de aero-
soles y costa, se empleará para hacer la corrección atmosférica, especialmente en esta
zona terrestre-marina tan cambiante y para observar el fondo marino costero, ya que se
halla en una zona de máxima transparencia del agua del mar. El resto de las bandas de
este sensor son las tradicionales de los TM: tres visibles (VIS-R, VIS-G y VIS-B), la
banda NIR (un poco más estrechada, para evitar la absorción del vapor de agua), dos
bandas SWIR (1,57 − 1,65 μm y 2,11 − 2,29 μm, ahora ordenadas) y una PAN más res-
tringida (0,50 − 0,68 μm). También se ha añadido una banda “de cirros”, para mejorar
la corrección atmosférica (en el SWIR 1,36 − 1,38 μm). La banda térmica del Thermal
InfraRed Sensor (TIRS) se ha dividido en dos, una entre 10,60 − 11,19 μm y otra entre
200
I MAGEN DIGITAL
11,50 − 12,51 μm. Por lo tanto, el “color natural” de los productos OLI lo proporcionará
la combinación 432.
Aparte de la combinación 432 de color natural, algunas otras combinaciones de ban-
das Landsat ayudan a destacar cubiertas de interés (ver figura 5.8):
Respuesta: (d) Las máscaras en un producto de teledetección indican los píxeles que
poseen una propiedad. Contienen valores binarios: verdadero (posee la propie-
dad) o falso (no la posee). Habitualmente indican anomalías: errores de adquisi-
ción, presencia de nubes, de reflejos en el agua (sunglint), etc.
201
C UESTIONES DE TELEDETECCIÓN
432 543
765 453
753
202
I MAGEN DIGITAL
Figura 5.9. Máscara de píxeles perdidos en la banda 1 del sensor CHRIS/PROBA y su superposición en la
imagen de la banda 1 (en la que esos píxeles aparecían en negro, sin señal).
203
C UESTIONES DE TELEDETECCIÓN
Figura 5.10. Selección de un embalse mediante una máscara lógica en una imagen Landsat-8. La
condición para seleccionar los píxeles en esta banda 5 (NIR) en ND fue: (band_5 < 6000).
en sus píxeles el valor 1 (verdadero) o 0 (falso) cuando la condición matemática sea ver-
dadera o falsa, respectivamente. Una vez definida la máscara, ésta nos permitirá medir
la clorofila, por ejemplo, sólo en el embalse y no en el resto de la imagen ya “enmasca-
rada”. El uso de máscaras tiene la ventaja, entre otras, de hacer mucho más rápidos los
análisis de las imágenes, limitando el área donde se aplican.
9. Cuando se quiere utilizar una imagen de satélite o una fotografía aérea para
fotointerpretar (reconocer y digitalizar sobre la imagen) algún elemento del
terreno, la línea de costa por ejemplo, ¿cuál será la escala a la que debemos
realizar el trabajo?
Respuesta: (d) El proceso de digitalización es, hasta cierto punto, subjetivo. Consiste
en marcar las posiciones de elementos geográficos en una imagen. En el caso
propuesto, estas posiciones definirán líneas que representan límites entre zonas
que no tienen por que diferenciarse claramente en la imagen (por ejemplo, agua
y arena). Depende, por tanto, de la interpretación de unos criterios por parte del
digitalizador, que debe emplear siempre la escala de mayor detalle que le permita
diferenciar los elementos a identificar, dentro del contexto en que éstos se hallan.
204
I MAGEN DIGITAL
Figura 5.11. Playas de Bora-Bora vistas por el GeoEye-1. Ampliación de la costa (límite agua-arena) hasta
observar los píxeles.
205
C UESTIONES DE TELEDETECCIÓN
este error esperado sea del orden de 0.2 píxeles). También a qué se puede observar en
la imagen: en una imagen en color natural, a lo mejor no es fácil ver diferencias entre
dos tipos de vegetación, que quedarían patentes si se utilizase una imagen con una banda
en el NIR. La segunda, el tamaño del entorno de observación, impone una limitación a
la longitud de los segmentos que se trazarán en la digitalización: la diferencia entre dos
zonas no será visible al nivel del píxel, sino que se hará aparente cuando se considere un
conjunto de píxeles tal que a un lado de la línea unos sean principalmente de un tipo y,
al otro lado, de otro. La última limitación, el posterior uso de la cartografía digitalizada,
indica cuándo una imagen no es apta: no tendría sentido emplear imágenes Landsat para
una cartografía catastral, en la que se necesita delimitar las parcelas y polígonos con pre-
cisión inferior al metro, mientras que, a lo mejor sí lo serían para una cartografía forestal
que, a fin de cuentas, es una instantánea de una distribución biológica que cambia con el
tiempo.
10. Para una temperatura dada, las gotitas de la niebla son menos brillantes en la
banda térmica de 12 μm que en la de 10,8 μm, y más en ésta que en la de
8,7 μm; por eso se construyen imágenes RGB del sensor SEVIRI con
R:IR12-IR10.8, G:IR10.8-IR8.7, B:IR10.8. En estas imágenes, las nieblas se
ven de un color blanco azulado. Por otro lado, las gotitas y cristales de hielo en
los topes de las nubes, son prácticamente igual de emisivas en el IR10.8 y el
IR8.7, y más fríos. ¿Con qué color se verán?
Respuesta: (c) En esta imagen meteorológica en falso color, se están comparando com-
portamientos diferenciales en las cubiertas de nubes. Si sabemos que las nieblas
se ven de un color prácticamente blanco (con tonalidades azuladas), los topes de
las nubes en las que la práctica igualdad en el IR10.8 y el IR8.7 hará oscurecer-
se al canal verde y la menor emisión en el IR10.8 (porque están más frías) hará
oscurecer el canal azul, serán principalmente rojas.
A diferencia de las asignaciones de paletas de color a una banda o cálculo entre bandas,
siguiendo una asignación arbitraria, las composiciones RGB no asignan colores específi-
cos a elementos o características particulares que se observan en la imagen. Al contrario,
los colores que se producen en estas composiciones están directamente relacionados con
propiedades físicas de los objetos en la escena, que pueden ser o no las que queremos
distinguir, o que tendremos que manipular de la manera adecuada para resaltar sus cam-
bios o diferencias sutiles.
En el caso del enunciado, estas diferencias sutiles se ponen de manifiesto calculando
diferencias entre bandas en el infrarrojo térmico que, visualizadas por separado, mostra-
206
I MAGEN DIGITAL
0 0 0
−4 0 +2 0 5 10 15 260 270 280 290
(K) (K) (K)
Valor: IR12−IR10.8 Valor: IR10.8−IR8.7 Valor: IR10.8
207
C UESTIONES DE TELEDETECCIÓN
Figura 5.13. Imagen RGB con la combinación de bandas del enunciado. Fuente: EUMETSAT.
208
I MAGEN DIGITAL
209
C UESTIONES DE TELEDETECCIÓN
brillo Valor que caracteriza la intensidad de luz emitida en un píxel al visualizar una
imagen. Se suele definir como la media de los valores en los tres canales rojo,
verde y azul (en las imágenes RGB). En otros contextos se define como una suma
ponderada con la sensibilidad del ojo humano a cada uno de estos colores.
canal Cada una de las entradas o salidas independientes de datos (ya sean físicas o
lógicas) entre dispositivos. En el caso de los dispositivo de visualización, los datos
de color rojo, verde y azul en cada píxel se envían independientemente, de ahí que
se hable de canales de color. Por extensión, se llama canal (o banda) de una imagen
a cada una de las señales que un sensor adquiere independientemente, esto es, con
distinto detector.
compresión Reducción del tamaño de los datos que representan una información. Los
algoritmos de compresión aprovechan la redundancia (repeticiones) en los datos
para sustituirlos por “cadenas” más cortas que los remplazan, reduciendo así el ta-
maño de los archivos. Cuando los datos originales se pueden obtener exactamente
a partir de los comprimidos, el proceso de compresión se dice que es sin pérdidas
(por ejemplo, el algoritmo pkZIP); cuando a partir de los datos comprimidos só-
lo se puede recuperar una copia aproximada de los originales, se dice que es con
pérdidas (por ejemplo, el algoritmo JPEG).
contraste Rango en el que los brillos en una imagen. La operación más sencilla para
maximizar el contraste en una imagen es realizar una transformación lineal que
convierta en negro (ausencia de brillo) el valor más bajo y en blanco (máximo
brillo) el valor más alto: esto es la normalización o estiramiento de la distribución
de brillos o histograma de la imagen.
falso color Combinación de bandas espectrales dirigidas a los canales rojo, verde y azul
con el propósito de destacar algunos aspectos que se observan mejor en estas ban-
das, pero que no buscan mostrar la imagen tal como la vería un ojo humano.
formato de imagen Estructura de los datos en uno o varios archivos informáticos que
almacenan la información de los píxeles y canales/bandas de una imagen y otra
210
I MAGEN DIGITAL
211
C UESTIONES DE TELEDETECCIÓN
poder de separación Capacidad de un sensor para diferenciar en sus imágenes dos ob-
jetos próximos. Sinónimo de resolución espacial, aunque también se usa para me-
didas angulares.
RGB (red, green, blue) Sistema para definir un color mediante sus coordenadas tricro-
máticas, es decir, mediante las intensidades con que ese color estimularía la per-
cepción visual del rojo, el verde y el azul separadamente. Como norma general,
todo sistema para definir un color (y su brillo) debe usar tres coordenadas que se
transforman (de manera biunívoca) en las coordenadas RGB.
5.5. BIBLIOGRAFÍA
P.M. Mather (2004). “Hardware and software of Digital Image Processing”. En:
Computer Processing of Remotely-Sensed Images: An Introduction, Capítulo 3.
John Wiley & Sons, 2004
J.R. Jensen (2005). “Initial Display Alternatives and Scientific Visualization”. En:
Introductory Digital Image Processing: A Remote Sensing Perspective, Capítulo
5. Prentice Hall, 2005.
K.I. Strabala, S.A. Ackerman, P. Menzelw (1994). “Cloud properties inferred from
8 − 12 μm data”. Journal of Applied Meteorology, 33(2): 212-229
212
I MAGEN DIGITAL
Pléiades and SPOT 6/7 Format Delivery — Airbus Defence and Space.
URL: http://www.astrium-geo.com/en/3030-pleiades-and-spot-6-7-format-delivery
Página que describe el formato DIMAP 2 de imágenes de teledetección emplea-
do en los nuevos SPOT en el que se usa el formato de imagen GeoTIFF o el
JPEG2000 para almacenar los datos de la imagen y un documento XML (texto)
para los metadatos de la imagen.
Google Maps.
URL: http://maps.google.com
Visor de mapas de Google.
213
C UESTIONES DE TELEDETECCIÓN
JPEG.
URL: http://www.jpeg.org/jpeg/index.html
Página web dedicada al formato de imagen fotográfica JPEG (joint photograph
expert group, grupo de expertos en fotografía) clásico, con compresión con pérdi-
das.
JPEG 2000.
URL: http://www.jpeg.org/jpeg2000/
Página web dedicada al nuevo formato de imagen fotográfica JPEG2000 (joint
photograph expert group, grupo de expertos en fotografía) con mayor capacidad
de compresión que el JPEG clásico y con posibilidad de comprimir imágenes sin
pérdidas.
GeoTIFF — OSGeo.
URL: http://trac.osgeo.org/geotiff/
Página de la OSGeo (Open Source Geospatial Foundation) sobre el formato Geo-
TIFF, la extensión del formato TIFF acordado entre diferentes organizaciones y
empresas que permite almacenar imágenes (datos espaciales rasterizados) georre-
ferenciadas.
Unidata — NetCDF.
URL: http://www.unidata.ucar.edu/software/netcdf/
Página web dedicada al formato de datos científicos NetCDF (Network Common
Data Format, Formato de Datos Común para la Red) y sus usos más frecuentes,
214
I MAGEN DIGITAL
215
Tema 6
GUION-ESQUEMA
Aritmética de imágenes
Transformaciones globales
Transformaciones locales
Selección de elementos
C UESTIONES DE TELEDETECCIÓN
Brillo/Contraste
Ecualización Visualización
Bandas Imagen total Transf. Gamma
Análisis visual
Compos. RGB
Transformación global ...
Aritmética de bandas
Promedio/Diff. Calc. magnitudes físicas
Trans. Brovey Reducción de ruidos
Índices Detección de cambios
... Clasificación
Estadisticos de suavizado
Media
Píxeles Transformación local Reducción de ruido
Mediana
Max., min., ...
Derivadas
Detección de estructuras
Anal. vecinos Realces
6.1. INTRODUCCIÓN
219
C UESTIONES DE TELEDETECCIÓN
6.2. CUESTIONES
1. Una transformación global de la imagen es una regla que se aplica a los píxeles
de la imagen teniendo en cuenta sólo el valor de cada píxel en ésta, pero sin tener
en cuenta los de los demás píxeles vecinos a éste. Dada esta imagen SPOT-6 de la
ciudad de Barcelona,
a) b)
c) d)
2. Una imagen remota suele representar la cantidad de luz reflejada por una cubierta
(relacionada con la radiancia recibida de ella). Esta magnitud puede estar rela-
cionada de forma complicada con otras propiedades del objeto representado: para
representar estas propiedades, se aplican estas transformaciones complicadas, casi
siempre no lineales. Por el contrario, ¿cuál de estas transformaciones globales es
lineal?
220
T RANSFORMACIONES DE LAS IMÁGENES
5. Una de las formas de caracterizar una cubierta terrestre es mediante “índices” que
describen la forma de su espectro de reflectividad, definidas de modo que sean lo
más independientes posible de factores ambientales: la “densidad” de aquello que
miden (por ejemplo, la densidad foliar de un dosel), errores en la corrección at-
mosférica (por ejemplo, en la irradiancia solar o en la absorción atmosférica), etc.
¿Cuáles de estas operaciones entre bandas proporcionarían este tipo de índices?
a) un promedio de bandas
b) una diferencia de bandas
c) un cociente entre una diferencia de bandas y el valor de otra
d) un producto de una suma de bandas y la diferencia de otras
221
C UESTIONES DE TELEDETECCIÓN
a) máscara de tierra-agua
b) “buffer” de 100 m alrededor de la línea de costa
c) máscara de píxeles afectados de “sunglint”
d) todas las anteriores
a) un filtro de media
b) un filtro de mediana
c) un filtro gaussiano
d) todos los anteriores
8. Para poder realizar operaciones entre las bandas de dos imágenes de sensores di-
ferentes, o que tienen tamaños de píxeles diferentes, es necesario. . .
a) un filtro pasa-bajos
b) un filtro pasa-altos
c) dos filtros pasa-altos
d) un filtro pasa-bajos y uno pasa-altos
222
T RANSFORMACIONES DE LAS IMÁGENES
10. Para exagerar el relieve en una imagen pancromática, se aumentan los contrastes
de sombras que se ven en la imagen en las laderas de las montañas. Para eso se
usa. . .
a) un filtro pasa-bajos
b) un filtro pasa-altos
c) una función no lineal
d) aritmética de bandas
223
C UESTIONES DE TELEDETECCIÓN
1. Una transformación global de la imagen es una regla que se aplica a los píxeles
de la imagen teniendo en cuenta sólo el valor de cada píxel en ésta, pero sin
tener en cuenta los de los demás píxeles vecinos a éste. Dada esta imagen
SPOT-6 de la ciudad de Barcelona, ...
224
T RANSFORMACIONES DE LAS IMÁGENES
225
C UESTIONES DE TELEDETECCIÓN
Existen relaciones matemáticas que relacionan la radiancia espectral que llega a un sen-
sor a bordo de un satélite en órbita (radiancia TOA, top of the atmosphere) en las distintas
bandas con las propiedades físicas del material que refleja esa radiancia. Ésta es la base
de la teledetección, y por ello se pueden identificar esos materiales y aun deducir las
propiedades de los objetos que están compuestos por ellos.
Las relaciones matemáticas más sencillas son las lineales. Consisten sólo en multi-
plicar una magnitud, como la radiancia TOA en una banda espectral, por un coeficiente
y sumarle o restarle un valor constante. La corrección atmosférica se lleva a cabo me-
diante ecuaciones de este tipo: el coeficiente multiplicador es el producto de la luz que
llega del sol (que varía a lo largo del año y es función de la latitud y la hora de adquisi-
ción de la escena) y de la absorción atmosférica (que depende del estado de ésta y de la
226
T RANSFORMACIONES DE LAS IMÁGENES
−2
Profundidad (m)
−4
−6
−8
−10
−12
40 45 50 55 60 65
ND (banda 3 SPOT)
Figura 6.2. Imagen de la banda verde de un producto SPOT-5 en la desembocadura del Guadiana y
batimetría derivada de ella. A la derecha, relación no lineal entre el valor de la banda y la profundidad
estimada.
altitud de la escena); el valor constante que, en este caso, se resta depende de la cantidad
de aerosoles (partículas micrométricas en suspensión) o nieblas que dispersan la luz del
sol sobre la escena. Por supuesto, estos dos coeficientes son distintos para cada banda
espectral, y existen algoritmos complicados que los calculan en función de datos que les
proporciona el usuario.
Sin embargo, existen otras relaciones no lineales que se emplean para calcular otras
propiedades o, simplemente, para modificar la forma en que se ve una escena. Una de
estas últimas consiste en elevar los ND de las bandas a una potencia (es decir, sustituir
ND por NDγ , donde γ es un número positivo); esta transformación se llama corrección
“gamma” (el nombre de la letra griega γ) y está relacionada con cómo nuestro ojo percibe
227
C UESTIONES DE TELEDETECCIÓN
la luz y el contraste entre colores. Un valor de γ mayor que 1, aumenta el contraste que
percibimos en los niveles de gris más altos y, por tanto, “apaga” los niveles de gris más
bajos, haciéndolos prácticamente cero (por comparación con lo que aumenta el valor de
los más altos). Un valor de γ menor que 1, por el contrario, permite diferenciar mejor
los ND más bajos, mientras que “satura” los altos. Existen otras funciones que logran
efectos similares: la exponencial (es decir, sustituir un ND por eND ≡ exp(ND)) y el
logaritmo (es decir, ND → log(ND). La primera tiene el efecto de destacar mucho los
contrastes entre los valores altos; la segunda, entre los bajos.
Las funciones logarítmicas aparecen muchas veces en teledetección porque permiten
deducir propiedades de los objetos, más allá de permitir visualizar la imagen de una
manera u otra; no obstante, una imagen de “propiedades físicas” se suele interpretar
mejor que una imagen de radiancia TOA, por lo que en muchos casos se logrará también
mejorar la visualización. Una de estas propiedades es la profundidad del agua: como
la luz que se transmite a través de un espesor de agua se atenúa exponencialmente, el
espesor de la lámina de agua se puede calcular aplicando un logaritmo a la radiancia
recibida desde el fondo (y calibrando luego el resultado con valores de la batimetría
medidos en el campo).
Otra propiedad, es la temperatura: la radiación en el infrarrojo térmico (TIR) que
emite un cuerpo (en este caso no la refleja del sol, sino que se origina en él) depende
a través de una exponencial del inverso de su temperatura; por lo tanto, para calcular
la temperatura, se aplica un logaritmo a la radiancia que emite en el TIR y se calcula
el inverso del resultado (utilizando unos coeficientes de calibración que dependen del
sensor y del material cuya temperatura se está calculando).
Respuesta: (c) Para visualizar la temperatura radiométrica, bastaría con calcular una
expresión no lineal (logarítmica) de una banda, sin embargo, en el caso de las
nubes (cuya densidad es variable), se estudia cómo varía la emisión térmica en
función de la longitud de onda y, para ello, se calcula la diferencia de los valores
entre dos bandas próximas.
228
T RANSFORMACIONES DE LAS IMÁGENES
Respuesta: (d) Todas estas imágenes se obtienen por aritmética de bandas, a veces
bandas espectrales de un mismo sensor y de la misma imagen, o a veces de di-
ferentes imágenes, y también de distintos sensores (casi siempre, por motivos de
sincronía, transportados sobre el mismo sensor).
La aritmética de bandas es una herramienta muy potente. Trata cada píxel como un ele-
mento independiente y opera entre los valores que las diferentes bandas del producto
toman en él. Esto incluso se puede hacer entre bandas de distintos productos si previa-
mente se colocalizan unas respecto a otras.
Un ejemplo realizado con aritmética de bandas son las imágenes multiespectrales
SPOT mejoradas con pancromático. Éstas son un producto muy utilizado para fotointer-
229
C UESTIONES DE TELEDETECCIÓN
230
T RANSFORMACIONES DE LAS IMÁGENES
Banda R: Ch10-Ch09
Banda G: Ch09-Ch04
Banda B: Ch09
Respuesta: (c) Un índice con las propiedades indicadas debe calcularse como un co-
ciente de valores obtenidos de las bandas. Un simple cociente (band ratio), o un
cociente entre diferencias (difference ratio), o un cociente entre diferencias y su-
mas (normalized difference), cumple estas condiciones.
Cuando una imagen tiene en los píxeles de sus bandas reflectividades, ya podemos con-
siderar que es una imagen en variables físicas: la reflectividad es la propiedad óptica
del objeto o cubierta que define su interacción con la luz. Por lo tanto, la imagen ca-
racteriza el material que se observa en la imagen. Sin embargo, esto es cierto sólo en
condiciones ideales, en las que se posee toda la información para calcular la reflecti-
vidad correctamente. En muchos casos, sin embargo, la corrección atmosférica no es
perfecta, el terreno no es horizontal, la cubierta es rugosa, o hay más de una cubierta
presente en un mismo píxel. Esto hace que el valor medido de la reflectividad no sea el
propio del material puro. Por eso se emplean índices, que buscan atenuar la influencia
de estos efectos.
El índice más sencillo consiste en dividir las bandas por una banda de referencia; por
ello se llama cociente de bandas (band ratio). De este modo, las variaciones debidas a
la pendiente del terreno o a la rugosidad de la superficie, que afectan del mismo modo
a todas las bandas, se cancelan en el numerador y en el denominador. Si un producto
posee N bandas convertidas en reflectividades espectrales, para identificar las cubiertas
o su estado, se comparan los valores de los N − 1 cocientes formados de este modo.
Por ejemplo, para identificar minerales se calculan cocientes entre las banda de absor-
ción de algunos grupos químicos característicos (AlOH, Fe, MgOH, H2 O) en el rango
2,10 − 2,45 μm, que corresponden a la ventana atmosférica de mayores longitudes de on-
231
C UESTIONES DE TELEDETECCIÓN
da en el SWIR (llamada SWIR-2 en terminología del sensor OLI de Landsat). Así, para
identificar minerales con AlOH, se ha empleado el cociente de bandas 7 y 6 del sensor
ASTER sobre escenas de suelos desnudos (en 2,20 μm y 2,25 μm, respectivamente) o de
sus bandas 4 (en 1,65 μm) y 6. Cuando dos cocientes de bandas sirven para caracterizar
el mismo compuesto, a veces se multiplican para potenciar la detección: así se define el
índice de hidróxidos de ASTER:
AST ER7 AST ER4
OHI = ×
AST ER6 AST ER6
232
T RANSFORMACIONES DE LAS IMÁGENES
NIR − (sR + a)
T SAV I = 1 2
s [a NIR + R − s a + 0,08 · (1 + s )]
NIR − SW IR
NDW I =
NIR + SW IR
y, cuanto mayor es, más contenido de humedad contiene la vegetación. Este índice es
muy utilizado para desarrollar mapas de peligro de incendios.
Todavía, a partir de los índices NDV I y NDW I, se ha construido un metaíndice uti-
lizando el procedimiento de diferencias normalizadas. Se trata del NDDI (normalized
difference drought index, índice normalizado de sequía), que se calcula como:
NDV I − NDW I
NDDI =
NDV I + NDW I
El índice NDDI destaca el diferente comportamiento entre el NDV I, que está más re-
lacionado con el vigor de la vegetación, es decir, con la estructura joven de la hoja y
su contenido en clorofila, y el NDW I, más relacionado con el contenido de agua en esa
hoja. Un valor alto del NDDI corresponde a una mayor incidencia de la sequía que no
puede captar por separado cada uno de los índices: en la época de estiaje, el NDV I puede
ser bajo, y simultáneamente disminuirá el NDW I; es una tendencia diferente entre estos
dos índices (mucho menor contenido en agua del que corresponde al vigor vegetal) lo
que indicará situación de sequía.
233
C UESTIONES DE TELEDETECCIÓN
Respuesta: (a) La diferencia entre tierra y agua se puede ver claramente en al ban-
da NIR de una imagen Landsat, porque en ella el agua aparece “negra”, ya que
absorbe la mayor parte de la luz en este rango del espectro. Por lo tanto, com-
parando el ND de la imagen con cierto valor umbral, se pueden determinar “los
píxeles” de tierra (en los que el ND es superior a ese umbral) y los píxeles “de
agua” (en los que el ND es inferior a ese umbral).
234
T RANSFORMACIONES DE LAS IMÁGENES
Figura 6.3. Efectos sunglint que se pueden corregir, en una imagen VIIRS (satélite Suomi NPP de la
NASA) sobre el océano Atlántico (izquierda), y que no, en una imagen MODIS sobre el golfo de México
(derecha, reflexión especular sobre una gran mancha de petróleo). Fuente: NASA.
o las máscaras que intentan eliminar las zonas afectadas por sunglint (esto es, la refle-
xión especular del sol en una lámina de agua). Ambos efectos impiden hacer un estudio
de la superficie terrestre (cubierta de nubes, en el primer caso, o “deslumbrada”, en el
segundo). Las máscaras de nubes (flags, en la terminología de productos como los CHRI-
S/PROBA) aprovechan la elevada dispersión de las nubes en la longitud de banda azul y
su baja temperatura (observable si se dispone de bandas en el IR térmico), para calcular
expresiones que permiten identificar con detalle las nubes y marcarlas para omitir esas
áreas de los cálculos sobre la escena. En el caso del sunglint, en las imágenes de satélite
es casi siempre recuperable: no toda la superficie acuática en un píxel refleja directamen-
te la luz del sol hacia el sensor; sólo una fracción, debido al oleaje. Cuando esta fracción
es muy grande, el sunglint no se puede corregir y, entonces, esos píxeles se enmascaran
(véase la figura 6.3).
Respuesta: (d) Todos estos filtros (de media, de mediana, de suavizado gaussiano, . . . )
llevan a cabo estimaciones estadísticas sobre el entorno del píxel, es decir, opera-
ciones que toman los valores de los píxeles del entorno y, mediante sumas ponde-
radas (media y gaussiano) u ordenación de esos valores (mediana) calculan una
medida de centralidad.
235
C UESTIONES DE TELEDETECCIÓN
Las operaciones locales utilizan la información del vecindario de un píxel para completar
la información de éste. En este caso, hablamos de una información estadística. Los filtros
de media y gaussiano, calculan en un píxel el resultado de hacer una suma ponderada de
los valores en un vecindario del píxel y del propio píxel. Estos filtros se suelen aplicar
banda a banda y se definen por el tamaño del vecindario y por la distribución de los
coeficientes de ponderación: en el de media, son todos ellos iguales, de forma que sumen
la unidad entre todos; en el gaussiano, tienen mayor valor los del centro del vecindario,
que corresponde al valor en el píxel que se está calculando.
236
T RANSFORMACIONES DE LAS IMÁGENES
eran inicialmente enteros (los ND originales), tras aplicar el filtro de mediana lo segui-
rán siendo; un filtro de media, por ejemplo, dará valores fraccionarios. Otra propiedad
interesante del filtro de mediana es que, en caso de que la imagen contenga un moteado
o un bandeado por ruido en el sensor, el cálculo de la mediana simplemente descartará
estos valores que se alejan mucho de la media, sin que “tiren” del resto de valores en los
píxeles de su entorno.
8. Para poder realizar operaciones entre las bandas de dos imágenes de sensores
diferentes, o que tienen tamaños de píxeles diferentes, es necesario. . .
Respuesta: (a) Lo que hace falta es, en píxeles correspondientes a los mismos lugares
geográficos y con la misma extensión sobre el terreno, tener valores de las dos
imágenes. Para ello, se interpolan los valores de una de las imágenes, conservan-
do los de la otra.
237
C UESTIONES DE TELEDETECCIÓN
georreferenciada deben ser calculados para que en cada uno de sus píxeles haya un valor
adecuado correspondiente a su localización. Este cálculo del valor de un píxel de la
nueva imagen georreferenciada o reproyectada a partir de los valores de los píxeles de la
original, se llama interpolación.
Existen diferentes métodos matemáticos para hallar el valor de cada píxel en la nue-
va imagen, conocidos los valores de los píxeles de la original. Muchos de ellos se basan
en expresiones polinómicas cuyo orden determina la flexibilidad del ajuste y de la trans-
formación. Normalmente se utilizan funciones de tipo lineal (polinomio de grado 1),
cuadrático (polinomio de grado 2) o cúbico (polinomio de grado 3) que ajustan cómo
varía el valor de los píxeles originales en cada una de las direcciones de la imagen: por
ello se llaman interpolaciones bilineal, bicuadrática y bicúbica; cada una de ellas produ-
ce una imagen más suave que la anterior, porque utiliza más valores de píxeles alrededor
de uno dado para calcular su valor interpolado: de 4 para la bilineal, a 16 para la bicúbica.
Pero también es posible otro tipo de “interpolación” más sencilla: coger el valor del
vecino más próximo. Este método adjudica a cada píxel de la imagen transformada el
valor del píxel geográficamente más cercano en la imagen original. La ventaja de este
método es que no “inventa” nuevos valores en los píxeles de la nueva imagen, sino que
utiliza los mismos valores que existían en la original. Por eso es el escogido para trabajos
que requieran cálculos con los valores originales de las bandas del sensor.
Respuesta: (c) Los filtros pasa-bajos y pasa-altos son filtros lineales, es decir, basados
en calcular sumas (o diferencias) ponderadas de los valores en los píxeles en un
entorno. Para detectar cambios en ese entorno, se utilizan los filtros pasa-altos,
que calculan diferencias entre píxeles en diferentes direcciones; para detectar lí-
neas en una imagen, como los bordes de las calles, es necesario combinar los
resultados de buscar esos bordes en, al menos, dos direcciones: horizontal y ver-
tical.
Los filtros (lineales) que se emplean en teledetección para destacar características en las
imágenes son de dos tipos: pasa-bajos y pasa-altos. Los primeros difuminan los detalles
en el entorno de cada píxel, y dejan sólo las variaciones que se manifiestan fuera de
ese entorno (que depende del tamaño del filtro). Los segundos destacan, precisamente,
los detalles en el entorno de cada píxel; por eso son adecuados para detectar bordes en
diferentes direcciones. Estos filtros pasa-altos se llaman también filtros de realce, o filtros
238
T RANSFORMACIONES DE LAS IMÁGENES
Gx : Gy :
→
|Gx |: |Gy |: G:
Figura 6.4. Ejemplo de bordes horizontales (Gy ), verticales (Gx ) y globales (G) en una escena de un núcleo
urbano (imagen SPOT-6 de un polígono industrial de Martorell, Barcelona).
1 2 1 -1 0 1
Filtros de Sobel 3 × 3: horizontal 0 0 0 y vertical -2 0 2
-1 -2 -1 -1 0 1
239
C UESTIONES DE TELEDETECCIÓN
Figura 6.5. Imagen Landsat 5 (banda TM2) del Teide: original (izquierda) y con el relieve exagerado
(derecha).
Percibimos el relieve en una imagen por los cambios graduales de brillo en sus pí-
xeles. Gradientes de brillo siempre en la misma dirección, nos hacen percibir una ilumi-
nación de la escena desde una misma dirección. Que éstos gradientes sean más o menos
intensos, nos sugieren que la pendiente en ese punto es más grande o más pequeña. Por
eso, cuando se tiene un modelo digital del terreno, una manera de representarlo es toman-
do una dirección de iluminación (de sur a norte, por ejemplo) y calcular las derivadas de
las alturas según esa dirección, esto es, pasar un filtro pasa-altos. Allí donde la pendien-
te sea creciente hacia el norte (la dirección opuesta a la del “sol”), los valores de estas
derivadas serán positivos y grandes, dando idea de una iluminación directa del sol, que
los hace más brillantes. Allí donde sea decreciente, los valores serán negativos, lo que
al representarlos los mostrará oscuros, como si quedasen ensombrecidos. A las zonas
llanas se les asignará una pendiente cero, que se verá como un tono de gris intermedio.
Dado que esto es lo que se hace para simular la iluminación solar, para exagerar las
pendientes en una escena natural se pueden aplicar también filtros pasa-altos, sumándole
a la imagen sus gradiantes (figura 6.5).
240
T RANSFORMACIONES DE LAS IMÁGENES
aritmética de bandas Proceso que construye una nueva imagen (una “nueva banda”) en
la que el nivel digital de cada píxel se calcula como una operación aritmética entre
los niveles de los píxeles de iguales coordenadas en otras imágenes (o “bandas”
de imágenes): la operación requiere que tanto las imágenes de partida como la
imagen resultante tengan el mismo número de filas y de columnas.
cociente de bandas (band ratio) Operación aritmética que genera una nueva “banda”
calculando el cociente, píxel a píxel, entre otras dos bandas (de una imagen de
un sensor). El resultado es un índice que caracteriza la “forma” del espectro entre
esas bandas, y no depende de la señal total que llega en ellas.
filtro Operación que, a partir de una imagen, genera una nueva en la que cada píxel
tiene un valor calculado a partir de los que la imagen original tenía en los píxeles
de su alrededor. Cuando el cálculo se reduce a una suma ponderada de los valores
de los píxeles del vecindario (con coeficientes positivos o negativos), el filtro se
llama lineal.
filtro de media Filtro lineal que asigna como valor de cada píxel en la imagen filtrada
el resultado de promediar los valores de los píxeles vecinos en la imagen original.
El tamaño del vecindario que se toma para calcular este promedio se llama tamaño
o radio del filtro.
filtro de mediana Filtro no lineal que asigna como valor de cada píxel en la imagen
filtrada la mediana de los valores de los píxeles en su vecindario en la imagen ori-
ginal. Este filtro estadístico es útil para eliminar el ruido puntual (como el speckle),
porque sustituye los valores muy alejados por valores de sus vecinos.
filtro detector de bordes Filtro no lineal que detecta los cambios de brillos alrededor
de un píxel dado sin tener en cuenta la dirección en que esto se produce. Una
forma de construir un detector de bordes es sumando valores absolutos de filtros
de gradientes.
241
C UESTIONES DE TELEDETECCIÓN
filtro gaussiano Filtro lineal que asigna al píxel de la imagen filtrada la suma ponderada
los valores de sus vecinos con pesos gaussianos (positivos y mayores cuanto más
cerca del centro del vecindario).
índice espectrométrico Expresión matemática (sumas, diferencias, cocientes, etc.) en-
tre los valores (habitualmente se trabaja con reflectividades) de dos o más bandas
del espectro electromagnético que proporciona una característica distintiva de éste
relacionada, por ejemplo, con la presencia de una banda de absorción debida a un
pigmento.
interpolación Operación que permite calcular los valores de una variable conocida en
cierto número de puntos en los puntos intermedios a ellos. En el procesamiento de
imágenes la interpolación se refiere a los métodos para hacer este cálculo cuando
se desplaza, rota o deforma geométricamente la malla en la que se encuentran los
píxeles y los valores en éstos deben calcularse en una nueva malla rectangular de
la imagen interpolada.
interpolación lineal Método de interpolación que estima el valor en un punto supo-
niendo que se halla en una recta o un plano que pasa por los puntos conocidos más
próximos. Este método es bueno siempre que la densidad de puntos conocidos
sea grande; cuando no es así, son necesarios otros métodos que requieren asumir
hipótesis más complejas.
interpolación por vecino más próximo Método de interpolación que estima el valor
en un punto como igual al valor en el punto conocido más próximo. Este método
tiene la ventaja de no introducir valores nuevos, ya que toma uno de los ya exis-
tentes. En teledetección este método es el preferido para no mezclar los valores
de las bandas en píxeles próximos, de manera que en la imagen interpolada los
valores en ellas sigan siendo los medidos realmente por el sensor.
máscara binaria Imagen cuyos píxeles toman valores binarios (0 o 1, falso o verdade-
ro) calculados a partir de condiciones lógicas establecidas sobre los valores de los
píxeles de otras imágenes. Se emplean para seleccionar regiones en función de sus
valores, habitualmente, son el resultado de un proceso de clasificación.
NDVI (normalized diference vegetation index) Índice espectrométrico que caracteriza
el salto del infrarrojo cercano en el espectro de la vegetación. Se calcula como la
diferencia entre la reflectividad máxima en en NIR y la reflectividad mínima en el
rojo, dividida por la suma de ambas.
NDWI (normalized difference water index) Índice espectrométrico que caracteriza la
absorción debida al agua contenida en las hojas de la vegetación. Se calcula como
242
T RANSFORMACIONES DE LAS IMÁGENES
NDDI (normalized difference drought index) Índice de evaluación del grado sequía que
relaciona la diferencia relativa entre el vigor vegetal (caracterizado por el NDV I)
y el contenido de agua (caracterizado por el NDW I).
sunglint Reflejo especular de la luz del sol en la superficie del agua. Su contribución
a la reflectividad del agua observada depende de la posición relativa del sol y del
sensor (vistos desde la superficie del agua) y del oleaje que, a su vez, depende del
viento.
transformación global Transformación de los valores en una imagen que aplica la mis-
ma operación matemática a todos píxeles.
transformación local Transformación de los valores en una imagen que aplica una ope-
ración matemática a cada píxel dependiente de su entorno.
6.5. BIBLIOGRAFÍA
B.C. Gao (1996). “NDWI—A normalized difference water index for remote sen-
sing of vegetation liquid water from space”. Remote Sensing of Environment,
58(3): 257-266.
243
C UESTIONES DE TELEDETECCIÓN
Y. Gu, J.F. Brown, J.P. Verdin, B. Wardlow (2007). “A five-year analysis of MO-
DIS NDVI and NDWI for grassland drought assessment over the central Great
Plains of the United States”. Geophysics Research Letters, 34(6): L06407.
J.R. Jensen (2005). “Image Enhancement”. En: Introductory Digital Image Pro-
cessing: A Remote Sensing Perspective, Capítulo 7. Prentice Hall, 2005.
S. Kay, J.D. Hedley, S. Lavender (2009). “Sun Glint Correction of High and Low
Spatial Resolution Images of Aquatic Scenes: a Review of Methods for Visible
and Near-Infrared Wavelengths”. Remote Sensing, 1:697-730.
244
T RANSFORMACIONES DE LAS IMÁGENES
245
Tema 7
GUION-ESQUEMA
Clasificación automática
C UESTIONES DE TELEDETECCIÓN
1 banda
n bandas
Histograma
30000
Y
25000
X
20000
15000
10000
X
5000 Diagrama PC1 PC2
30 40 50 60 de dispersión PCA
Modos Clases
Terreno Clase1 Clase2 Clase3 Clase4
Agua 4 10 0 3
Vegetación 17 237 4 18
Suelo desnudo 1 9 2 4
Clasificación
binaria
Clasificación
supervisada
CLASES
MAPAS TEMÁTICOS
Observaciones
sobre el terreno
Clasificación
no supervisada
248
E STADÍSTICA DE LAS IMÁGENES
7.1. INTRODUCCIÓN
7.2. CUESTIONES
249
C UESTIONES DE TELEDETECCIÓN
2. El histograma de una banda NIR de un sensor, en una escena de una costa ur-
banizada, muestra tres “montículos” (acumulaciones de píxeles entre dos valores
de ND). Por otro lado, la banda verde muestra dos “montículos”. ¿Cuántos tipos
diferentes de cubiertas mayoritarias sugiere esto que se hay en la escena?
a) 2
b) 3
c) 4
d) 6
3. Se sabe que dos bandas de radiancia de un sensor hiperespectral están muy corre-
lacionadas porque. . .
4. En una escena, las bandas NIR y SWIR de radiancia se ven muy correlacionadas.
¿Qué se podría hacer para visualizar sólo las diferencias entre ambas?
a) restarlas
b) restarle al logaritmo de una el logaritmo de la otra
c) restarle a una su regresión lineal respecto a la otra
d) restarle al histograma de una el histograma de la otra
a) 2
b) 3
c) 4
d) 5
250
E STADÍSTICA DE LAS IMÁGENES
6. Para generar un mapa temático de usos del suelo (como el CORINE, COoRdina-
tion of INformation on the Environment) se puede llevar a cabo una clasificación
supervisada de una imagen multiespectral (como Landsat o SPOT). Esta clasifica-
ción sigue estos pasos:
a) Canberra
b) Hamming
c) Mahalanobis
d) Manhattan
251
C UESTIONES DE TELEDETECCIÓN
252
E STADÍSTICA DE LAS IMÁGENES
253
C UESTIONES DE TELEDETECCIÓN
Respuesta: (b) Por las características de estas bandas, y cómo suele ser la reflectividad
de las cubiertas más comunes en ellas, posiblemente haya 3: una de ellas corres-
pondiente a los ND más bajos en el NIR (agua) y otras dos correspondientes a dos
tipos de cubierta (vegetación y suelo urbano o desnudo, por ejemplo) en la zona
de tierra.
254
E STADÍSTICA DE LAS IMÁGENES
20000
Histograma estirado
15000
10000
20000
Histograma original
5000
15000
#pixeles
0
10000 50 100 150 200 250
20000
Histograma ecualizado
5000
15000
0
50 100 150 200 250
10000
ND
5000
0
50 100 150 200 250
ND
Figura 7.1. Histograma de una banda térmica de Landsat-7: original, estirado y ecualizado.
En muchos casos, en una banda dada se distinguirá claramente una cubierta por-
que los valores de sus píxeles estarán concentrados en un rango del histograma, aunque
no se observe una acumulación apreciable de los píxeles en éste (piénsese en cubiertas
minoritarias, que quedan “ocultas” por los píxeles más heterogéneos de las cubiertas
mayoritarias). En ese caso, la determinación del intervalo se puede llevar a cabo “por
tanteo”, es decir, seleccionando el mejor intervalo de valores de la banda que permita
identificar los píxeles de la cubierta que se quiere seleccionar. Otra forma es definir una
máscara sobre la imagen, dentro de la cual esta cubierta no sea minoritaria, y determinar
en el histograma de los píxeles seleccionados por esa máscara la extensión del “mon-
tículo” que define la cubierta. Seleccionar una cubierta por intervalos en el histograma
de una banda, es otra forma de clasificación binaria: cada píxel pertenecerá a la clase de
esa cubierta o a su complementaria (la clase de todas las demás cubiertas).
En un producto multiespectral, debido al diseño de las bandas del sensor, cada ban-
da suele poder distinguir una serie de cubiertas particulares, que o bien reflejan, o bien
absorben la radiación electromagnética (la “luz”) en un cierto rango de longitudes de
onda. El procedimiento de clasificación binaria anterior se puede repetir en varias ban-
das, incluso identificando una misma cubierta en varias de ellas. Los resultados de estas
255
C UESTIONES DE TELEDETECCIÓN
8000
Histograma OLI−4
7000 Agua
6000
5000
Vegetación
4000
3000
0
6000 7000 8000 9000 10000 11000
ND
Figura 7.2. Escena adquirida con el sensor OLI del Landsat 8 y el histograma de su banda 4 clasificado en
tres clases: agua (el máximo con niveles digitales más bajos), vegetación (el máximo siguiente) y suelo (la
cola de niveles digitales más altos). Sobre la escena los píxeles se han representado en colores diferentes,
de acuerdo con la clase a la que pertenecen.
256
E STADÍSTICA DE LAS IMÁGENES
determinar sus intervalos de valores típicos en cada banda. En todos estos casos, no se
podrá llevar a cabo una clasificación supervisada como la del árbol binario.
Respuesta: (c) Cuando se habla de correlación entre bandas, se está hablando de cómo
varían los valores de una banda cuando varían los de la otra al pasar de un píxel a
otro de la imagen. Para estudiarlo, se representan en un diagrama XY los valores
de una banda (en el eje X) y de la otra (en el eje Y) para cada píxel; así se
confecciona un diagrama de dispersión (scatter plot) que indica si los cambios
en una banda son dependientes (están correlacionadas y, por lo tanto, se observa
una “direccionalidad” en la nube de puntos) o independientes de los de la otra
en la escena (y, entonces, la nube de puntos no tiene una dirección preferente de
agrupamiento).
Que los histogramas de dos bandas sean iguales o parecidos (por ejemplo, uno despla-
zado o estirado respecto al de la otra) no siempre significa que exista una relación entre
ellas; aunque al revés sí sucede: si dos bandas están correlacionadas, sus histogramas
serán parecidos. Esto se puede observar en las imágenes de bandas próximas en un pro-
ducto de un sensor hiperespectral: el histograma apenas varía de una a su vecina.
La correlación entre dos bandas se caracteriza por el coeficiente de correlación r2
(de Pearson). La idea tras este coeficiente es que, si las dos bandas fuesen idénticas
o los valores de una de ellas fuesen proporcionales a los de la otra (es decir, que el
sensor estuviese midiendo en la misma banda, o una muy próxima, pero con diferente
ganancia), el valor del coeficiente sería 1; la correlación sería perfecta. Por otro lado,
si una banda está mostrando una información totalmente diferente de la de la otra, ese
coeficiente valdría cero. Con carácter general, el coeficiente r2 se halla entre estos dos
límites ideales. Nunca dos bandas muy correlacionadas van a tener una r2 = 1 (salvo
que sean la misma banda), ni dos bandas independientes van a dar un r2 = 0: esto es
debido a que, regiones parecidas de una imagen (por ejemplo, por su orografía) van a
tener valores parecidos en una banda, y lo mismo va a suceder con la otra banda en
las mismas regiones, por lo que siempre habrá “indicios” de una relación entre ambas
bandas.
Matemáticamente, r2 mide la variabilidad que explica la hipótesis de dependencia
entre dos bandas B1 y B2 , relativa a la variabilidad observada en ellas (cuando la explica
257
C UESTIONES DE TELEDETECCIÓN
Figura 7.3. Diagramas de dispersión entre bandas de una imagen SPOT en falso color: HRV-1 (R), HRV-2
(G) y HRV-3 (B).
toda, r2 = 1; si no explica ninguna, porque no hay ninguna relación entre bandas, r2 = 0).
La variabilidad observada de la banda B2 se caracteriza numéricamente por la varianza
de sus valores en todos los píxeles de la imagen, V [B2 ]. La variabilidad NO explicada,
se mide por la varianza de la diferencia entre la banda B2 y el valor que se esperaría de
ella si se pudiese expresar a partir de la otra banda B1 ; este valor se supone de la forma
B̂2 = aB1 + b (los valores de a y b se calculan por mínimos cuadrados). Por lo tanto,
r2 = 1 −V [B2 − B̂2 ]/V [B2 ] = 1 −V [B1 − B̂1 ]/V [B1 ].
Respuesta: (c) Aunque restar las dos bandas (o funciones de éstas) es una opción ten-
tadora, por lo sencilla, la mejor opción es calcular la mejor relación lineal entre
las dos bandas y restar los valores de cualquiera de estas bandas a su estimación
por la otra.
258
E STADÍSTICA DE LAS IMÁGENES
259
C UESTIONES DE TELEDETECCIÓN
elos
de su
Línea
Figura 7.4. Diagrama de dispersión de las bandas 4 y 5 del OLI del Landsat-8 en una zona de vegetación.
Se indica la línea de suelo estimada.
Otro caso en el que se emplea este método es cuando en una imagen de agua aparece
sunglint, es decir destellos del sol en la superficie de las ondas del agua (que se observan
en función del ángulo relativo entre el sol y el sensor, y también en función de la inten-
sidad del viento que causa la mayor o menor amplitid de esas ondas). El reflejo del sol
es prácticamente independiente de la longitud de onda; desde luego, mucho menos que
la respuesta de la columna de agua o del fondo a través de ésta (que varía entre la gran
transparencia del agua en el azul hasta la práctica absorción del NIR). Entonces, dado
que la mayor correlación entre las bandas se dará debida a este efecto, se les resta a las
bandas del visible la recta de regresión obtenida comparándolas con la banda NIR. En
caso de que la señal restante en las bandas de interés después de esta corrección sea re-
presentativa (a veces, en casos de sunglint muy fuerte, o de señales procedentes del agua
muy débiles), este procedimiento permitirá eliminar el efecto del sunglint. Las bandas
del visible, sobre todo las del azul y el verde, son las de mayor interés para el estudio
del agua, porque en ellas tiene mayor transparencia; la banda NIR, en la que la mayor
parte de la luz reflejada procederá sólo del sunglint, no suele presentar ese interés: el
agua absorbe prácticamente toda la radiación que le llega en esa banda (es una banda de
“agua negra”), excepto en casos de muchos sólidos en suspensión.
260
E STADÍSTICA DE LAS IMÁGENES
Respuesta: (c) Las componentes principales que se obtienen son siempre en el mismo
número que las bandas de partida: en este caso, 4. Esto es así porque sólo son otra
forma de organizar la misma información que poseen las bandas de la imagen de
partida. La primera componente corresponde a la distribución de niveles de gris
que varía simultáneamente en los píxeles de todas las bandas, algo que destaca las
formas que son comunes a todas las bandas. La segunda componente corresponde
a los niveles de gris que, variando simultáneamente en la mayoría de las bandas,
lo hacen independientemente de los de la primera componente, es decir, las formas
comunes entre bandas pero no tan extensas. Así, sucesivamente para todas las
componentes principales. La última de ella, normalmente, sólo contiene el ruido
que varía de forma independiente de cualquier otra forma de la imagen.
Para analizar una imagen multi- o hiperespectral, una técnica estadística muy utilizada
es el análisis de componentes principales (principal component analysis, PCA). Si su-
ponemos que cada píxel de la imagen tiene en un espacio imaginario (o abstracto) unas
coordenadas dadas por los valores que tiene de radiancia en cada una de las bandas de
la imagen, buscar las componentes principales consiste en buscar los ejes de ese espacio
a lo largo de los cuales están alineados los datos. La primera componente será el eje a
lo largo del cual se halla la mayor dispersión de los datos, es decir, la dirección de ese
espacio, a lo largo de la cual se observarían mayores contrastes: para calcularla, se rotan
los datos en ese espacio hasta colocar esta dirección paralela al primer eje de coordena-
das. La segunda componente será el siguiente eje a lo largo del cual se observe el mayor
contraste de valores, que será perpendicular al primer eje: para calcularlo, se rotan los
datos manteniendo fija la dirección del primer eje, hasta que la nueva dirección de má-
ximo contraste esté alineada con el segundo eje de coordenadas. Así se procede con las
demás direcciones de mayor contraste, cada una perpendicular a todas las anteriores. De
ahí que, al final, se hayan alineado los datos respecto a tantos ejes como bandas había
inicialmente: tantos como dimensiones tiene el espacio abstracto de las bandas.
En la práctica, este análisis encuentra los patrones (espaciales) comunes al mayor
número de las bandas, ordenados de mayor a menor importancia: la importancia se mide
por la variabilidad que presentan en la escena y por el grado de coincidencia ente las
bandas. El patrón más común se obtiene haciendo una suma ponderada de todas las
bandas de forma que la varianza de esa suma sea máxima relativa a las varianzas de las
261
C UESTIONES DE TELEDETECCIÓN
Figura 7.5. Imagen RGB (izquierda) de una escena Landsat 7 del cono del volcán Etna (durante la
erupción del 29 de julio de 2001) y las tres primeras componentes principales obtenidas a partir de las
bandas 1, 2, 3 y 4 del ETM+ por separado (centro) y combinadas en un RGB 213.
bandas; ello resalta los mayores contrastes visibles en todas las bandas (o en la mayoría
de ellas). La primera componente principal contendrá esa información. Las siguientes
componentes, mostrarán detalles de las bandas que se apartan del comportamiento global
mostrado en las anteriores: se dan en zonas en las que la primera componente principal
toma valores altos, por lo que destacan detalles no tan comunes a la totalidad de las
bandas, si bien todavía muestran contrastes importantes (menos, cuanto mayor sea el
orden de la componente principal).
El análisis de componentes principales generaliza, en cierto modo, al método de
restar a una banda su valor esperado si fuese función de otra banda. La primera com-
ponente (PC1) jugaría el papel de esa banda que mejor explica a todas las demás. La
segunda componente principal (PC2) sería aquello con mayor variabilidad en la escena
que no explica la PC1. Así, sucesivamente hasta completar toda la variabilidad de las
bandas de la imagen original.
262
E STADÍSTICA DE LAS IMÁGENES
se conoce el tipo de cubierta que hay, estudiando los valores de los píxeles de la
imagen en esas regiones. Esta determinación de las características estadísticas en
las diferentes regiones se llama entrenamiento del clasificador. Conocidas estas
distribuciones estadísticas, se asignan en el resto de los píxeles en la imagen a las
diferentes clases, cada píxel a aquélla a la que es más probable que pertenezca.
Un mapa temático es una parcelación de una región geográfica en zonas con diferentes
características, normalmente representadas en diferentes colores. Un ejemplo muy vi-
sual son los mapas de usos del suelo (también los catastrales) o los mapas geológicos
obtenidos tradicionalmente mediante observaciones o prospecciones sobre el terreno y,
posteriormente, estableciendo límites entre zonas con diferencias observadas. La telede-
tección proporciona una forma rápida de obtener estos límites a partir de las propiedades
de la imagen remota. Sin embargo, para ello, hay que establecer antes una relación entre
los valores de la imagen y esas propiedades.
Las relaciones entre la información en un píxel de una imagen y el tipo de cubierta
que se observa en él, pueden basarse en la respuesta radiométrica de esa cubierta (por
ejemplo, el NDVI para identificar la vegetación, o los índices de composición mineral,
basados en las bandas de absorción de ciertos compuestos), en conocimiento sobre el
terreno (por ejemplo, cuando se sabe que cierto píxel pertenece a una cubierta vegetal
en un cultivo de regadío, y otro, en un cultivo de vid), o simplemente en las diferentes
respuestas espectrales observadas en los distintos píxeles de una escena. Cada tipo de
relación puede ser útil en un momento. Por ejemplo, la relación basada en modelos
físicos puede servir para cuantificar una magnitud (la humedad, el estado fenológico o
la cantidad de clorofila, en el caso del NDVI) una vez se conoce el tipo de cubierta de
un píxel o grupo de píxeles. Sin embargo, un reconocimiento de ese tipo requiere un
tratamiento estadístico, debido a la variabilidad que siempre existe en escenas naturales.
Para ello, si se conocen ciertas zonas con un tipo de cubierta, se pueden tomar como
muestras cuyo comportamiento luego se generaliza a la totalidad de la “población de
píxeles” en la escena. En esto consiste la clasificación supervisada: en seleccionar zonas
conocidas, caracterizarlas estadísticamente y buscar a cuál de ellas se parece más cada
píxel de la imagen. Cuando esto se hace sin ese conocimiento previo (es decir, el propio
procedimiento estadístico identifica los grupos diferentes en la imagen), se habla de
clasificación no supervisada.
Una clasificación supervisada requiere tres pasos fundamentales. Primero, la defini-
ción de las clases de interés; éstas pueden decidirse para el estudio particular, o bien, ser
tomadas de entre las clasificaciones habituales en estudios de un área dada (por ejemplo,
de tipos de suelos, de tipos de vegetación, de tipos de aguas, etc.). Después, se deben
263
C UESTIONES DE TELEDETECCIÓN
seleccionar los datos de campo (u otro conocimiento previo) y las imágenes de telede-
tección más adecuadas; unos y otros vendrán determinados por el problema a resolver.
Con esto, se seleccionan las zonas de interés (ROI, region of interest) o áreas de entrena-
miento (training sites). Por último, se debe seleccionar el modelo estadístico que mejor
caracterice los datos en las zonas conocidas de la imagen.
Con esta información, se entrena un algoritmo de clasificación, es decir, se determi-
nan las distribuciones que mejor caracterizan la cubierta presente en cada ROI, y que
mejor diferencian ésta del resto. Luego, se asigna a cada píxel de la imagen, su clase:
aquélla a la que es más probable que pertenezca, dadas sus características espectrales.
El algoritmo de clasificación más simple quizás sea el de mínima distancia. Se asu-
me que la distribución de los valores en cada una de las ROI es la distribución empírica
de ésta, es decir, que todos los valores posibles de las bandas en esa clase son los en-
contrados en esas regiones de entrenamiento. Los píxeles de la imagen se clasifican
buscando que los valores en sus bandas coincidan con los de algún píxel de una región
de entrenamiento; entonces, se les asigna la clase de éste. Si no coinciden con ninguno,
simplemente se busca la clase de aquella ROI que contenga el píxel cuyas bandas estén
más próximas a las del píxel a clasificar.
Otro algoritmo de clasificación muy utilizado es el de máxima verosimilitud. Este
algoritmo determina la distribución gaussiana de los valores de las bandas en las ROI
de cada cubierta: estas distribuciones gaussianas se definen dando los valores medios
de cada banda y las varianzas y covarianzas entre estas bandas; las varianzas indican los
rangos de variación en cada banda, y las covarianzas cómo de correlacionadas están unas
con otras. Luego se calcula la probabilidad que darían estas distribuciones gaussianas
para cada píxel (teniendo en cuenta los valores de sus bandas): aquella que dé mayor
probabilidad, será la que se asigne al píxel. En cierto modo, las distribuciones gaussianas
definen una distancia del píxel a los píxeles de cada ROI, una distancia que se determina
y depende del entrenamiento del clasificador.
Respuesta: (b) Para identificar si dos píxeles se parecen espectralmente, es decir, para
decidir si pueden corresponder a la misma cubierta o no, se definen distancias
entre ellos. La más conocida es la euclídea, pero existen otras como la de máxima
264
E STADÍSTICA DE LAS IMÁGENES
265
C UESTIONES DE TELEDETECCIÓN
Respuesta: (c) Un método de clasificación no supervisado (es decir, que no usa regio-
nes de entrenamiento ni otro conocimiento a priori sobre las cubiertas de una
escena que se quieren clasificar) se basa en dividir las respuestas espectrales de
los píxeles de la imagen en grupos separados dentro del espacio N-dimensional
en el que se representan los valores de las N bandas de una imagen. Esta división
se lleva a cabo utilizando criterios estadísticos que separan las regiones donde se
acumulan los puntos que representan a los píxeles en función de la propiedades
espectrales, es decir, de los valores que toman las diferentes bandas en el mismo
píxel.
Los píxeles de una imagen se pueden representar también como puntos de un espacio
de múltiples dimensiones, usando como coordenadas los valores de reflectividad en las
bandas en cada píxel. El caso más simple es el de una única banda: los píxeles de la
imagen se transforman en puntos sobre una línea (sobre la que se mide el valor de la
banda), que se hallarán más o menos densamente ubicados sobre ella; allí donde estén
más densos, será donde su histograma muestre los montículos que indican la mayor
acumulación de valores de la banda. El siguiente caso, es el diagrama de dispersión
entre dos bandas: cada banda es una coordenada (X e Y) y, allí donde se acumulan los
píxeles, nos indican un tipo de cubierta para la que los valores típicos de esas dos bandas
se hallan alrededor del punto de acumulación. Esto se puede generalizar a tres bandas
o, de un modo abstracto, a un espacio N-dimensional, con los valores de las N bandas
espectrales como coordenadas de cada píxel.
266
E STADÍSTICA DE LAS IMÁGENES
1.0
0.8
0.6
G
0.35
0.30
Clase 6
0.25
0.4
Clase 1
Clase 2
0.20
Clase 5
Clase 4
0.15
Clase 3
0.10
0.2
0.05
Figura 7.6. Clasificación por un método aglomerativo de una imagen en visible. El método agrupa los
píxeles por proximidad construyendo un dendrograma (izquierda). Luego se escogen los k = 6 grupos que
se ve que clasifican la imagen con coherencia espacial (que el método, por sí, no tiene en cuenta). Cada
grupo se puede caracterizar por uno de sus representantes (). La paleta de color se ha escogido para que
su interpretación visual sea más sencilla en la imagen clasificada.
267
C UESTIONES DE TELEDETECCIÓN
1.0
0.8
0.6
G
0.4
0.2
Figura 7.7. Clasificación por un método k-Means de una imagen en visible. El método forma “clusters” de
píxeles alrededor de los k = 6 representantes (). La asignación de clases es arbitraria (el método es no
supervisado): se han ordenado los colores para que su interpretación visual en la imagen “temática” sea
más sencilla.
tantos como clases se quieran determinar. Estos puntos son los representantes de esas
clases. Luego se forman grupos formados por los píxeles más próximos a cada uno de
esos puntos representantes. A partir de estos grupos, se vuelven a calcular representan-
tes: por ejemplo, escogiendo dentro de cada grupo aquél píxel que se halla más próximo
a todos los demás; o calculando un punto que sea el valor medio de todos los demás
puntos (el centroide del grupo). Hecho esto, se repite el proceso: se asignan los píxe-
les al grupo cuyo representante esté más próximo. Estos representantes, al final de la
clasificación, se llaman representantes de la clase o “endmembers” de la clasificación;
son píxeles prototipo (que puede que no existan en la imagen) característicos de la cu-
bierta delimitada sin supervisión. El método de clasificación descrito se llama k-means,
haciendo referencia a la forma de calcular los centroides de los k aglomerados como la
media de los puntos pertenecientes a ellos (figura 7.7).
268
E STADÍSTICA DE LAS IMÁGENES
espacial y espectralmente próximos. Esto soluciona uno de los problemas de las clasi-
ficaciones basadas solamente en los valores de las bandas de los píxeles: la coherencia
espacial. En muchos casos, algunos píxeles son clasificados en una clase, mientras que
se encuentran rodeados por píxeles de otra (esto es una falta de coherencia espacial que,
en la mayoría de los casos, no se corresponde con la realidad).
Respuesta: (b) La matriz de confusión es una tabla en la que se contabilizan los píxe-
les de cada clase (reconocida en la imagen) que han sido clasificados dentro de
su propia clase o en otra diferente. La matriz tiene tantas filas y columnas como
clases se hayan definido en la escena y las celdas de esa matriz contienen el nú-
mero de píxeles que, siendo de una clase, dada por la fila (según el conocimiento
a priori del la zona de estudio o según comprobaciones hechas a posteriori), han
sido clasificados como otra clase, dada por la columna. La clasificación perfecta
sería una matriz en la que el 100 % de los píxeles clasificados estuviesen contabi-
lizados en las celdas de la diagonal de esa matriz; en ese caso, todos los píxeles
estarían correctamente clasificados.
Como con toda medida indirecta, es necesario estudiar el error cometido en una clasifi-
cación. Este error, referido a una clase, se suele dividir en dos: errores tipo I (o errores
por omisión) y errores tipo II (o errores por comisión). Los errores tipo I a la hora de
clasificar una cubierta son aquellos en los que, siendo la cubierta de una clase, la asig-
namos a otra. Por ejemplo, si un suelo urbano en una clasificación de tipos de suelo, es
asignado a una clase de suelo forestal (por ejemplo, porque contiene árboles, como un
parque). Los errores tipo II son aquellos en los que se asigna esa clase a algo que no
lo es. Por ejemplo, si se clasifica como suelo urbano una mina a cielo abierto (porque
espectralmente su suelo desnudo se parece al hormigón de una ciudad). Evidentemente,
los errores de un tipo para una cubierta son errores del otro para alguna otra cubierta.
269
C UESTIONES DE TELEDETECCIÓN
En primer lugar hay que decir que una clasificación con un valor de “kappa” menor
del 50 % puede parecer mala, pero es mejor que ninguna clasificación. Algunos autores
han propuesto que una buena clasificación requiere no sólo una precisión total superior
al 85 %, sino una precisión en cada clase (tanto desde el punto de vista del productor,
270
E STADÍSTICA DE LAS IMÁGENES
Respuesta: (c) Cuando en un mismo píxel de una imagen coinciden distintos tipos de
cubiertas (por ejemplo, suelo y vegetación de diferentes clases) la luz reflejada
procederá en un porcentaje de cada una; por ello, el espectro de reflectividad de-
terminado por medio de las distintas bandas del píxel será una media ponderada
de los espectros de cada una de las “cubiertas puras” que hay en él. El spectral
unmixing lo que busca es determinar estos coeficientes de ponderación o porcen-
tajes de abundancia de cada una de las “cubiertas puras” que mejor explican el
espectro en el píxel.
271
C UESTIONES DE TELEDETECCIÓN
0.6
G 0.4
0.2
Figura 7.8. Método de spectral unmixing: los tres vértices del triángulo representan los “espectros puros”;
casi todos los demás espectros (caracterizados por dos bandas, en este caso) se encuentran dentro del
triángulo definido por esos tres.
272
E STADÍSTICA DE LAS IMÁGENES
análisis de mezclas espectrales Búsqueda de los “espectros puros” (los valores que
esos espectros tienen en las bandas observadas) tales que los demás espectros
presentes en los píxeles de la imagen se pueden considerar medias ponderadas de
ellos. Los pesos de ponderación en cada píxel se denominan abundancias de los
espectros puros; se entiende que en un píxel existen las cubiertas correspondientes
a los espectros puros mezcladas con las abundancias dadas.
273
C UESTIONES DE TELEDETECCIÓN
correlación lineal Medida estadística del parecido entre el comportamiento de dos va-
riables aleatorias. En una imagen multiespectral dos bandas están correlacionadas
cuando sus valores, representados en un diagrama de dispersión, se alinean según
una recta. Esto indica que cabe esperar que, dado un valor de una de las bandas
en un píxel, se pueden hacer una buena predicción de cuál será en valor de la otra
banda en él.
distancia euclídea Distancia entre dos píxeles calculada como la distancia geométrica
habitual entre dos puntos del espacio cuyas coordenadas vengan dadas por los
valores en las bandas de la imagen en cada píxel.
k-means Método de clasificación que busca los píxeles más representativos de una ima-
gen, agrupando los demás por su proximidad a ellos. Los píxeles representantes o
endmembers se interpretan como los prototipos de una clase espectral de la ima-
gen.
kappa de Cohen Estadístico que mide la precisión de una clasificación automática por
comparación de su resultado con observaciones sobre el terreno (groundtruthing),
descontando los efectos del azar al coincidir la clasificación automática y la clase
274
E STADÍSTICA DE LAS IMÁGENES
real (por ejemplo, en caso de que exista una clase muy mayoritaria: por azar siem-
pre se encontraría, aunque la clasificación de clases minoritarias mostrase muchas
discrepancias). La precisión es simplemente la fracción de coincidencias, y siem-
pre es mayor de la kappa.
matriz de confusión Matriz de doble entrada construida para la validación de una clasi-
ficación automática con observaciones sobre el terreno (groundtruthing). En cada
celda de la matriz se contabilizan las coincidencias observadas entre la clasifica-
ción sobre el terreno (indicada por las filas) y la clasificación automática (indicada
por las columnas).
píxel de mezcla Píxel que, sobre el terreno, contiene dos tipos de cubierta. La mezcla
de cubiertas produce la mezcla de los espectros, se supone que en la misma pro-
porción; ésta es la base de los métodos de análisis de muestras espectrales.
7.5. BIBLIOGRAFÍA
275
C UESTIONES DE TELEDETECCIÓN
276
E STADÍSTICA DE LAS IMÁGENES
277
Tema 8
GUION-ESQUEMA
El espectro electromagnético
La absorción atmosférica
Correcciones atmosféricas
280
Radiancia
en el sensor
Radiancia
C UESTIONES DE TELEDETECCIÓN
difusa
Correc. atmosférica
Modelo
Nubes
Reflectividad
TOA Aerosoles
Nubes
Mie
Nitrógeno
Rayleigh
Aerosoles
Radiancia Radiancia
Nitrógeno
superficial lambertiana
Reflector
perfecto
Irradiancia
solar
Atmósfera
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
8.1. INTRODUCCIÓN
8.2. CUESTIONES
1. ¿Qué determina que los fotones de una radiación electromagnética (en particular,
la luz) pueda ser detectados por un detector?
a) su longitud de onda
b) la intensidad del emisor
c) el tiempo durante el que iluminan el detector
d) todos ellos
a) intensidad radiante
b) irradiancia
c) radiancia
d) emitancia
281
C UESTIONES DE TELEDETECCIÓN
3. ¿Por qué se calibra la señal que capta un sensor remoto en términos de radiancia,
cuando lo que se mide es energía?
a) el ancho de la banda
b) la resolución radiométrica
c) las unidades de la longitud de onda
d) todas las anteriores
282
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
283
C UESTIONES DE TELEDETECCIÓN
284
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
Respuesta: (d) Para que los fotones de una radiación electromagnética puedan ser de-
tectados por un detector, deben tener suficiente energía para producir transiciones
energéticas en ese detector; si no la tienen, el detector no los podrá detectar. La
energía de los fotones depende de la longitud de onda de la radiación electromag-
nética que transportan. Luego, tienen que llegar el suficiente número de fotones
para que el detector los pueda contar: el número de fotones viene dado por el flujo
radiante que llega al detector y por el tiempo.
Un detector mide la cantidad de energía que llega a él durante un tiempo dado, el tiempo
de integración. Lo que llega al detector es una onda electromagnética. Una onda electro-
magnética se forma por la excitación de un campo eléctrico que, al variar en el tiempo,
produce un campo magnético que, al variar en el tiempo, genera un campo eléctrico, etc.
De este modo, una perturbación inicial de uno de los campos se puede propagar a través
del vacío, y lo hace a la velocidad de la luz, c = 3 × 108 m/s. Por ejemplo, la antena de
un sensor radar genera esta clase de perturbación: la corriente eléctrica en ella genera un
campo magnético oscilante, que origina una onda electromagnética, el pulso emitido.
La frecuencia de las oscilaciones que generan los campos, indican la frecuencia de
la onda electromagnética, f . Esta frecuencia puede ser de Gigahertzs (109 ciclos por se-
gundo), en el caso de las ondas de radio o las microondas; de Terahertzs (1012 ciclos por
segundo) en el caso del infrarrojo térmico, etc. El espacio que recorre la onda electro-
magnética en cada ciclo es su longitud de onda, λ. La longitud de onda se relaciona con
la frecuencia mediante la relación λ f = c.
Cuando un sistema físico oscila naturalmente a la frecuencia con la que oscila la
onda electromagnética, absorbe su energía. La antena de un radar está sintonizada para
oscilar a la misma frecuencia con la que emite el pulso electromagnético: de ese modo
absorbe la energía del eco de vuelta y adquiere la información de la onda reflejada desde
la superficie. En el caso del espectro visible o térmico, los elementos que resuenan con
la frecuencia de la onda son los electrones que se encuentran en los átomos y moléculas
del material. En el detector del sensor, este material es un semiconductor que está sin-
tonizado (como la antena) para captar la energía de las ondas en sus bandas espectrales
de funcionamiento. Al producirse el intercambio de energía a un nivel microscópico, la
energía se transmite en paquetes llamados fotones o cuantos de luz.
285
C UESTIONES DE TELEDETECCIÓN
velocidad de la luz
tiempo
T 700
λ 700
espacio
Figura 8.1. Relación entre frecuencia, longitud de onda y velocidad de la luz para radiaciones del azul,
verde y rojo.
286
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
Energía
λ= 400 nm
3 eV
λ= 500 nm
2.5 eV
λ= 600 nm
2 eV
e− e− e−
Después, para que el detector detecte, necesita recibir un cierto número fotones, ya que
de ellos sólo detectará unos pocos. Este número de fotones que llegan al detector puede
alcanzarse, o bien, porque la fuente de la que proceden emita un gran número (la inten-
sidad radiante de la fuente) o bien porque los recibe durante mucho tiempo (tiempo de
integración del detector).
Respuesta: (a) Para caracterizar la energía radiante emitida por una fuente al espacio
se utiliza su intensidad radiante, la energía que emite dentro de un elemento de
ángulo sólido. Esta es una magnitud independiente de la distancia a la fuente.
Una fuente luminosa como el Sol o una bombilla emite, cada segundo, una cierta can-
tidad de energía electromagnética distribuida a lo largo del espectro electromagnético:
desde luz ultravioleta y visible, a radiación infrarroja térmica, también microondas y
ondas de radio, etc. Decimos que ese emisor emite una potencia radiante dada, W , la
energía por unidad de tiempo, y que ésta se distribuye en las diferentes bandas espectra-
les.
287
C UESTIONES DE TELEDETECCIÓN
Ángulo sólido
Ω Radiancia
Intensidad radiante Ω’
Flujo radiante
Irradiancia
Según las ondas electromagnéticas se alejan del emisor, la superficie del frente de la
onda aumenta, y esta potencia radiante se reparte sobre él: en cada metro cuadrado de
frente de onda viaja cada vez menor energía. Esta energía que se propaga por unidad de
superficie es la densidad de flujo radiante, J.
Para dar una magnitud que sea independiente de la distancia al emisor, basta consi-
derar cómo se reparte la energía dentro de un sector de una esfera que rodea a la fuente.
Dado que la onda se propagará manteniendo su frente paralelo a esta superficie, la ener-
gía se propagará dentro de un sector, sin salir de él. El tamaño de estos sectores se llama
ángulo sólido, y se mide en estereorradianes (sr). La totalidad de la esfera ocupa 4π es-
tereorradianes. La potencia que se transmite dentro de un sector de un estereorradián se
llama intensidad radiante, I. Un emisor como el Sol, que emite su potencia W igualmente
repartida en todas las direcciones, tendrá una intensidad radiante I = W /(4π).
Cuando la onda llega a una superficie, es decir, cuando esa superficie es iluminada
por la onda, la energía que llega a esa superficie por unidad de tiempo y unidad de área
se llama irradiancia, E. La irradiancia es igual a la densidad de flujo radiante J cuando
la superficie es paralela al frente de onda, pero si está inclinada respecto a él, el flujo de
energía radiante de la onda se reparte sobre más superficie. Es fácil ver que E = J cos θ,
donde θ es el ángulo que forma la superficie del frente de la onda con la superficie
iluminada. Dicho de otro modo, el ángulo que forman los rayos procedentes de la fuente
luminosa (pensemos en el Sol) con la perpendicular a la superficie. Por ello, cuando el
Sol está alto en verano, y sus rayos descienden casi perpendiculares, calientan más el
suelo (cos θ ≃ 1); sin embargo, cuando es invierno y descienden más oblicuamente, la
irradiancia es mucho menor (cos θ 1) y calientan menos.
288
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
Respuesta: (a) Aunque cada detector de un sensor mida la energía que es enfocada
sobre él por el sistema óptico, y dentro de la banda seleccionada por el analizador
(una rejilla de difracción o un filtro de color), esta energía se puede traducir
en radiancia espectral. La radiancia es la cantidad de energía electromagnética
emitida o reflejada por cada metro cuadrado de una cubierta dentro del ángulo
sólido del píxel en el que se recibe su luz. Al tratarse ambas de medidas relativas
(tanto por unidad de área como por unidad de ángulo sólido), la radiancia no
depende de la distancia del sensor a la cubierta.
Igual que la intensidad radiante I se usa para caracterizar cómo emite su potencia radian-
te W un emisor, independientemente de la distancia a él, o que la irradiancia E se use
para caracterizar cómo se reparte esa intensidad radiante sobre una superficie iluminada,
la radiancia L busca combinar ambas cuando la fuente de la luz no se puede tratar como
un punto, sino que es una superficie (figura 8.3).
La radiancia se define como la potencia radiante procedente de una unidad de super-
ficie que se observa procedente de una dirección dentro de una unidad de ángulo sólido
alrededor de dicha dirección. En un sensor, la potencia radiante emitida o reflejada por
unidad de superficie de una cubierta (que se llama la exitancia), es captada en cierta
dirección (la de propagación hacia el sensor) y dentro de un ángulo sólido equivalente
a un píxel. Esto describe la radiancia siguiendo el camino de la propagación de la luz:
desde la unidad de área de la superficie, en un ángulo sólido alrededor de una dirección;
no es necesario tener en cuenta siquiera la presencia del sensor, sólo lo que emite (la
superficie) y las direcciones en las que emite (el ángulo sólido).
Pero también se puede ver desde el sensor, yendo en la dirección inversa: dentro del
ángulo sólido correspondiente a un píxel, está llegando la potencia radiante emitida en
esa dirección desde el área a la que ese píxel corresponde en el terreno: ese área será
mayor, cuanto mayor sea el ángulo sólido del píxel, o cuanto más cerca esté el sensor
de la superficie. Y también será mayor cuanta más potencia radiante esté abandonando
cada metro cuadrado de la cubierta. Esta cantidad de energía radiante, es la que se mide
en un píxel.
En la figura 8.4 se puede ver geométricamente que ambas cantidades son la mis-
ma. Es decir, en cada píxel del sensor se está midiendo la radiancia emitida desde una
cubierta. Esta medida es, de este modo, independiente de la distancia sensor-cubierta.
289
C UESTIONES DE TELEDETECCIÓN
Ángulo sólido
Detector Ω
Igual cantidad
de energía radiante
viajando a lo largo
de ambos volúmenes
"upwelling"
Radiancia
Ángulo sólido
Ω
Píxel Radiancia
Figura 8.4. Equivalencia entre la radiancia captada por un sensor y la reflejada por una cubierta.
Respuesta: (c) La radiancia máxima que emitiría una cubierta perfectamente blanca
(es decir, que reflejase toda la luz que llega a ella en todas las bandas del es-
pectro) se puede relacionar con la irradiancia solar, es decir, con la cantidad de
energía radiante que llega a la superficie por unidad de tiempo y unidad de área.
Para poder relacionar ambas magnitudes, hay que suponer que la superficie di-
funde perfectamente la energía radiante que llega a ella, es decir, que la refleja
uniformemente distribuida en todas las direcciones; este tipo de modelo se llama
difusor Lambertiano y representa bastante bien las cubiertas más comunes.
290
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
291
C UESTIONES DE TELEDETECCIÓN
292
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
() )
# $*
+
!,
+
.
!
Figura 8.5. Irradiancia espectral solar de referencia. Fuente: Wikimedia Commons, adaptada de Anthony
Beck y otros (CC-BY-SA).
Cuando se trata con magnitudes radiométricas relativas, este problema de las unida-
des no aparece. Por ejemplo, la reflectividad espectral es la fracción de energía radiante
que una cubierta refleja dentro de una banda unidad alrededor de una longitud de onda;
que la banda sea más ancha o más estrecha, no influye en el resultado (desde el punto
de vista de las unidades; otra cosa sería desde el punto del ancho de banda real de un
sensor). Análogamente, la absortividad espectral es la fracción de energía radiante que
absorben los pigmentos presentes en una cubierta; de nuevo, al ser una fracción, no le
afecta la unidad en que indiquemos las longitudes de onda. Lo que sí se suele cambiar en
estas magnitudes es respecto a qué se indica la fracción de energía: respecto a la unidad,
o respecto al 100 %. La elección depende de los valores típicos con que nos encontre-
mos. En el caso de la vegetación o de suelos, es frecuente encontrar reflectividades en
“tanto por uno”: la reflectividad de la vegetación en el verde está en torno a 0.1 y la de
un suelo arenoso, en torno a 0.2. Sin embargo, la reflectividad (no especular) del agua
clara (sin materia en suspensión) en el verde se suele dar como 5 %, en lugar de como
0.05 (“por uno”).
Respuesta: (b) La atmósfera, que parece muy transparente a nuestros ojos, contiene
gases que absorben determinadas longitudes de onda. Uno de los principales ab-
sorbentes es el agua, cuyas moléculas absorben los fotones en varias bandas del
293
C UESTIONES DE TELEDETECCIÓN
Suelo
Reflectividad
0.4
0.3
0.2
0.1
Agua
0.0
500 1500 2500
Longitud de onda (nm)
Figura 8.6. Esquema de los espectros de reflexión típicos del agua, la vegetación y el suelo desnudo. Se
muestran, superpuestas, las bandas del ETM+ de Landsat.
294
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
295
C UESTIONES DE TELEDETECCIÓN
Figura 8.7. Bandas de absorción de los principales compuestos atmosféricos. Fuente: Wikimedia
Commons. Imagen creada por Robert A. Rohde / Global Warming Art, CC-BY-SA.
296
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
Figura 8.8. Dispersión atmosférica cerca del horizonte. Puesta de sol sobre el Océano Pacífico vista desde
“Campus Point”, cerca de la Universidad de California en Santa Barbara. Fuente: Wikimedia Commons,
imagen de Dhilung Kirat, CC-BY.
Cuando las partículas son muy grandes comparadas con la longitud de onda, como
sucede con las gotas de agua o los cristales de hielo en las nubes, los fotones simplemen-
te se reflejan en ellas; debido a su forma esférica, pueden ser reflejados en cualesquiera
direcciones (o, también, atravesar las gotas). Esto es también dispersión, pero indepen-
diente de la longitud de onda de los fotones, que es mucho más pequeña que el tamaño
de las gotas, entre 10 − 20 μm. Por esta razón (y porque el espectro visible se encuentra
lejos de las bandas de absorción del agua líquida, que empiezan en el infrarrojo cercano),
vemos las nubes sin ningún color particular: blancas o grises.
Entre estos dos límites de tamaños de dispersores, muy pequeños o muy grandes,
comparados con la longitud de onda de la onda electromagnética, se encuentran los
aerosoles: partículas sólidas en suspensión de tamaño inferior a 1 μm. Los aerosoles dis-
persan la radiación electromagnética con una intensidad intermedia entre los dos casos
anteriores: en lugar de depender con la longitud de onda como (a/λ)4 (límite de Ray-
leigh) o como (a/λ)0 (es decir, independiente de la longitud de onda), lo hacen de una
forma aproximadamente dada por (a/λ)k , donde k varía entre 0 y 4 (y depende del tipo
de aerosoles). Este comportamiento intermedio se llama régimen de Mie, en honor al
físico alemán Gustav Mie que lo describió, y la fórmula, fórmula de Angstrom, en honor
al físico sueco padre de la espectroscopía.
297
C UESTIONES DE TELEDETECCIÓN
En teledetección, para estimar qué parte de la señal recibida en una banda procede
de la dispersión por los aerosoles atmosféricos, se suelen emplear relaciones de este
estilo. El tipo de aerosol, marítimo, costero, continental, etc., determinará el exponente
k. Sabiendo que en una banda el efecto es menor que en otras, y sabiendo cuál es la
proporción entre esos efectos, es posible eliminar los aerosoles de la ecuación o, también,
medirlos.
Respuesta: (d) La absorción atmosférica hace que, en lugar de llegar al sensor una
cantidad de energía, llegue una cantidad menor; a lo largo del camino óptico que
sigue la luz reflejada por la cubierta terrestre, parte de los fotones son absorbidos
por los gases de la atmósfera o dispersados por dichos gases o las partículas en
suspensión (gotas de agua, aerosoles). El factor que relaciona la radiancia que
parte desde la superficie con la radiancia que llega al sensor (situado encima de
la atmósfera, TOA) en cada longitud de onda, es la transmisividad atmosférica;
por lo tanto, para obtener la radiancia en superficie, hay que dividir la medida
por el sensor por la transmisividad atmosférica correspondiente a cada una de
sus bandas.
298
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
1 ′
Ls = R(E0 e−τ + Ed )e−τ + Ld
π
299
C UESTIONES DE TELEDETECCIÓN
Sol
Sensor
Radiación
difusa
Radiancia
reflejada
Figura 8.9. Contribuciones de la energía radiante reflejada en la Tierra y la radiación difusa dispersada por
la atmósfera a la señal captada por un sensor.
300
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
(Seguiremos la exposición de Chavez 1996 para introducir paso a paso las métodos apro-
ximados de corrección atmosférica).
La forma más simple de corrección atmosférica consiste en calcular directamente
la reflectividad aparente desde el tope de la atmósfera, la llamada reflectividad TOA.
Esta reflectividad es sólo el cociente entre la radiancia recibida en el sensor Ls y la que
llegaría en ausencia de atmósfera desde la superficie si ésta fuera perfectamente blanca
(un reflector lambertiano perfecto):
Ls
RT OA = π
E0
Aquí E0 es la irradiancia solar que llega a la superficie, y depende de la distancia angular
del Sol al cenit (del ángulo cenital solar, θ): E0 = Jr cos θ. Jr es la densidad de flujo
radiante procedente del Sol, que se puede suponer constante (aunque varía ligeramente
con el ciclo solar y con la distancia de la Tierra al Sol). Este método tan simple no
sirve, sin embargo, para la mayoría de los estudios. ¿Por qué? Porque la reflectividad
que calcula caracteriza la cubierta vista a través de la atmósfera en ese momento, y la
atmósfera de la Tierra es altamente cambiante.
Una mejor estimación de la reflectividad de una cubierta consiste en descontar la
parte de la radiancia que llega al sensor dispersada “hacia atrás” por la atmósfera: la ra-
diación solar que llega a la atmósfera rebota en los aerosoles y las finas nubes de ésta, y
llega al sensor. Esta radiancia en exceso se puede determinar si hay una parte de la ima-
gen que debería ser “negra”, porque no refleje apenas energía en cierta banda del sensor.
Este “píxel negro” suele ser el agua en el infrarrojo cercano, donde su reflectividad se
sabe que es menor de un 1 %. Así se estima la reflectividad como
Ls − Ld
RDO = π
E0
donde Ld es esa radiancia recibida del “píxel negro”. Sin embargo, en las demás bandas
ese píxel no será negro, por lo general. Entonces, se asume que, si se conoce la radiancia
Ldλ dispersada en una longitud de onda λ, se puede aplicar la ley de Angstrom para hallar
la radiancia dispersada Ldλ′ en otra longitud de onda cercana, λ′ : Ldλ′ = Ldλ (λ′ /λ)b . El
exponente b se llama exponente de Angstrom, y se debe determinar para cada intervalo
de longitudes de onda y para cada composición de los aerosoles de la atmósfera (que son
los principales responsables de la radiación difusa recibida en el píxel “negro”). Otro
elemento que no tiene en cuenta esta corrección es que la atmósfera no es perfectamen-
te transparente, de manera que tanto la irradiancia que llega a la superficie (E0 ) como
la radiancia que llega al sensor (Ls ) han sido previamente atenuadas por la absorción
atmosférica.
301
C UESTIONES DE TELEDETECCIÓN
Para tener en cuenta la atmósfera, se puede suponer que ésta es la misma en toda la
escena. Si esto es así, se puede conocer la transmisividad de esa atmósfera en cada una
de las bandas del sensor conociendo su espesor óptico y teniendo en cuenta el camino
óptico que recorren los rayos que “bajan” a la superficie desde el Sol (“downwelling”) y
los que “suben” desde la superficie hacia el sensor (“upwelling”): este camino óptico de-
pende del ángulo que Sol y satélite forman con el cenit vistos desde el punto observado.
El espesor óptico que atravesará un rayo será menor cuanto más vertical sea, y se hará
mucho mayor si atraviesa la atmósfera oblicuamente. Así, si el espesor óptico mínimo
de esa atmósfera estándar es τ0 , el de un rayo procedente del Sol, será τ = τ0 / cos θ.
Análogamente, si desde el punto de la superficie el sensor se observa a una distancia
angular del cenit θ′ , el espesor óptico que recorrerán los rayos reflejados por esa super-
ficie hasta el sensor será τ′ = τ0 / cos θ. La transmisividad de la atmósfera será, en cada
′
caso: T = e−τ0 / cos θ (“downwelling”) y T ′ = e−τ0 / cos θ (“upwelling”). La reflectividad
estimada es, entonces:
Ls − Ld
Re = π
E0 T T ′
Los valores de τ0 en las diferentes bandas del sensor se pueden medir por radiometría
de campo en el momento del paso del satélite sobre un punto de la escena. No obstante,
lo habitual es calcularlos suponiendo que la atmósfera en ese instante es una atmósfera
estándar: con una composición gaseosa media (la correspondiente a la latitud, e incluso
a la época del año, en los modelos más avanzados), con una presencia de aerosoles con
unas propiedades específicas (dependientes de la ubicación de la escena en el mar, cerca
del mar, o en el interior del continente, o teniendo en cuenta medidas de visibilidad en
el momento de la observación, en los modelos más complejos).
Respuesta: (d) El modelo 6S es un modelo físico que trata de calcular la señal que
recibiría un sensor al reflejarse la luz del espectro solar sobre una cubierta en
la superficie terrestre. El modelo realiza los cálculos en dos partes: la primera
consiste en calcular las propiedades de la atmósfera (transmisividad y radiación
difusa causada por los aerosoles) a partir de datos conocidos u observados en el
momento de la medida del sensor; la segunda consiste en calcular cómo afecta la
presencia de esa atmósfera a la señal recibida por el sensor y, basándose en eso,
calcular la reflectividad de las cubiertas a partir de la señal realmente medida
por el sensor.
302
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
303
C UESTIONES DE TELEDETECCIÓN
304
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
ANEXO
Respuesta: (c) Las dos reflectividades están linealmente relacionadas en el caso de ser
el sensor hiperespectral. No obstante, cuando es multiespectral, es decir, cuando
sus bandas son anchas (de decenas de nanómetros), esa relación lineal es sólo una
(muy) buena aproximación, que se debe usar con cuidado si buscamos correccio-
nes muy precisas. Por lo general, para determinar los coeficientes de una relación
lineal (y poder, entonces, hacer la corrección atmosférica) se deben medir al me-
nos dos espectros de campo que correspondan a espectros de píxeles en la imagen
remota; en la práctica se tienen en cuenta más pares de espectros remotos y de
campo, para mitigar los efectos del error de medida.
La radiancia espectral recibida en un sensor remoto L′′ (λ) procedente de una cubierta se
puede relacionar con la radiancia que se mediría en la superficie terrestre L′ (λ) por una
ecuación de la forma
L′′ (λ) = τ(λ)L′ (λ) + La (λ)
En esta ecuación, la contribución La (λ) representa la radiancia que se origina a lo largo
de la columna atmosférica por la dispersión de la luz solar en ella (tiene varias compo-
nentes: la de Rayleigh, la de aerosoles, etc.). El factor τ(λ) es la transmisividad atmos-
férica, es decir, la fracción de la radiancia que a pesar de los procesos de dispersión y de
absorción atmosférica, llega al sensor (por eso multiplica a la radiancia “en origen”, L′ ).
La ecuación anterior es lineal, de la forma
y = ax + b
es decir, es la ecuación de una recta; y, se pueden despejar los coeficientes a y b cono-
ciendo dos puntos de esa recta. Despejar estos dos coeficientes sería, en teledetección,
calcular los coeficientes desconocidos τ(λ) y La (λ) que permiten hacer la corrección
atmosférica como
L′′ (λ) − La (λ)
L′ (λ) =
τ(λ)
Para conocer dos puntos de la “línea empírica” (así es como se llama este método de
corrección atmosférica, ELM, Empirical Line Method) correspondiente a una escena
305
C UESTIONES DE TELEDETECCIÓN
de teledetección, las “y” se obtendrían del sensor (la L′′ ) y las “x” de la radiometría
de campo (la L′ ). Hacen falta, pues, al menos dos medidas de radiometría de campo y
dos desde el satélite, ambas de las mismas cubiertas sobre el terreno, para hacer esta
corrección. En la realidad se suelen hacer más de dos medidas y, entonces, el ajuste se
hace por mínimos cuadrados (lo que permite, de paso, estimar el error de la corrección).
La corrección realizada de este modo, determinando unos valores únicos de τ(λ) y
La (λ), es válida en la zona en la que se concentran los puntos de campo y, si las condi-
ciones atmosféricas son homogéneas sobre el área cubierta por la imagen de satélite, se
puede extrapolar a la totalidad de ésta. Esto no sucede, por ejemplo, en áreas costeras, en
las que las condiciones del aerosol atmosférico (responsable de buena parte del término
La (λ)) varían de un aerosol marino a un aerosol continental en poco espacio, de modo
que para una escena extensa la atmósfera varía de un lado a otro de la imagen.
Lo dicho hasta aquí, presupone que el espectrorradiómetro mide la radiancia L′′ . Pero
en la práctica se suele medir la reflectividad, R, es decir, el cociente entre la radiancia
que refleja esa cubierta y la que reflejaría una superficie completamente blanca. Se pasa
de una a otra, simplemente, dividiendo por Ls′ (λ), radiancia espectral solar a esa longitud
de onda medida sobre la superficie de la Tierra.
La radiancia solar es diferente en el sensor (que está situado fuera de la atmósfera)
que en la superficie terrestre; despreciando la radiación difusa (el cielo azul) que también
ilumina la superficie terrestre, porque es mucho menor que la luz directa del sol, se puede
ver que la radiancia solar en la superficie Ls′ (λ) está relacionada con la radiancia solar
TOA (en el tope de la atmósfera) Ls′′ (λ) por el mismo coeficiente de transmisividad
atmosférica τ(λ): se transmite la misma fracción de energía independientemente de si la
luz “sube” o “baja” por la columna atmosférica. Y la radiancia solar TOA es conocida
(es igual al flujo de energía solar, que está tabulado, dividido por π). Así que la ecuación
lineal de corrección atmosférica se obtiene sustituyendo
es decir
L′′ (λ) = τ2 (λ)Ls′′ (λ) R(λ) + La (λ)
a b
Tanto si se escribe así, como si se escribe en función de la reflectividad TOA, definida
306
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
Un espectrorradiómetro hace una medida casi continua del espectro, es decir, mide
L′ (λ) o R(λ) cada pocos nanómetros de longitud de onda, o a veces cada menos de
un nanómetro. Sin embargo, las bandas de un sensor multiespectral como el OLI del
Landsat 8, o el HVR del Spot, o el ASTER del Terra, son de decenas de nanómetros de
ancho. En este caso, lo que mide el sensor es un valor medio de la radiancia espectral
L̄′′ pero no localizado en una longitud de onda precisa, sino a lo largo de cada banda
correspondiente.
Para poder hacer uso de todo lo explicado anteriormente, hay que “simular” que
el espectrorradiómetro tiene bandas distribuidas como las del sensor remoto de manera
que calculamos, a partir del espectro L′ (λ), valores medios de radiancia reflejada por la
cubierta dentro de la banda del sensor.
Cada banda “n” de un sensor se caracteriza por una “curva de sensibilidad”, es decir,
una serie de pesos dependientes de la banda y de la longitud de onda wn (λ) que indican
cómo de eficiente es el sensor integrando en esa banda radiación electromagnética que
llega con longitud de onda λ. De este modo, la radiancia media se calcula como una
suma ponderada (o integral) de la radiancia “continua” multiplicada por los pesos o
sensibilidades. Y eso es lo que hay que calcular para cada banda del sensor a partir del
espectro de campo
wn (λ)L′ (λ) dλ
´
′
L̄n = ´
wn (λ) dλ
A veces esto mismo se hace para el espectro de reflectividad R(λ), pero no es to-
talmente correcto: el valor de la radiancia solar no es constante, también depende de la
longitud de onda. No obstante, a falta de otra información, y dado que el espectro solar
varía de forma suave dentro de las ventanas atmosféricas (en las que se localizan las
bandas de los sensores remotos), esa puede ser una aproximación razonable.
307
C UESTIONES DE TELEDETECCIÓN
bandas atmosféricas (de absorción) Bandas del espectro electromagnético en las que
absorben preferentemente energía los gases que componen la atmósfera. Muestran
bandas especialmente absorbentes en el infrarrojo el agua y el CO2 ; en el ultra-
violeta el ozono. Las zonas del espectro electromagnético en las que no existen
bandas de absorción se denominan ventanas atmosféricas.
intensidad radiante Potencia emitida por una fuente radiante en cada dirección. Se
mide en Watts por estereorradián.
308
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
potencia radiante Potencia total emitida por una fuente radiante. Se mide en Watts o
Julios por segundo.
radiancia Potencia emitida por una unidad de superficie en cada dirección. Equivalen-
temente, potencia recibida por unidad de superficie desde cada dirección. Se mide
en Watts por metro cuadrado y por estereorradián.
8.5. BIBLIOGRAFÍA
309
C UESTIONES DE TELEDETECCIÓN
E. Karpouzli, T. Malthus (2003). “The empirical line method for the atmospheric
correction of IKONOS imagery”. International Journal of Remote Sensing, 24(5):
1143-1150.
6SV - Home
URL: http://6s.ltdri.org/
Sitio web del método de corrección atmosférica 6S. Se puede acceder a una apli-
cación on-line que calcula la corrección desde la página
http://6s.ltdri.org/pages/run6SV.html
310
L A INFORMACIÓN MULTIESPECTRAL VISTA A TRAVÉS DE LA ATMÓSFERA
Solar Spectral Irradiance: Air Mass 1.5 — American Society for Testing and Ma-
terials (ASTM)
URL: http://rredc.nrel.gov/solar/spectra/am1.5/
Espectro de irradiancia solar a nivel del mar de la ASTM empleado para evaluar
la eficiencia de las células fotovoltaicas.
Bottle/Glass Colors
URL: http://www.sha.org/bottle/colors.htm
Página sobre botellas de colores en la que se explica el origen del color que toma
el vidrio en función de los aditivos que se le añadan.
311
C UESTIONES DE TELEDETECCIÓN
Página del Prof. Zawischa del Instituto de Física Teórica (ITP) de la Universidad
de Hannover sobre dispersión atmosférica de la luz, con muchas fotografías y
explicación de modelos.
312
Tema 9
GUION-ESQUEMA
La ley de Planck
Efectos atmosféricos
C UESTIONES DE TELEDETECCIÓN
Cuerpo
negro
Temperatura Radiancia
termométrica Ley de Planck espectral
Cuerpo
gris
(real) Emisividad
Suelo desnudo
TM6
Landsat
Suelo urbano
Temperatura
Isla de calor
de brillo
IR3.9 WV6.2
IR8.7 WV7.3
Nubes IR10.8 IR9.3
Atmósfera IR11 IR13.4 Meteosat
IR12
Océano
AMSR−E
(SST)
Aqua
314
M EDIDA REMOTA DE LA TEMPERATURA
9.1. INTRODUCCIÓN
9.2. CUESTIONES
315
C UESTIONES DE TELEDETECCIÓN
a) la ley de Wien
b) la ley de Planck
c) la ley de Stefan-Boltzmann
d) la ley de Kirchoff
316
M EDIDA REMOTA DE LA TEMPERATURA
8. Algunos algoritmos para obtener la temperatura utilizan dos o más bandas térmi-
cas. Esto permite. . .
10. En las áreas urbanas se produce un aumento de la temperatura conocido como isla
de calor. ¿Cuál de estos sensores con varias bandas en el infrarrojo térmico es más
adecuado para caracterizar este efecto?
317
C UESTIONES DE TELEDETECCIÓN
Para medir la temperatura existen diferentes escalas con diferentes orígenes históricos
(figura 9.1). Por ejemplo, la más utilizada en Europa en la actualidad es la escala centí-
grada de Celsius (en honor al astrónomo sueco que la introdujo en el siglo XVIII). Esta
escala se basa en dos temperaturas de referencia: la de congelación del agua, a los 0◦ C,
y la de su ebullición, a 100◦ C (ambas medidas a nivel del mar). Por definir una separa-
ción entre estos dos puntos de 100 unidades, se llama también escala centígrada. Otra
escala, más empleada en países anglófonos, es la escala Fahrenheit (en honor al físico
alemán que la introdujo también en el siglo XVIII). Esta escala sitúa su cero en la míni-
ma temperatura alcanzada en Gdansk (Polonia) en el siglo XVIII, temperatura a la que
se congelaba la salmuera (solución saturada de sal marina en agua). El 100◦ F se sitúa en
la temperatura media del cuerpo humano. Por lo tanto, es también una escala centígrada,
pero con puntos de referencia diferentes (y menos precisos en su origen).
En Física, la escala de temperaturas que se ha encontrado más útil es la escala ter-
modinámica o Kelvin. Se basa en la escala de Celsius, pero lleva su cero, restándole un
valor constante, a los −273,15◦ C: ése es el cero Kelvin. A esta temperatura, el volumen
de un gas ideal se reduce a cero: no es concebible una temperatura Kelvin negativa. A esa
temperatura, la energía cinética de las moléculas y átomos también se reduce a cero. Es
decir, la temperatura en Kelvin resulta ser proporcional a la energía media de sus molécu-
las, mediante la fórmula Ē = kB T . El factor de proporcionalidad kB = 1,38 × 10−23 J/K
se llama constante de Boltzmann.
Un cuerpo que esté caliente, es decir, sobre el cero Kelvin, emitirá radiación electro-
magnética. La temperatura no es más que la agitación térmica de sus átomos y moléculas
y ello hace que los electrones se muevan respecto a los núcleos atómicos: como todo mo-
vimiento electrónico (piénsese en una antena de radio), esto causa campos eléctricos y
magnéticos variables que originan ondas electromagnéticas. Las energías de los fotones
que forman esta energía electromagnética son parecidas a las de los movimientos que
les dan lugar y se distribuyen del mismo modo; cuanto más caliente esté el cuerpo, más
energía tendrán los fotones que emite.
318
M EDIDA REMOTA DE LA TEMPERATURA
−273ºC −460ºF 0K
319
C UESTIONES DE TELEDETECCIÓN
Como la energía de los fotones emitidos es semejante a la de las moléculas del cuerpo, y
el valor medio de esta energía Ē es proporcional a la temperatura en Kelvin, Ē = kB T , la
energía media de los fotones emitidos es también proporcional a esa temperatura. Según
la relación de Einstein, E = h f , la energía E de un fotón es proporcional a su frecuencia,
f , y a una constante, la constante de Planck, h = 6,63 × 10−34 J · s. La frecuencia, a su
vez, es inversamente proporcional a la longitud de onda, f = c/λ. Combinando todas
estas relaciones (y teniendo en cuenta alguna otra propiedad del “gas de fotones”), se
obtiene que la longitud de onda de los fotones emitidos es inversamente proporcional a
320
M EDIDA REMOTA DE LA TEMPERATURA
ch 2,9 × 10−3 [m · K]
λ≃ =
5kB T T
Esta ley se llama ley de Wien y permite determinar la longitud de onda en la que serán
emitidos más fotones. Por ejemplo, para el Sol, cuya temperatura superficial son unos
6000 K, la longitud de onda en la que más radiancia nos llega se halla cerca de los
500 nm, es decir, se halla en el verde del rango visible del espectro (eso no quiere decir
que el Sol sea verde: en el verde emite más intensidad, pero la emite también en otras
longitudes de onda, lo que hace que, netamente, su luz se califique como amarilla). Por
su parte, la superficie terrestre que tiene una temperatura en torno a los 300 K, tiene
su máximo de emisión térmica en 9,7 μm, es decir, en el infrarrojo térmico; de hecho,
esta parte del espectro recibe ese nombre porque es donde más energía radiante emiten
los cuerpos debido a su temperatura habitual en la Tierra. Alrededor de estos máximos,
la intensidad radiante que emiten decae rápidamente (siguiendo la ley de Planck, ver
cuestión siguiente) hacia longitudes de onda menores y más lentamente hacia longitudes
de onda mayores.
Respuesta: (b) La ley que describe la distribución de energía radiante emitida por un
cuerpo en función de su temperatura es la ley de Planck. De ella se deducen todas
las leyes que describen el máximo de emisión (ley de Wien) o la cantidad total de
energía radiante emitida (ley de Stefan-Boltzmann).
2hc2 ε(λ)
L(λ) =
λ5 e kBhcT λ − 1
321
C UESTIONES DE TELEDETECCIÓN
M (W m−2)
1e+06
T=6000 K
100000
T=5000 K
10000
1000
100
L max
10
(λ)
1
0.1
0.01
0.001
6000
5000 Tλ T=300 K
4000 =c
te.
)
T (K
3000
2000 10000
1000 1000
)
100
λ (nm
Figura 9.2. Curvas de Planck para la emisión de un cuerpo negro entre temperaturas de 300 K y 6000 K.
Se muestran los máximos de emisión, correspondientes a la ley de Wien, y la proyección de ésta en el
plano (λ, T ).
la temperatura (T ), y una propiedad del cuerpo llamada su emisividad (ε), que depende
de la longitud de onda. Esta emisividad es igual que la absortividad (α), la fracción de
radiación electromagnética que el cuerpo absorbe a una longitud de onda dada, ya que
en el equilibrio térmico con la radiación el cuerpo emite tanta como absorbe.
La ecuación de Planck permite conocer la temperatura de una cubierta, sabiendo su
radiancia espectral en una banda térmica estrecha (como las de Landsat, por ejemplo).
Para ello se despeja la temperatura y se escribe en la forma:
hc/(kB λ) K2
T= =
(2hc2 /λ5 )ε(λ) K1 ε(λ)
log 1 + L(λ) log L(λ) +1
322
M EDIDA REMOTA DE LA TEMPERATURA
material de la cubierta, aunque siempre con un valor cercano a 1. Para los TM y ETM+
de Landsat, por ejemplo, se toma 0,95, el valor medio de la emisividad de las cubiertas
terrestres; pero si la escena es sólo de agua, se puede tomar el valor de 0,99. Si tomamos
ε(λ) igual a 1, estaremos midiendo la temperatura de brillo del cuerpo, sin hacer ninguna
hipótesis sobre su composición.
La ley de Planck, que da la radiancia espectral en cada longitud de onda, puede
ser demasiado detallada en algunos casos. A veces puede interesar conocer la radiancia
total emitida en un rango amplio de longitudes de onda, o en todo el espectro. Para ello
se calcula el área debajo de la gráfica de la ley de Planck y se obtiene la ley de Stefan-
Boltzmann, que dice
M(λ) = σT T 4
Aquí M(t) es la emitancia, la cantidad de energía emitida por unidad de tiempo y de área,
y σT = 5,67 × 10−8 Wm−2 K−4 es la constante de Stefan. Esta ley dice que la emitancia
y la radiancia aumentan tanto más rápidamente cuanto mayor es la temperatura. La ley
se puede usar con bandas muy anchas alrededor del valor máximo de emisión, que da la
ley de Wien, ya que alrededor de este valor la emitancia y radiancia espectrales decaen
rápidamente.
Cuando la temperatura se mide a través de la radiancia en longitudes de onda mucho
más largas que la que corresponde al máximo, la relación entre la temperatura (de brillo)
T y la radiancia L(λ) se puede aproximar como
λ4
T= L(λ)
2kB c
323
C UESTIONES DE TELEDETECCIÓN
324
M EDIDA REMOTA DE LA TEMPERATURA
Figura 9.3. Imágenes de temperatura superficial del mar obtenidas con el AMSR-E a bordo del satélite
Aqua de la NASA (la superficie continental corresponde a imágenes del sensor MODIS a bordo del mismo
satélite). Izquierda: mes de junio de 2008; Derecha: mes de agosto de 2008 Estas imágenes de obtención
casi diaria aydan a predecir la formación de huracanes causados por el rápido calentamiento del mar en
verano. Fuente: NASA’s Goddard Space Flight Center Scientific Visualization Studio.
huracanes, que se “alimentan” de la temperatura del océano para su desarrollo. Estas zo-
nas no se pueden medir con sensores TIR, porque las nubes son opacas en este rango de
longitudes de onda; sin embargo, son transparentes a las microondas procedentes de la
emisión térmica (igual que lo son a las señales de los radares activos, también de micro-
ondas). Los MWR miden la temperatura del agua en los primeros pocos milímetros, es
decir, a una profundidad un poco mayor que los TIR, por lo que puede haber diferencias
entre ambas temperaturas (debidas, por ejemplo, al viento, que enfría por evaporación
las capas más superficiales).
Un ejemplo de MWR es el AMSR (Advanced Microwave Scanning Radiometer),
a bordo del satélite Aqua de la NASA. Este sensor utiliza la frecuencia de 6,9 GHz
(4,3 cm de longitud de onda) para medir la temperatura del océano. En esa banda, la
radiancia espectral procedente del agua del mar es muy pequeña: prácticamente 10−16
de la radiancia emitida a 10 μm. Para obtener una precisión semejante a la de un TIR
(0,3 K), el AMSR debe integrar energía radiante procedente de una área de 74 × 43 km2 ,
en lugar de los 4 × 4 km2 del AVHRR (a bordo de los satélites de la NOAA o de los
MetOp de EUMETSAT), es decir, unas 200 veces mayor (y adquirida durante 20 veces
más tiempo, y en una banda 2000 veces más ancha y por una antena centenares de veces
más grande que el sensor AVHRR).
325
C UESTIONES DE TELEDETECCIÓN
f=36 GHz
24 km λ = 8.2 mm f=6.9 GHz
λ = 4.3 cm
f=18 Ghz
λ = 1.6 cm 12 km
f=23 GHz
21 km λ = 1.3 cm 56 km
6 km
f=89 GHz
λ = 3.3 mm
AMSR-E
Figura 9.4. Área de visión (IFOV) del sensor AMSR a las diferentes frecuencias de operación. Se observa
que a longitudes de onda mayores, el área sobre la que se debe integrar la radiancia térmica tiene que ser
mayor porque, entre otras cosas, esta radiancia se hace muy pequeña cuanto mayor es la longitud de onda.
Respuesta: (c) Los gases atmosféricos emiten energía radiante en la región infrarroja
debido a su energía térmica, pero algunas moléculas absorben y emiten más en al-
gunas bandas que coinciden con sus energías de vibración o de rotación. Así, por
ejemplo, para determinar la temperatura y la concentración de vapor de agua y
de CO2 en la atmósfera, se utilizan las bandas de 6 − 7 μm, para el vapor de agua,
y 15 μm, para el CO2 , en las que estos gases absorben y emiten más radiación
térmica.
Cuando la radiación electromagnética atraviesa un gas, parte de ella es absorbida por este
gas, e invertida en agitar las oscilaciones o rotaciones de sus moléculas. Cuando estas
moléculas chocan entre sí, intercambian parte de su energía y, cuando esto se repite
muchas veces, llegan a tener una distribución de energías acorde con la temperatura del
gas. Además de esto, en las colisiones una parte de la energía se puede convertir en
energía radiante y ser emitida como fotones de longitudes de onda semejantes a aquellos
que excitaron las moléculas en primer lugar. Dicho de otro modo, un buen absorbente de
la radiación a una longitud de onda también será un buen emisor a esa misma longitud
de onda. Ésta es la ley de Kirchoff.
La radiación térmica que es emitida desde la superficie terrestre es absorbida en
determinadas longitudes de onda por las moléculas de algunos gases atmosféricos. Son
los llamados gases de efecto invernadero, que tienen bandas de absorción alrededor de
los 10 μm en los que alcanza su máximo la radiancia espectral de la Tierra; el efecto
invernadero se produce, precisamente, porque parte de la radiación térmica que absorben
326
M EDIDA REMOTA DE LA TEMPERATURA
1
CO 2
H2 O
Absorbancia (relativa)
0.8
0.6
0.4
0.2
0
4 6 8 10 12 14 16 18 20 22
Longitud de onda ( μ m)
Figura 9.5. Bandas de absorción del CO2 y del vapor de agua. Fuente: NIST.
estos gases es devuelta hacia la superficie cuando éstos la vuelven a emitir. Del mismo
modo que la vuelven a emitir hacia la superficie, la vuelven a emitir hacia el sensor que
se halla sobre la atmósfera.
Si el gas es muy absorbente en algunas bandas (como el vapor de agua y el CO2 ;
véase la figura 9.5), al sensor sólo llegará radiación térmica procedente de la atmósfera,
porque la energía de la radiancia espectral en esa banda de absorción directamente pro-
cedente de la superficie de la Tierra habrá sido absorbida por el gas y emitida de nuevo
en forma de un espectro térmico, acorde con la temperatura de éste.
Conforme la radiancia asciende por la atmósfera, los gases la absorben y la emiten.
Absorben la emitida en las capas atmosféricas inferiores y aportan esa radiancia emitida
en las capas inferiores a la temperatura de las capas superiores. Al disminuir con la
altura la concentración de los gases, existe una altura en la que se alcanza el máximo de
radiación emitida que llega al sensor: por debajo de ella, la radiación ha sido absorbida, y
por encima, la baja concentración de los gases hace que no se absorba ni se emita nueva
radiancia. El porcentaje de la radiación térmica que llega en una longitud de onda desde
cada altura de la atmósfera, se llama “función de peso” de esa altura atmosférica (figura
9.6).
Se puede decir que la radiancia que llega a una longitud de onda corresponde a la
temperatura de esa capa atmosférica de la que procede en su mayor parte. La altura de
la capa atmosférica dependerá, en particular, del coeficiente de absorción del gas a la
longitud de onda dada. Si se dispone de medidas de la radiancia en varias longitudes
de onda para las que el gas absorbente tenga diferentes absorciones (en el máximo de
327
C UESTIONES DE TELEDETECCIÓN
1.0
0.9 3.9 μm
6.2 μm
0.8 7.3 μm
8.7 μm
0.7 9.7 μm
10.8 μm
0.6 12.0 μm
w(p)
13.4 μm
0.5
0.4
0.3
0.2
0.1
0 100 200 300 400 500 600 700 800 900 1000
Presión (hPa)
Respuesta: (b) En los 3,9 μm se hacen iguales las radiancias térmicas de un cuerpo
(negro) a 6000 K (es decir, el Sol) y de uno a 300 K (es decir, la Tierra). De este
modo, desde un sensor no se podrá distinguir qué parte de la radiancia procede
de la reflexión de la radiación térmica solar o de la emisión térmica terrestre.
328
M EDIDA REMOTA DE LA TEMPERATURA
Figura 9.7. Curvas de irradiancia solar (suponiendo que la superficie del Sol está a T = 5800 K) y de
emitancia térmica terrestre (suponiendo que se halla a unos T = 280 K). Se puede ver que ambas se cruzan
alrededor de los 5,1 μm.
(en las que la radiación recibida procede de la emitida por los cuerpos en función de
su temperatura). Efectivamente, si se representa la curva de la ley de Planck para la
temperatura de la superficie terrestre, unos 300 K, y la curva de la radiancia espectral
solar que llegaría a esa misma superficie, correspondiente a una temperatura de unos
6000 K en la superficie del Sol (que se halla a unos 150 millones de kilómetros de la
Tierra), se observa que se cruzan en torno a los 5 μm (figura 9.7); en los 3,9 μm se halla la
ventana atmosférica más próxima. Por ello en esta banda, las imágenes correspondientes
al día y las correspondientes a la noche se ven (y se analizan) de forma diferente.
Por otro lado, esta banda se encuentra cerca de la banda de absorción del CO2 (pre-
cisamente la que oculta la banda de 4 − 5 μm). Esta banda próxima puede ensancharse
en función de la temperatura y la presión de este gas, haciendo que absorba parte de
la radiancia en la banda de 3,9 μm. Cerca de superficies cálidas, o a presiones mayo-
res (o cuando los rayos de luz llegan al sensor oblicuamente, de forma que atraviesan
mayor espesor atmosférico), la radiación absorbida por el CO2 hace que la temperatura
calculada en esta banda sea inferior a la determinada por otras bandas.
Pero, además de esto, es en la banda de 3,9 μm donde la emisividad de las diferentes
cubiertas terrestres (cuya radiación térmica se observa de noche) es más diferente: 0,98
para el agua y la vegetación, 0,9 para los suelos arcillosos, 0,8 para los arenosos. Durante
el día esta diferencia de comportamientos se da en la reflexión de la luz del Sol en las
nubes: las nubes “de agua” son más reflectantes que las “de hielo”; además, esta banda
es muy sensible al tamaño de las gotas de agua o los cristales de hielo que las forman,
329
C UESTIONES DE TELEDETECCIÓN
Figura 9.8. Imágenes SEVIRI en la banda TIR de 3,9 μm: noche (izquierda) y día (derecha). Como es
habitual en imágenes meteorológicas, las zonas más oscuras son las de temperatura radiométrica más alta;
el océano se ve con la misma temperatura en ambas imágenes, porque no refleja difusamente la radiación
infrarroja solar, como sucede con la tierra. Fuente: EUMETSAT.
Respuesta: (c) La radiancia emitida por un cuerpo negro depende solamente de su tem-
peratura, pero la emitida por un cuerpo real, depende además de su emisividad, es
decir, de su capacidad para convertir la energía térmica de sus átomos y molécu-
330
M EDIDA REMOTA DE LA TEMPERATURA
Figura 9.9. Imagen del 7 de julio de 2003 en la frontera entre España (Galicia) y el norte de Portugal.
Izquierda: Banda IR3.9 (imagen meteorológica: zonas más oscuras corresponden a temperaturas más
altas). Derecha: Diferencia entre las bandas IR3.9-IR10.8 (zonas más brillantes corresponden a diferencias
positivas mayores) en la que destacan los focos más calientes. Fuente: EUMETRAIN/EUMETSAT.
331
C UESTIONES DE TELEDETECCIÓN
Figura 9.10. Imagen del centro de Francia tomada por el MSG-1 el 14 de julio de 2003 a las 2:00 UTC en
la banda de 3,9 μm. Se puede ver París con una temperatura radiométrica de 287 K, mayor que la de sus
alrededores (a unos 281 K). Fuente: EUMETSAT.
dad α(λ), la fracción de energía radiante que el cuerpo absorbe; es decir, un buen emisor
es también un buen absorbente: ésta es la ley de Kirchoff.
La emisividad varía a lo largo del espectro. En las bandas del infrarrojo térmico
entre 10 − 12 μm, las emisividades de muchas de las cubiertas terrestres de interés (agua,
suelos, vegetación) se encuentran muy próximas a uno: 0,99 para el agua, entre 0,96 y
0,99 para los suelos (más alto, cuanto más contenido orgánico tengan), de 0,96 a 0,99
para la vegetación (ver figura 9.11). El valor promedio que se puede utilizar para ε(λ) es
de 0,97; un error de un 5 % en el valor usado de emisividad, sólo repercute en un 1,25 %
en el error relativo de la temperatura, que para temperaturas en torno a los 300 K son
unos 4◦ C de error. Para reducir el error en la estimación de la temperatura, es necesario
conocer el tipo de cubierta, y utilizar un valor más preciso de su emisividad en la longitud
de onda empleada.
En otras zonas del espectro, la emisividad es más variable entre tipos de cubiertas. En
la banda alrededor de los 4 μm, la emisividad del suelo desnudo es baja, alrededor de 0,8,
mientras que la vegetación y el agua tienen emisividades en torno a 0,98. En situaciones
en las que se mezclan ambos tipos de cubierta, como en praderas o sabanas, la emisividad
resultante será intermedia. En este caso, es posible diferenciar unas cubiertas de otras por
la diferente temperatura aparente que muestran en bandas con diferente emisividad.
332
M EDIDA REMOTA DE LA TEMPERATURA
si el 0 < NDV I < 0,2, se trata de suelo desnudo; su emisividad media se puede
tomar como 0,97
NDV I − 0,2
F=
0,5 − 0,2
333
C UESTIONES DE TELEDETECCIÓN
Respuesta: (d) A pesar de que en el rango del infrarrojo térmico o de las microondas
la radiación electromagnética apenas se ve afectada por los gases atmosféricos,
lo cierto es que siempre existe alguna absorción o emisión en estas bandas del
espectro por el vapor de agua u otros gases de “efecto invernadero”. Como este
efecto no es igual en todas las longitudes de onda, la medida de la radiancia en
varias bandas permite caracterizar este proceso y corregir atmosféricamente la
medida o determinar cómo se distribuyen esos gases y cuál es su temperatura en
la columna de aire.
334
M EDIDA REMOTA DE LA TEMPERATURA
Respuesta: (d) Existen distintos métodos para estimar la humedad de los suelos. Uno
de ellos está basado en medir su temperatura radiométrica, que está relaciona-
da con la cantidad de agua en su superficie; para ello se usan sensores pasivos
(radiómetros) de microondas. Otros se basan en medir las variaciones de la tem-
peratura superficial entre el día y la noche, que da una idea de la inercia térmica
del terreno, que también está relacionada con su contenido en agua; para éstos,
se suelen usar sensores remotos con bandas en el infrarrojo térmico.
335
C UESTIONES DE TELEDETECCIÓN
Respuesta: (c) El estudio de las islas de calor se suele enfocar hacia describir cómo se
distribuye la temperatura a lo largo de un núcleo urbano o cómo varía a lo largo
del día. Por esta razón, para la primera aproximación, el sensor más adecuado es
el ASTER: puede tomar imágenes de una misma ciudad cada 16 días, con varias
bandas térmicas y con una alta resolución espacial de 90 m. Sin embargo, para
la segunda, el SEVIRI o el AVHRR (no es necesaria una observación constante
336
M EDIDA REMOTA DE LA TEMPERATURA
Figura 9.12. Distribución de temperatura nocturna en París (septiembre de 2011). Fuente: ESA.
pero sí a diferentes horas del día) serían adecuados en el caso de ciudades muy
extensas..
En las grandes ciudades, la radiación procedente del Sol es absorbida por las construccio-
nes humanas y pavimentos de vías de comunicación, sólidas y con gran inercia térmica
(y poca emisividad). Además, las propias fuentes de calor y gases calientes emitidos por
la actividad humana contribuyen al aumento de la temperatura atmosférica en el centro
de las ciudades. Este efecto se llama isla de calor (figura 9.12).
Se suelen distinguir tres islas de calor: la isla de calor superficial, que se refiere a la
temperatura de la superficie de calles y edificios; la del “dosel urbano”, que se refiere a la
temperatura del aire sobre la ciudad, hasta la altura de sus edificios, y la de “capa límite”
atmosférica, que se refiere a aumento de la temperatura de la atmósfera sobre la ciudad,
hasta 1 km de altura, aproximadamente. La temperatura que se puede medir directamente
por teledetección es temperatura de la superficie (el aire es prácticamente transparente
a la radiación del infrarrojo térmico, por eso no se puede medir su temperatura), pero
es posible estimar también la temperatura del “dosel urbano”, que es la que tiene más
interés ambiental, correlacionándola con las medidas de estaciones en tierra.
Las islas de calor han sido estudiadas mediante teledetección utilizando los radió-
metros empleados en estudios meteorológicos y climatológicos. Estos están limitados a
resoluciones de 3 km (SEVIRI) a 1,1 km (AVHRR) o 1 km (MODIS). También se han
estudiado con las bandas térmicas del Landsat-5 (120 m) o del ASTER (90 m) o del
337
C UESTIONES DE TELEDETECCIÓN
Landsat-7 (60 m) y se podrán estudiar con las del Landsat-8 (100 m); estas imágenes
permiten observar la distribución espacial de los focos que más contribuyen a la forma-
ción de la isla de calor. En el caso de las imágenes con mayor resolución temporal, es
posible estimar la inercia térmica de las cubiertas urbanas y cómo influyen en la distribu-
ción de temperatura las condiciones atmosféricas (viento, humedad, etc.). En el caso de
imágenes con mayor resolución espacial es importante una buena corrección para deter-
minar la temperatura a partir de la radiancia recibida en el sensor: tanto atmosférica (que
es posible usando las varias bandas térmicas del ASTER) como de emisividad (estimán-
dola, por ejemplo, a partir del índice de vegetación normalizado del visible-infrarrojo
cercano).
Conocer la distribución del calor en la ciudad también permite diseñar estrategias
para mitigarlo. Se ha observado que el uso de materiales menos absorbentes de la ra-
diación solar (con mayor albedo), reduce la formación de la isla de calor. También se
reduce la isla de calor aumentando la cubierta vegetal, que tiene muy poca inercia tér-
mica y gracias a la evapo-transpiración reduce la temperatura ambiente: cuando la hoja
cede vapor de agua al ambiente, es necesario invertir energía térmica en evaporar el agua
líquida de su interior, lográndose así un enfriamiento neto.
338
M EDIDA REMOTA DE LA TEMPERATURA
cuerpo negro Modelo físico ideal de cuerpo que absorbe toda la radiación electromag-
nética que llega a él y que la reemite en equilibrio térmico con sus moléculas. El
espectro de emisión sólo depende de la temperatura a la que se halle el cuerpo y
viene dada por la ley de Planck.
emisividad Coeficiente que relaciona la radiancia térmica emitida por un material con
la que emitiría un cuerpo negro a la misma temperatura. La emisividad depende
de las propiedades eléctricas del material
gas de efecto invernadero Gas atmosférico que tiene bandas de absorción en el infra-
rrojo térmico, lo que hace que absorba parte de la energía radiante emitida por la
superficie terrestre y la vuelva a emitir debido a su propia temperatura. El efec-
to neto es que se reduce la energía radiante emitida al espacio, aumentando la
temperatura del planeta.
isla de calor Aumento de la temperatura atmosférica sobre una ciudad debido al ca-
lentamiento del aire por los materiales de construcción de ésta, con gran inercia
térmica y que no se enfrían por la noche.
339
C UESTIONES DE TELEDETECCIÓN
radiómetro de microondas Sensor pasivo que capta con su antena la radiancia emitida
por la superficie terrestre en el rango de las microondas y, a partir de la potencia
recibida, determina la temperatura superficial. En el rango de las microondas, la
atmósfera es transparente, por lo que se utilizan estos sensores para obtener la
temperatura superficial del mar aun en presencia de nubes. Debido al tamaño de
la antena del sensor y a la poca radiancia emitida a longitudes de onda largas el
IFOV () de estos sensores es muy grande, de decenas o centenares de kilómetros.
9.5. BIBLIOGRAFÍA
340
M EDIDA REMOTA DE LA TEMPERATURA
J.A. Sobrino et al. (2009). “Thermal remote sensing from Airborne Hyperspec-
tral Scanner data in the framework of the SPARC and SEN2FLEX projects: an
overview”. Hydrology and Earth System Science, 13, 2031-2037.
Varios (2015). Special Issue “Recent Advances in Thermal Infrared Remote Sen-
sing”. Remote Sensing, 7(4).
Q. Weng (2009). “Thermal infrared remote sensing for urban climate and environ-
mental studies: Methods, applications, and trends”. ISPRS Journal of Photogram-
metry and Remote Sensing, 64: 335-344.
Satellite observations help lessen the effects of heat waves in urban areas — ESA
URL: http://www.esa.int/Our_Activities/Observing_the_Earth/Satellite_observati
ons_help_lessen_the_effects_of_heat_waves_in_urban_areas
Noticia sobre el proyecto DESIREX de la ESA dedicado a estudiar las islas de
calor y llevado a cabo en 2008 por universidades y agencias de investigación es-
pañolas en varias ciudades.
341
C UESTIONES DE TELEDETECCIÓN
Current Sea Surface Temperatures Rising in the Gulf of Mexico — Scientific Vi-
sualization Studio, NASA
1. URL: http://svs.gsfc.nasa.gov/cgi-bin/details.cgi?aid=3532
342
M EDIDA REMOTA DE LA TEMPERATURA
• Agua: http://webbook.nist.gov/cgi/cbook.cgi?ID=C7732185&Units=SI&Ty
pe=IR-SPEC&Index=0#IR-SPEC
• CO2 : http://webbook.nist.gov/cgi/cbook.cgi?ID=C124389&Units=SI&Type
=IR-SPEC&Index=0#IR-SPEC
343
Tema 10
GUION-ESQUEMA
La litosfera: suelos
1.00
nieve
Compactación
0.75
nubes
0.50
vegetación
Granulometría
reflectividad
Humedad
0.25
suelo
Vegetación
LAI/NDVI 0.00
500 1000 1500 2000 2500
Microalgas
Sólidos en
suspensión
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
10.1. INTRODUCCIÓN
En este tema se explica por qué cada cubierta terrestre se ve como se ve a través
de un sensor multiespectral. Las cubiertas de nubes, hielo, agua, vegetación y suelos,
son las más habituales en una imagen de satélite. Las múltiples reflexiones (llamadas,
en algunos casos, como en la atmósfera o en el agua, dispersiones), los “acoplamientos”
ópticos y la absorción por pigmentos son los fenómenos que determinan cómo se ve
cada una de ellas. Diferentes factores como la humedad o la compactación afectarán a
la reflectividad, y por lo tanto, se podrá conocer el estado de una cubierta basándose
en ello. Otros factores que afectan a la reflectividad son los pigmentos que absorben la
luz en determinadas bandas. Por ejemplo, las hojas vigorosas son más verdes, es decir,
menos azules y menos rojas, ya que la clorofila absorbe estos colores.
10.2. CUESTIONES
2. El espectro de reflexión del agua pura decrece gradualmente a lo largo del espectro
visible, hasta valores casi inapreciables en el infrarrojo cercano. ¿Qué le sucede a
ese espectro cuando el agua no es pura, sino que contiene sólidos en suspensión?
347
C UESTIONES DE TELEDETECCIÓN
4. El color (visible) de la nieve que se halla en estado natural en una montaña puede
ser . . .
a) blanco
b) azul
c) rosa
d) cualquiera de los anteriores
5. ¿Qué cambio en un suelo puede hacer que sea más reflectante en el visible e in-
frarrojo?
a) aumento de su permeabilidad
b) aumento de su humedad
c) aumento de su contenido en óxidos de hierro
d) aumento de su contenido en materia orgánica
348
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
6. Para identificar los tipos de minerales en un suelo rocoso (es decir, sin vegetación
ni suelo vegetal) se debe estudiar el comportamiento de su espectro. . .
349
C UESTIONES DE TELEDETECCIÓN
350
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
Respuesta: (d) El espectro de reflexión de una cubierta está relacionado con los pig-
mentos que ésta contiene, pero también con su estructura interna que determina
los caminos que siguen los rayos de luz en ella y que, por lo tanto, determinan
las oportunidades que tienen los pigmentos para absorber la luz en sus bandas
de absorción. Por lo tanto, no existe una relación sencilla entre el espectro de ab-
sorción de los pigmentos y el espectro de absorción de la cubierta que los posee
(y por lo tanto, tampoco en el de reflexión), más allá de que en los máximos de
absorción de los pigmentos cabe esperar mínimos de reflexión de la cubierta.
351
C UESTIONES DE TELEDETECCIÓN
Figura 10.1. Descomposición de la luz blanca según longitudes de onda (colores del “arco iris”) por un
analizador (un prisma de cristal). Fuente: fotografía de D-Kuru (distribuida bajo licencia CC BY-SA 3.0).
352
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
reflejada o transmitida en cada refracción depende del cociente entre índices de refrac-
ción entre los granos de arena y la matriz en la que se encuentran. Cuando esta matriz
es aire, la cantidad reflejada es máxima: menos luz entra dentro de cada grano de arena,
menos luz es refractada desde su interior hacia los granos situados debajo. Por eso la
arena seca tiene una reflectividad alta. Cuando la matriz es agua, porque la arena está
húmeda, la diferencia entre los índices de refracción de la arena (narena = 1,55) y del
agua (nagua = 1,33) es más próxima a la unidad: en cada refracción se reflejará menos
luz, por lo que mayor cantidad de energía radiante penetrará en mayor número de granos.
Dentro de ellos, los pigmentos presentes podrán absorber mayor cantidad de energía: la
arena húmeda es más absorbente. Esta absorción será mayor en las bandas de absorción
de esos pigmentos, pero la condición fundamental es que la energía radiante llegue a
ellos para ser absorbida; en caso contrario, el material aparecerá gris.
Así pues, el espectro de reflectividad de una cubierta dependerá: de la rugosidad de
su superficie, del tipo de material y de matriz que la forme (de sus índices de refracción),
del tamaño y densidad de los “granos” o “capas”, y de los pigmentos en el interior
de éstos que absorben la radiación electromagnética. Pero no dependerá de una forma
sencilla de ninguna de ellas, sino de todas ellas combinadas al tiempo.
353
C UESTIONES DE TELEDETECCIÓN
El signo “-” en la irradiancia se refiere a que se trata de energía que baja dentro de la
columna de agua (downwelling); en particular Eλ− (d = 0) es la irradiancia que se mediría
justo por debajo de la superficie (es decir, dentro) del agua. En esta relación aparece el
valor α(λ), el coeficiente de atenuación, y el coseno del ángulo θ de transmisión de la
luz en el agua ya que, para llegar a una profundidad dada, un rayo de luz oblicuo debe
recorrer una mayor distancia. Por su carácter exponencial, nos indica que la variación
de esa irradiancia será muy sensible al coeficiente de absorción y a la profundidad; de
hecho, el 63 % de la energía se habrá absorbido en una longitud igual a 1/α(λ). Esta
longitud se llama primer espesor óptico del agua.
Además de la absorción de la radiación electromagnética por el agua pura, en el
agua puede haber disueltos pigmentos que absorben la energía radiante, como la clorofi-
la de las algas microscópicas del fitoplancton, en el agua oceánica, o la materia orgánica
disuelta coloreada (CDOM, coloured dissolved organic matter), que da su color amari-
llento a la aguas de ríos y lagos (típicamente en el norte de Europa). Estos compuestos
contribuyen a aumentar el coeficiente de absorción del “agua coloreada” proporcional-
mente a su concentración:
Sin embargo, cuando en el agua hay suspendidas partículas sólidas (SS, sólidos en sus-
pensión), la diferencia de índices de refracción entre el agua y estas partículas, hace que
la luz se disperse en ellas y sea, una parte, devuelta hacia el exterior del agua. La ra-
diancia que ascenderá dispersada por los SS será proporcional a su concentración [SS]
y procederá del primer espesor óptico que es hasta donde llega (y desde donde puede
volver a emerger) la mayor cantidad de energía radiante que entra en el agua:
El coeficiente σSS (λ) se llama sección eficaz de dispersión de los sólidos y será propor-
cional al área de las partículas dispersas. Como antes, esta radiancia espectral Lλ+ (d = 0)
es medida dentro del agua, ascendiendo (signo “+”) hacia la superficie; hacia fuera del
354
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
0.07
0.06
0.05
Reflectividad 800 mg/l
400 mg/l
0.04
200 mg/l
0.03
100 mg/l
0.02 50 mg/l
0.01
0.00
400 500 600 700 800 900
Longitud de onda (nm)
Figura 10.2. Espectro de reflectividad del agua con partículas minerales en suspensión. Adaptado de Hand
& Rundquist (1994).
agua saldrá una radiancia inferior, ya que una parte de la energía (de nuevo, en torno al
2 − 3 %) será reflejada hacia el interior.
Debido a la presencia de las partículas de SS, el agua se verá turbia; esta turbidez
se suele medir como la fracción de irradiancia reflejada a los 490 nm desde aguas pro-
fundas; esa fracción de energía reflejada (correspondiente a la fracción de la ecuación
anterior) se llama K490 . Esta banda de 490 nm es muy frecuente en los sensores de “color
oceánico”, como los CZCS, SeaWiFS, MODIS, MERIS, Sentinel-2, etc.
En todo lo anterior, se ha hablado de absorción por el agua y los pigmentos (y tam-
bién de dispersión por SS). Pero, entonces, ¿cómo se ven los pigmentos o el agua en
teledetección? Aunque los pigmentos y el agua absorben principalmente la luz, en el
interior del agua siempre existen dispersores que reflejan la luz en todas direcciones. En
el caso de la clorofila, el principal dispersor serán las propias paredes de las microalgas
que la contienen. En el caso del CDOM, los sólidos en suspensión que los suelen acom-
pañar. También dispersan fuertemente la luz las burbujas de aire que contiene el agua.
En el caso del agua totalmente pura y sin burbujas, los “defectos” que se producen por el
movimiento de sus moléculas serían los que actuarían como dispersores; también el agua
pura reflejaría una ínfima cantidad de luz, que se vería azul-verdosa, ya que es la longitud
de onda que más profundamente llegaría (sería menos absorbida) y más oportunidades
355
C UESTIONES DE TELEDETECCIÓN
0.014
3
[Chl−a] = 3 mg/m
0.012
0.010
reflectividad
3
[Chl−a] = 30 mg/m
0.008
0.006
0.004
0.000
400 500 600 700 800
Longitud de onda (nm)
Figura 10.3. Reflectividad del agua marina en función de la concentración de clorofila-a en ella;
sombreadas, las bandas de MERIS. Adaptado de Gower & King (2004).
Respuesta: (b) Las gotas de agua (o cristales de hielo) en las nubes forman un medio
muy disperso, en el que prima la reflexión en la superficie de las partículas sobre
356
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
8 km Solo hielo
(−40 ºC)
6 km Hielo / Liquida
(−20 ºC)
Agua liquida
1 km
Figura 10.4. Estratificación de la temperatura y las fases del agua en una nube en función de la altura.
Las nubes están formadas por gotas minúsculas de agua, que se encuentran en equilibrio
con vapor de agua y suspendidas en el aire (por corrientes ascendentes). El tamaño de las
gotas es más pequeño en los niveles más bajos (menos de 10 μm de diámetro), en los que
comienza la condensación del agua alrededor de partículas de aerosoles (que se llaman
núcleos de condensación), y aumenta gradualmente según se asciende en la nube (más
de 10 μm de radio): aquí se forman las gotas de lluvia. Según se asciende (figura 10.4),
también desciende la temperatura y pueden aparecer gotas de hielo (“granizo”) o gotas
de agua sobreenfriada (por debajo de −20◦ C, pero todavía líquidas); el tamaño de estas
partículas será menor cuanto más rápido haya evolucionado la nube. A partir de cierta
altura, lo que se encuentran son cristales de hielo (a temperaturas inferiores a −40◦ C),
que llegan a adquirir un tamaño mayor que las gotas (hasta casi 1 mm).
Observadas desde los sensores sobre ellas, las nubes se ven muy reflectantes, y con la
misma reflectividad en un amplio rango del espectro que incluye desde el visible, hasta
buena parte del infrarrojo de onda corta (desde los 300 nm hasta los 2 μm); esa reflecti-
vidad, para nubes ópticamente espesas, es del orden del 60 %. Esto se debe a que, al ser
357
C UESTIONES DE TELEDETECCIÓN
Figura 10.5. Albedo esférico (fracción de la radiación electromagnética reflejada cuando la radiación
incide igual desde todas direcciones) de una gota en función de su tamaño; equivale a la reflectividad de
una nube de gotas. Sombreadas, las bandas de MODIS. Fuente: NASA (MoDIS ATBD).
las gotas tan pequeñas, ofrecen una superficie muy grande sobre la que se refleja la ra-
diación solar y un volumen pequeño, en comparación, en el que la energía radiante sería
absorbida. Además, el índice de refracción del agua permanece prácticamente constante
en todo este rango (en torno a 1,3) por lo que la fracción reflejada es la misma en todas
las longitudes de onda.
La fracción de energía reflejada hacia el sensor depende, no obstante, del tamaño de
las gotas (o de los cristales de hielo) y, por ello, de la altura de la nube; esto permite
diferenciar unas nubes de otras. La luz es reflejada desde la superficie de las gotas y, por
lo tanto, la reflectividad por unidad de volumen depende de la concentración de las gotas
y de su superficie (el cuadrado de su radio efectivo, Nre2 ). De reflexión en reflexión,
la luz se difunde en el interior de la nube pero, por otro lado, es absorbida conforme
penetra por el volumen de las gotas, que es proporcional a la concentración de éstas y
al cubo de su radio efectivo, Nre3 . Esta absorción determina la profundidad hasta la que
la luz penetra, es decir, el espesor óptico de la nube, y es inversamente proporcional
al coeficiente de absorción. Desde ese espesor óptico es desde donde puede llegar la
radiancia reflejada hasta el sensor, por lo que la reflectividad de la nube será, al final,
inversamente proporcional al radio de las gotas. Al ser las gotas tan pequeñas, próximas
a la longitud de onda de la luz (radios efectivos entre 5 y 10 μm, frente a longitudes
de onda entre 0,4 y 2 μm), conviene medir su radio efectivo en “número de longitudes
358
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
1.00
nieve
0.75
reflectividad cirros
0.50 estratos
bosque
0.25
suelo
0.00
500 1000 1500 2000 2500
longitud de onda (nm)
Figura 10.6. Espectros de reflectividad típicos para la nieve, el suelo desnudo, la vegetación forestal, y las
nubes de cirros y estratos. Adaptada de: Jedlovec (2009).
de onda” equivalentes, ya que ésta es la longitud patrón con la que comparar el resto
de las longitudes microscópicas. De ese modo, cuando se dice que la reflectividad es
inversamente proporcional al radio efectivo, en realidad se dice que
λ
R(λ) ∼
re
359
C UESTIONES DE TELEDETECCIÓN
1.0
0.9
0.8
Reflectividad 0.7
t=0 h
t=48 h
0.6
0.5 t=60 h
t=72 h
0.4
t=84 h
0.3
400 500 600 700 800 900 1000 1100 1200
Figura 10.7. Variación del espectro de reflectividad de la nieve conforme pasa el tiempo: nieve fresca,
nieve seca, nieve compactada, nieve húmeda y nieve saturada. Adaptado de Qunzhu et al. (1983).
360
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
Figura 10.8. El color azul del hielo de un glaciar se debe a la dispersión de la luz por la estructura
cristalina del hielo junto con las minúsculas burbujas de aire atrapadas en él. La luz azul es la menos
absorbida por el hielo, y por tanto la única que llega al interior del glaciar y emerge de él.
Figura 10.9. Hielo “teñido” de rosa por las algas Chlamydomonas nivalis que crecen sobre ella. Fuente:
Wikimedia Commons, fotografía por Ökologix, CC-BY-SA.
361
C UESTIONES DE TELEDETECCIÓN
5. ¿Qué cambio en un suelo puede hacer que sea más reflectante en el visible e
infrarrojo?
362
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
0.7
0.6
Reflectividad 0.5
1%
0.4
5%
0.3
10%
0.2 15%
20%
0.1
0.0
400 600 800 1000 12001400 1600 1800 2000 2200 2400
Longitud de onda (nm)
Figura 10.10. Espectros de reflectividad de suelos con distinta humedad. Adaptado de Stoner &
Baumgardner (1981).
bién causa bandas de baja reflectividad allí donde el agua absorbe más: alrededor de los
1,45 μm, los 1,9 μm y los 2,7 μm.
La permeabilidad de un suelo, esto es, su capacidad para que el agua que cae sobre
él lo atraviese sin acumularse, se puede inferir de su reflectividad: suelos con mayor
permeabilidad, esto es, con grano más grueso y/o que retienen peor el agua entre ellos,
reflejarán más luz (para el mismo grado de humedad); cada superficie de contacto grano-
aire será una oportunidad para que la luz sea reflejada de nuevo hacia el exterior. Si el
agua atraviesa fácilmente un terreno será porque existirán más canales por los que pueda
fluir, esto es, más superficies de contacto arena-aire: los granos no estarán bien adheridos
unos a otros y esto aumentará también la reflectividad. Los suelos con menor permea-
bilidad, estarán formados por granos más finos que retienen mejor el agua entre ellos;
entonces también reflejarán menos luz, porque existirán más contactos entre granos, la
luz podrá llegar a través de ellos a mayor profundidad y será absorbida.
La dependencia de la reflectividad con el tamaño de grano (que determina la per-
meabilidad) se observa mejor en la región del visible y el infrarrojo cercano, ya que en
ella no se produce absorción por el agua. De nuevo, esta dependencia sólo caracteriza
el comportamiento en la superficie del terreno. Por ejemplo, en aquellos suelos en los
que el agua ha formado una costra superficial (por la acción mecánica de la lluvia, que
rompe los terrones de tierra, y por la cementación de los granos por sales depositadas
por el agua), la reflectividad será menor cuanto más desarrollada se halle dicha costra,
363
C UESTIONES DE TELEDETECCIÓN
0.4
Reflectividad
0.3 Mineral
Mineral ferroso
0.2
Orgánico (fíbrico)
0.1
Altamente ferroso
Orgánico (sáprico)
0
400 800 1200 1600 2000 2400
Figura 10.11. Espectros de reflectividad de distintos tipos de suelos. Adaptado de Stoner & Baumgardner
(1981).
que es compacta y con pocos huecos entre los granos que la forman. Bajo ella, el suelo
puede ser más poroso, pero es la costra lo que se observa desde el exterior.
La composición de los suelos determina también su espectro de reflectividad, debido
a las bandas de absorción de algunos compuestos, llamados cromóforos. En los suelos
minerales (los que tienen menos de un 20 % de materia orgánica), los principales cro-
móforos son el óxido de hierro, los carbonatos y los hidróxidos, que tienen bandas de
absorción en el visible y el infrarrojo. La concentración de estos cromóforos se suele
cuantificar mediante la diferencia de reflectividad entre dos longitudes de onda: una en
una de sus bandas de absorción y otra alejada de ellas. En los suelos orgánicos, el prin-
cipal cromóforo es la materia orgánica que contienen, principalmente de origen vegetal.
Según el grado de descomposición de la materia orgánica que contienen en sus capas
más superficiales, se clasifican en fíbricos (con materia orgánica apenas descompuesta,
por lo que el suelo tiene un color rojizo), hémicos y sápricos (la materia orgánica está
totalmente descompuesta, por lo que el color del suelo en el visible es negro). La dife-
rencia de coloración, perceptible en el visible, se hace más patente en el infrarrojo, tanto
en el cercano como en el medio, donde los suelos con mayor índice de saprofitación son
menos reflectantes. Para cuantificar la cantidad de materia orgánica de un suelo (SOM,
soil organic matter) se suele medir en el visible la curvatura del espectro de reflectividad
en torno a los 600 nm:
1
C = (R550 nm + R650 nm ) − R600 nm
2
364
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
6. Para identificar los tipos de minerales en un suelo rocoso (es decir, sin
vegetación ni suelo vegetal) se debe estudiar el comportamiento de su
espectro. . .
Respuesta: (b) Excepto algunos minerales, como los óxidos de hierro que tienen ban-
das de absorción que abarcan parte del espectro visible y del infrarrojo cercano,
la mayoría de los minerales (óxidos, hidróxidos y carbonatos) tienen bandas de
absorción en el SWIR, que se estudian en la ventana atmosférica entre las 2,1 y
2,5 μm (llamado el SWIR-2, en terminología del sensor OLI del Landsat 8).
365
C UESTIONES DE TELEDETECCIÓN
10−12
1 2 3 4 5−9 13−14
ASTER
1 2 3 4 5 7 6
Landsat ETM+
0
0.5 1.0 2.0 5.0 10.0
Longitud de onda ( μ m)
Figura10.12.ComparacióndelasbandasdeASTERydeLandsatETM+ysuubicaciónrespectoalas
bandasatmosféricas(lacurvarojarepresentalatransmisividadmediadelaatmósferaterrestre).
Fuente:NASA/JPL.
Los minerales hidratados, que contienen agua adsorbida, tienen también bandas de
absorción correspondientes a las moléculas de agua, si bien ligeramente desplazadas
respecto a las bandas del vapor de agua (lo que permite observarlas a través de la atmós-
fera). Este desplazamiento es análogo al que se observa en el agua líquida o el hielo: se
debe a las otras moléculas que rodean al agua y que modifican la anchura y el mínimo
de sus bandas de absorción (porque parte de la energía del agua puede ser transferida a
ellas, o viceversa).
Las bandas de absorción de los minerales apenas modifican la forma del espectro
más que como “abollamientos” en él: por ello requieren medidas en bandas estrechas
alrededor del máximo de absorción y con gran resolución radiométrica. Esta absorción
se debe a los grupos químicos que hay presentes (iones Fe2+ /Fe3+ , hidróxidos, carbona-
tos), y no a la composición exacta de los minerales: para diferenciar éstos se requerirían
medidas hiperespectrales con bandas muy estrechas, algo que actualmente sólo se puede
lograr en el laboratorio. Así se pueden diferenciar los minerales ferrosos, los carbonatos
y minerales “máficos” (que contienen elmentos pesados, como magnesio y hierro, de los
que deriva su nombre) o los silicatos y minerales “félsicos” (feldespatos).
El sensor multiespectral más utilizado para el estudio de los minerales es el japonés
ASTER (Advanced Spaceborne Thermal Emission and Reflectance Radiometer) a bordo
del satélite Terra de la NASA. De sus 14 bandas, 6 se hallan en el SWIR, y otras 5
en el infrarrojo térmico (éstas se usan para caracterizar minerales por sus diferentes
emisividades espectrales en este rango); ver figura 10.12. Por ejemplo, para detectar los
carbonatos (particularmente cálcicos) por su banda de absorción en 2,35 μm, se calcula
elcocientedereflectividadesespectrales
366
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
Figura 10.13. Mapa temático de los tipos de minerales presentes en una escena ASTER de Mountain Pass,
en California (EE.UU.). A la izquierda, los valores más altos de los RBD centrados en las bandas 5, 6, 7 y
Z8. A la derecha, mapa temático derivado: rojo (RBD8>1.08) calcitas, azul (RBD7>0.95) dolomitas,
amarillo(RBD6>1.03)silicatos,magenta(RBD5>1.1)hidroxi-silicatos.Calculadosiguiendo
aRowan&Mars(2003).
R7 + R9
RBD =
2R8
367
C UESTIONES DE TELEDETECCIÓN
(a)
Cutícula
Epidermis
Parénquima en empalizada
Parénquima esponjoso
Epidermis
Hoja de judía Hoja de pino
(b) (c)
Figura10.14.Estructuramicroscópicadeunahoja:
(a)esquemadepartesdelahoja,
(b)y(c)imágenesSEMdehojasdecaducifoliaydeconífera.
Las hojas de la vegetación tienen una capa externa, la epidermis, recubierta de una ce-
ra (la cutícula). En ella se produce la primera reflexión de la luz. Bajo la epidermis se
hallan las células guardianas que se expanden y contraen para cerrar los poros abiertos
al exterior o estomas, con los que se regula el intercambio de vapor de agua (la trans-
piración) y la entrada de dióxido de carbono. Los tejidos internos (figura 10.14) están
formados por el mesófilo, constituido por las células fotosintéticas de la planta. Estas
células poseen muchos cloroplastos en su citoplasma, en los que se produce la función
clorofílica gracias a moléculas de pigmentos que absorben la energía de los fotones de
la luz solar y la transfieren a reacciones bioquímicas.
Los principales pigmentos de las hojas son las clorofilas y los carotenoides. Las clo-
rofilas a y b absorben en el rojo y el azul del espectro visible, y causan el color verde
habitual de las hojas. Los carotenoides amplían el espectro de energías (y de longitudes
de onda) en el que las plantas pueden aprovechar la luz: los β-carotenos absorben en el
azul, dando un color amarillento a algunas hojas; los xantófilos, otro tipo de carotenoi-
des, absorben luz en el la región verde-azulada (entre los 400 − 500 nm), proporcionan
un color amarillo o naranja a las hojas (figura 10.15). Además de los pigmentos foto-
sintéticos, frutos, hojas o pétalos (hojas especializadas de las flores) pueden presentar
antocianinas, que absorben luz en la banda de de 530 nm, dándoles colores rojizos.
368
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
100
Clorofila B
80
Absortividad
60
Clorofila A
40 Carotenoides
20
verdes como en hojas secas. La respuesta espectral, en esta parte del espectro, estará
determinada por la cantidad de luz que refleje la cutícula de la hoja y el número de re-
flexiones internas que la luz sufra en el interior de la hoja debido a cambios de medio:
cuantas más reflexiones internas, más oportunidades tendrá de ser reflejada.
Según la hoja envejece suceden dos cosas: su actividad fotosintética disminuye y
se agrandan las cavidades con aire de su interior, reduciéndose por tanto su número.
La disminución de la actividad fotosintética se debe a que disminuye la producción de
clorofilas; desaparecen las bandas de absorción en el azul, y las hojas adquieren tonos
amarillentos debidos a los xantófilos. La reducción del contenido de clorofila se puede
deber a cambios estacionales; el mejor ejemplo de esto son las hojas de arce, que ad-
quieren color rojo en invierno, al disminuir la clorofila y ser sustituida por antocianinas.
Con la senescencia de las hojas también se reduce su contenido en agua, los tejidos son
menos vigorosos y se abren dentro de ellos conexiones entre las cavidades que contenían
el aire en el interior de la hoja. En las paredes de esas cavidades se reflejaba una y otra
vez la luz, haciendo que atravesase más eficientemente el espacio interno de las células
donde podía ser aprovechada, es decir, absorbida. Al agrandarse las cavidades y dismi-
nuir esas reflexiones, la luz no se refleja tanto y se transmite; disminuye su reflectividad,
en general, pero sobre todo en el NIR. En el NIR, dado que no se produce absorción, se
observa una alta reflectividad; de hecho, esta característica diferencia la vegetación del
resto de las cubiertas.
369
C UESTIONES DE TELEDETECCIÓN
0.7
Caducifolia
0.6 Hierba seca
Hierba
0.5 Conífera
Reflectividad
0.4
0.3
0.2
0.1
0.0
500 1000 1500 2000 2500
Longitud de onda (nm)
Figura10.16.Espectrodereflectividad(delaboratorio)dedistintascubiertasvegetales.
DatostomadosdelaASTERSpectralLibrary.
Respuesta: (c) Como sucede en las plantas terrestres, las algas marinas disponen de
diferentes pigmentos fotosintéticos. Todas ellas tienen clorofila-a, que absorbe en
el azul y en el rojo y por eso todas tienen color verdoso. Pero además, poseen otros
370
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
pigmentos fotosintéticos que les permiten aprovechar todo el rango del espectro
solar que penetra en el agua: ficobilinas y carotenoides (que les dan un color
rojizo), clorofila-b (que les da un color verde vivo), o clorofila-c y xantófilas (que
les da un color marrón o pardo).
Existen tres grupos de algas marinas macrófitas, y se suelen clasificar por su color, que
se relaciona con los pigmentos que poseen, y éstos, con las rutas bioquímicas que utili-
zan para convertir la energía de la luz solar. Estos tres grupos son las algas rojas (rho-
dophyta), algas pardas (phaeophyta) y algas verdes (chlorophyta). También existen algas
unicelulares, llamadas cianofíceas (cyanophyta), un grupo dentro de las cianobacterias
(tamaños entre 1 − 10 μm), que antes se llamaban algas verdeazuladas, y que forman
parte del fitoplancton.
La coloración de las algas rojas se debe a las ficobilinas: ficoeritrina (rojiza), fi-
cocianina (azulada). También a los carotenoides, que enmascaran el color verde de la
clorofila-a. No obstante, algunas especies pueden mostrar irisaciones azuladas bajo el
agua. Estas algas se pueden encontrar desde zonas costeras a otras más profundas, don-
de son más frecuentes.
Las algas pardas poseen clorofilas a y c (pero no b), pero estos pigmentos suelen
estar enmascarados por xantofilas (de color amarillento y pardusco). Algunas de estas
algas pardas poseen grandes talos que sostienen con ayuda de bolsas de aire, llegando a
formar grandes bosques marinos como los de sargazos y de laminariales (kelp).
Las algas verdes poseen clorofilas a y b, que les da su color vivo particular. Entre las
macrófitas son menos abundantes que las pardas y las rojas.
Las teledetección se emplea, principalmente, para cartografiar la distribución de las
algas y cuantificar la biomasa que contienen sus bosques. Para identificar su ubicación y
extensión, en muchos casos basta calcular el NDVI: como vegetales, si se hallan suficien-
temente cerca de la superficie del mar, reflejan fuertemente la radiación en el infrarrojo
cercano. El NDVI se ha relacionado con la biomasa de los bosques de kelp, que tienen
no sólo interés por formar hábitats de muchas especies de peces, sino porque son una
barrera natural que frena la erosión de la costa por las olas.
También se ha utilizado la teledetección para diferenciar especies de algas en función
de su reflectividad en diferentes bandas, es decir, de su color. El equilibrio entre unas
especies y otras se suele ver afectado por cambios en la calidad del agua: su temperatura,
salinidad, riqueza en oxígeno, presencia de contaminantes, etc. En este sentido, las algas
actúan como bioindicadores: determinar periódicamente el balance de especies permite
monitorizar la calidad del ecosistema marino.
371
C UESTIONES DE TELEDETECCIÓN
(Esta explicación de la tasseled-cap sigue la dada por Crist & Kauth, 1987)
La transformación tasseled-cap fue introducida para las bandas del sensor MSS de
los primeros Landsat en 1976 y extendida para los sensores TM en 1984. Esta transfor-
mación convierte las “coordenadas” de un píxel en el espacio de las bandas Landsat
(cada coordenada es su valor de reflectividad espectral en una de esas bandas) en un
número menor de coordenadas, habitualmente 3, a lo largo de las que se describen mejor
las características espectrales de una cubierta; en este caso, del estado de los cultivos.
Cuando se representan los píxeles de diferentes cultivos usando como coordenadas
los valores de reflectividad en las tres bandas del visible y en el NIR, se observa que se
agrupan formando una especie de cono inclinado y deformado (figura 10.17). La base
del cono, que se observa inclinada, corresponde a los suelos desnudos. La parte más alta
del cono, corresponde a la vegetación más vigorosa; como descolgándose, se encuentran
puntos correspondientes a vegetación senescente (amarilla).
Kauth & Thomas interpretaron gráficamente esta distribución como una capucha
(cap) con borla (tassel), lo que dio nombre a la transformación. La idea de la transforma-
ción es describir la posición de un píxel dentro de esta capucha. La línea de suelos indi-
ca el brillo de éstos: ésta es la primera coordenada que se define, midiendo la posición
proyectada del píxel sobre esa línea. Perpendicularmente a ésta, se encuentra la altura
sobre la capucha, que indica el verdor del cultivo: ésta es la segunda coordenada. Con
estas dos coordenadas se puede describir el 95% de las variaciones en el “color” de la
cubierta; esto es debido a que las tres bandas visibles están muy correlacionadas entre sí.
Estas nuevas coordenadas se obtenían con la siguiente transformación lineal:
Brillo = 0,433 × MSS1 + 0,632 × MSS2 + 0,586 × MSS3 + 0,264 × MSS4
Verdor = −0,290 × MSS1 − 0,562 × MSS2 + 0,600 × MSS3 + 0,491 × MSS4
372
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
0.4
s
bosques sverde
ez de lo ama
rillos
dobl
0.3
Band 4 (NIR)
0.2
los
ue
loss
o de
0.1 plan
0.0
s
ua
ag
0.0 0.1 0.2 0.3
Band 3 (red)
Crist & Cicone extendieron esta transformación en 1984 para usar las nuevas bandas
del Thematic Mapper, que incluían bandas en el infrarrojo de onda corta (SWIR). Aun-
que en este caso es más difícil visualizar la “capucha” (en un espacio de 6 dimensiones),
sigue existiendo una dirección que indica el brillo, y otra que indica el verdor. Las ban-
das del SWIR aportan nueva información y aparece variabilidad en una nueva dirección;
esta dirección se identifica con la humedad del suelo. La transformación es:
Brillo = 0,3037 × T M1 + 0,2793 × T M2 + 0,4343 × T M3
+0,5585 × T M4 + 0,5082 × T M5 + 0,1863 × T M7
Verdor = −0,2848 × T M1 − 0,2435 × T M2 − 0,5436 × T M3
+0,7243 × T M4 + 0,0840 × T M5 − 0,1800 × T M7
Humedad = 0,1509 × T M1 + 0,1793 × T M2 + 0,3299 × T M3
+0,3406 × T M4 − 0,7112 × T M5 − 0,4572 × T M7
De nuevo, el número de coordenadas se ha reducido a la mitad y se les ha dotado de un
significado biofísico.
¿En qué se parece la transformada tasseled-cap al análisis de componentes prin-
cipales (PCA)? Como en la PCA, la transformada tasseled-cap reduce el número de
dimensiones de los datos: de las 6 bandas Landsat, la tasseled-cap extrae el 95 % de la
373
C UESTIONES DE TELEDETECCIÓN
variabilidad con sólo 3 componentes; en el caso de hacer una PCA de una imagen, pode-
mos encontrar que ese 95 % de la variabilidad (en este caso, la varianza) se describe con
2 o 3 componentes. Sin embargo, existe una diferencia importante entre ambas aproxi-
maciones: la tasseled-cap está basada en un estudio estadístico de la correlación entre
bandas sobre muchos cultivos y a lo largo de todo su ciclo fenológico (desde la siembra,
hasta la recolección). Ese estudio ha definido unas direcciones de variación mediante
unos coeficientes que son siempre los mismos; estas direcciones poseen un significado
biofísico, y permiten interpretar cualquier escena de vegetación. En PCA, esos coefi-
cientes se calculan para cada escena, de forma que las componentes obtenidas no tienen
un significado biofísico inmediato: se deben interpretar para cada caso.
Respuesta: (c) El NDVI mide la relación entre la luz absorbida en el rojo por la clo-
rofila y la reflejada en el infrarrojo cercano (NIR) por la estructura de las hojas.
Cuando la vegetación forma un dosel, la radiación NIR es capaz de penetrar y
reflejarse desde un cierto número de capas de hojas, por lo que informa del LAI
correspondiente a esas primeras capas; cuando el dosel es más espeso, el NDVI
no informa acerca de las más profundas.
374
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
0.65
NDVI
0.60
0.55
0.5 1.5 2.5 3.5 4.5 5.5 6.5
LAI
Figura 10.18. Relación aproximada NDVI - LAI para hojas de Bonetero del Japón (Euonymus japonicus).
Adaptado de Lee et al. (2004).
getation index). Este índice caracteriza el ascenso de la reflectividad desde el rojo hasta
el infrarrojo cercano, dado por
RNIR − RR
NDV I =
RNIR + RR
Dado que las hojas absorben en el rojo, la reflectividad en el rojo depende prácticamente
sólo de la primera capa de hojas: apenas pasa luz roja a la siguiente, y mucho menos, es
transmitida a través de la primera para llegar al observador. Por el contrario, la transmi-
sión del NIR hacia las siguientes capas, que lo vuelven a reflejar, es considerable, como
lo es la fracción de esa radiación reflejada por dichas capas. El NDVI crece, por lo tanto,
con el número de capas de hojas y, por lo tanto, con el LAI (10.18). El valor exacto que
toma la relación entre ambos depende, no obstante, de la especie vegetal.
En el caso de un LAI bajo, la reflexión de la luz sobre el suelo puede afectar al
NDVI: ya no sólo caracterizará el dosel, sino el suelo que hay bajo él. Para tener en
cuenta este efecto, se corrige el NDV I para tener en cuenta las componentes en la banda
roja procedentes del sustrato. Este índice modificado se denomina SAV I (soil adjusted
vegetation index) y se define como
(1 + L)(RNIR − RR )
SAV I =
RNIR − RR + L
En esta expresión, L juega el papel de factor de corrección de la reflectividad debida
al suelo, y caracteriza la diferente transmisión a través de las hojas de las longitudes
de onda del rojo y el infrarrojo cercano. No existe un método para determinar el valor
adecuado para L, aunque en la bibliografía se suele recomendar tomar L = 0,5.
375
C UESTIONES DE TELEDETECCIÓN
dispersión (scattering) Propagación de nuevas ondas de luz tras interactuar una onda
con las partículas microscópicas en un medio. Las nuevas ondas se forman co-
mo ondas esféricas alrededor de cada partícula, por lo que se propagan en todas
direcciones, dando lugar a radiación difusa que procede del medio.
fluorescencia Emisión radiante por una sustancia en una longitud de onda tras haber
absorbido energía radiante en otra. La energía absorbida en primer lugar excita
estados electrónicos en las moléculas de la sustancia que decaen a otros estados
intermedios dando lugar a una emisión de radiación menos energética que la de
partida.
376
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
índice área foliar (LAI) Cociente entre la superficie de las hojas sobre un área de te-
rreno relativa a ésta. El índice de área foliar se puede interpretar como el número
de capas de hojas que forman un dosel.
materia orgánica del suelo (SOM) Partículas de materia orgánica que forman parte de
un suelo. Su origen son los residuos orgánicos de plantas y animales y se suelen
hallar en estado de descomposición.
pigmento Compuesto químico cuyas moléculas absorben fotones en una banda de ener-
gías; estos fotones producen cambios en el estado energético de molécula. La mo-
lécula puede, posteriormente, sufrir un cambio químico, o devolver esa energía de
excitación en forma de nuevos fotones, o puede convertirla en energía térmica que
cede al medio.
reflexión difusa Reflexión de una onda electromagnética que penetra en una superficie
rugosa o en un medio con partículas dispersoras en su interior. Las ondas produci-
das en las dispersiones con las irregularidades de a superficie o con las partículas
se propagan en todas direcciones. La distribución de la radiancia tras una reflexión
difusa perfecta sigue la ley de Lambert.
377
C UESTIONES DE TELEDETECCIÓN
10.5. BIBLIOGRAFÍA
R.N. Clark (1999). “Spectroscopy of Rocks and Minerals, and Principles of Spec-
troscopy”. En: Manual of Remote Sensing, Vol. 3: Remote Sensing for the Earth
Sciences, pp. 3-58. Editor A.N. Rencz. John Wiley and Sons, 1999.
E.P. Crist, R.J. Kauth (1996). “The Tasseled Cap De-Mystified”. Photogrametric
Engineering and Remote Sensing, 52(1): 81-86.
L. Han, D.C. Rundquist (1994). “The response of both surface reflectance and
the underwater light field to various levels of suspended sediments: preliminary
results”. Photogrammetric Engineering & Remote Sensing, 60:1463-1471.
R.J. Kauth, G.S. Thomas (1976). “The Tasselled Cap – A Graphic Description
of the Spectral-Temporal Development of Agricultural Crops as Seen by LAND-
SAT”. LARS Symposia, paper no. 159.
M.D. King, S-C. Tsay, S.E. Platnick, M. Wang, K-N. Liou (1997). “Cloud Re-
trieval Algorithms for MODIS: Optical Thickness, Effective Particle Radius, and
Thermodynamic Phase. MOD06—Cloud product”. MODIS Algorithm Theoreti-
cal Basis Document, No. ATBD-MOD-05, NASA.
378
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
K.S. Lee, Y.I. Park, S.H. Kim, J.H. Park, C.S. Woo, K.C. Jang (2004). “Remote
sensing estimation of forest LAI in close canopy situation”. En: Proceedings of
ISPRS conference, Istanbul, Turkey, 2004.
L.C. Rowan, J.C. Mars (2003). “Lithologic mapping in the Mountain Pass, Cali-
fornia area using Advanced Spaceborne Thermal Emission and Reflection Radio-
meter (ASTER) data”. Remote Sensing of Environment, 84: 350-366.
F.D. van der Meer et al. (2012). “Multi- and hyperspectral geologic remote sen-
sing: A review”. International Journal of Applied Earth Observation and Geoin-
formation, 2012:112-128.
M.R. Slaton, E.R. Hunt, W.K. Smith (2001). “Estimating near-infrared leaf re-
flectance from leaf structural characteristics”. American Journal of Botany, 88(2):
278-284.
MODIS Atmosphere
URL: http://modis-atmos.gsfc.nasa.gov/index.html
Sitio web de los productos atmosféricos derivados de las imágenes MODIS.
379
C UESTIONES DE TELEDETECCIÓN
Página con las posibles aplicaciones de las imágenes del sensor ASTER. Las ban-
das del sensor usadas en esas aplicaciones se pueden ver en esta página del mismo
sitio
http://asterweb.jpl.nasa.gov/characteristics.asp
380
E L “ COLOR ” DE LAS CUBIERTAS TERRESTRES
381
Tema 11
GUION-ESQUEMA
El radar altimétrico
Interferometría
C UESTIONES DE TELEDETECCIÓN
Gravimetría
SRTM
ía
metr
ero
erf
Int
SWATH
o
Ec s
n da
oo
cr
Mi
384
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
11.1. INTRODUCCIÓN
El radar es un sensor activo, ya que emite ondas electromagnéticas y las recibe refle-
jadas por las cubiertas en la superficie terrestre. El tiempo de vuelo de la onda electro-
magnética a y desde el objetivo alcanzado (el “target”) permite determinar la distancia a
éste. Como la potencia que transporta la onda de radiofrecuencia emitida por el radar es
conocida y la atmósfera es prácticamente transparente a esta radiación, es posible ade-
más calcular qué fracción de la energía de la onda es retrodispersada desde la superficie
de la tierra; esto permite obtener imágenes de ecos que proporcionan una representación
de la rugosidad de ésta. Pero el radar permite todavía llevar a cabo otras medidas más
importantes, desde el punto de vista de la teledetección. Al ser las ondas de radiofre-
cuencia ondas de frecuencia baja, pueden ser registradas como oscilaciones del campo
electromagnético, esto es, guardar la información de su fase. Las propiedades ondulato-
rias permiten, entonces, determinar distancias pequeñas con mucha precisión, lo que es
de utilidad para calcular desplazamientos o deformaciones del terreno.
11.2. CUESTIONES
1. Una antena de radar produce una onda electromagnética de longitud de onda dada
por:
a) el tamaño de su antena
b) la frecuencia de su emisión
c) la longitud de onda de su emisión
d) la inclinación del lóbulo principal respecto al nadir
385
C UESTIONES DE TELEDETECCIÓN
5. Los sensores radar son capaces de enviar y recibir ondas electromagnéticas polari-
zadas, es decir, cuyos campos eléctricos oscilan sólo en una dirección: horizontal
(H) o vertical (V) respecto al terreno. La retrodispersión en este terreno puede
cambiar la polarización, de modo que tras emitir una onda V se pueden recibir
ondas polarizadas verticalmente (V) u horizontalmente (H). Esto permite obtener
imágenes HH, HV, VH, VV. ¿Qué hace que estas imágenes sean distintas?, es
decir, ¿qué se puede ver en estas imágenes?
386
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
a) se usaron ondas de sonido (sónar) que se propagan por el agua del mar y
rebotan en el fondo de éste
b) usando ondas de radar de varios kilómetros de longitud de onda, que son
capaces de penetrar hasta el fondo marino
c) midiendo con precisión la altura de la superficie del mar
d) midiendo el “empujón gravitatorio” que causaban las elevaciones del fondo
del mar sobre el satélite en su órbita
387
C UESTIONES DE TELEDETECCIÓN
b) radar Doppler, que muestra la velocidad con que se está moviendo la super-
ficie cuando pasa el satélite
c) SAR, que muestra las fluctuaciones del speckle debidas a la corrugación
(contracción o encogimiento) de la superficie
d) termografía pasiva de microondas, que muestra las variaciones de la tempe-
ratura o emisividad que induce la deformación del terreno
10. ¿Cómo puede un radar a bordo de un satélite medir la velocidad del viento sobre
el océano, si el aire (y la atmósfera en general) es transparente a las microondas
que usan los radar?
388
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
λ· f = c
389
C UESTIONES DE TELEDETECCIÓN
λ
λ
λ’= λ − c v
v=c/5
Emisor Receptor
λ
c+v
f ’=
λ
v=c/5
c
f=
λ
Figura 11.1. Producción del efecto Doppler. Arriba: cuando el emisor se acerca al receptor. Abajo: cuando
el receptor se acerca al emisor.
λ′ = λ 1 −
c
390
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
donde v es la velocidad de acercamiento del sensor, que emite la onda, respecto a una
cubierta: positiva cuando se acerca, negativa cuando se aleja. En el camino de vuelta
tras su reflexión, sucede lo mismo: en este caso es el terreno que dispersa la onda elec-
tromagnética el que se ve acercándose o alejándose del sensor desde éste, que recibe el
eco. En este caso, la longitud de onda que recibe el sensor, emitida en este caso por la
cubierta, será v
λ′′ = λ′ / 1 +
c
El cambio final en la longitud de onda será:
′′ 1 − v/c v
Δλ = λ − λ = 1 − ≃2 λ
1 + v/c c
Este cambio es pequeño, dada la magnitud de la velocidad de la luz (de centenares de mi-
les de kilómetros por segundo) comparada con las velocidades orbitales (de kilómetros
por segundo), pero aun así detectable (y útil).
Un sensor radar observa, casi siempre, la superficie de la tierra en una orientación oblicua
(es decir es un “side-looking”). Ésta es una diferencia importante por comparación con
los sensores ópticos que suelen mirar verticalmente hacia la superficie terrestre (“down-
looking”). Al igual que la mayoría de éstos, también aprovecha su desplazamiento en
la órbita para obtener imágenes de líneas sobre el terreno, que apiladas una tras otra,
forman la imagen radar del swath: son sensores de barrido. Más que en los sensores
ópticos, estas dos direcciones de sensado (a lo largo de la trayectoria y a lo largo de las
líneas, es decir, perpendicularmente a la trayectoria) hacen que los sensores radar tengan
dos resoluciones espaciales muy diferentes: la resolución en la dirección de avance del
sensor (along-track) y la resolución en rango, es decir, a lo largo de la dirección de cada
línea de barrido.
391
C UESTIONES DE TELEDETECCIÓN
Emisión Recepción
Figura 11.2. Observación de la Tierra por un sensor radar “side-looking”. La onda es emitida por la antena
como un pulso, con su potencia dirigida dentro del haz de irradiación; se refleja en el suelo, y es recibida
como un eco por la misma antena. En la figura se representa la emisión en la mitad izquierda y la
recepción en la mitad derecha usando la simetría, pero el sensor es, en realidad, único.
Cuando el haz de radar incide sobre el terreno, el frente de onda toca a éste en
un punto y, debido a su orientación oblicua, avanza tocando ese terreno a lo largo de
toda una franja. De cada uno de los puntos de esa franja se dispersa en dirección al
sensor una señal electromagnética: la señal procedente de toda la franja se denomina
eco del radar. Cuando el eco llega al sensor, es captado por la antena, amplificado y
analizado electrónicamente. La amplificación es importante porque la potencia emitida
por el sensor radar es pequeña, del orden de unos 50 W (como una bombilla), pero la
potencia del eco es del orden de 10−17 W, una magnitud tan pequeña que es difícil de
imaginar. Tras la amplificación, la señal se “demodula”, es decir, se elimina la frecuencia
de la onda emitida por el sensor, llamada frecuencia portadora, de manera que sólo queda
la parte de la señal que se ha originado en el terreno; ésta se caracteriza por una amplitud
(o envolvente) y una fase (o retraso respecto a la portadora). La señal de amplitud es con
la que se genera una imagen radar, pero para determinarla, es necesario “escuchar” una
parte del eco durante un tiempo mínimo ts o tiempo de muestreo. Es decir, la amplitud
que se mide corresponde a una cierta distancia sobre el terreno rg (la que recorre el frente
de onda durante ese tiempo de “escucha”) dada por
1 cts
rg =
2 sin θ
392
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Blanco A
Blanco B
Recepción
Tiempo
resolución en rango
treo
mues
po de
Tiem
Emisión
Distancia o rango
Figura 11.3. Resolución en rango de un radar: los objetos A y B son indistinguibles, porque sus señales
(procedente del pulso de la onda emitida o de su correspondiente al tiempo de muestreo) llegan
simultáneamente al sensor.
Por otro lado, en la otra dirección, la dirigida en paralelo al movimiento del sensor, la
anchura del haz radar impone un límite a la resolución espacial. La onda electromagnéti-
ca que emite la antena del radar no se propaga con igual potencia en todas direcciones; se
propaga hacia la superficie de la Tierra y concentrada en un haz centrado en un “disco”
que parte de la antena y es perpendicular a ésta. La resolución espacial rb de un radar, en
esa dirección en que barre la superficie terrestre, aumenta cuanto mayor sea la relación
entre la longitud de la antena L y la longitud de la onda electromagnética λ (y también
varía, claro, en función de su distancia a la superficie de la Tierra, R). Se puede decir
que, aproximadamente, la resolución de un radar (de apertura real) viene dada por:
λ
rb ≃ R
L
Así, el SLAR (side-looking airborne radar), un radar (de apertura real) aerotransportado
utilizado hasta finales de los años 1980, utilizaba una antena de 15,25 m a una frecuencia
de 10 GHz (longitud de onda de 3 cm) y, volando a una altura de 8230 m podía obtener
393
C UESTIONES DE TELEDETECCIÓN
ath
sw
rb
imágenes con una resolución de unos 10 − 15 m. Esta distancia sobre el terreno se puede
reducir o bien con antenas de mayor tamaño (aumentando L) o bien reduciendo λ (pero
esto tiene otras implicaciones en cuanto a lo que puede “ver” o no el sensor).
Respuesta: (b) Un SAR se aprovecha de las diferencias en la señal recibida desde posi-
ciones sucesivas en la órbita del satélite, por lo tanto, la mejora de la resolución
se producirá en esta dirección, la de avance del satélite. En la dirección perpen-
dicular, la resolución espacial seguirá dependiendo de la duración del pulso y del
tiempo de muestreo, así como de la inclinación del haz respecto al terreno.
Debido a la altura a la que se mueven los satélites artificiales, una resolución adecua-
da para estudios ambientales de un sensor radar requeriría una antena kilométrica, que
es difícil de transportar y de desplegar en el espacio. Para mejorar esta resolución de-
terminada por el tamaño de la antena, se “sintetiza” una antena más grande (de varios
kilómetros) tratando matemáticamente sucesivas medidas a lo largo de la trayectoria del
394
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
L equivalente
L
rb = L / 2
satélite. Esta técnica se denomina SAR (synthetic aperture radar, o radar de apertura
sintética).
La base de la técnica SAR es la recepción por el sensor, dentro de su haz radar,
de la señal dispersada por un mismo punto en sucesivas adquisiciones según el sensor
se mueve; de un mismo punto y el conjunto de puntos adyacentes dentro del haz (la
recepción de la señal se hace de todos ellos simultáneamente). Esta presencia de la señal
de un punto en varias adquisiciones se aprovecha para calcular la imagen que se habría
obtenido de él desde una antena tan grande como la distancia recorrida por el sensor
mientras su haz ilumina ese punto. Y esto lleva a un resultado paradójico: el tamaño
mínimo del objeto resuelto por un SAR es semejante al tamaño de su antena (la mitad,
en el caso ideal); cuanto más pequeña sea la antena, más ancho será su haz radar y,
por ello, en más adquisiciones sucesivas será visible el mismo punto sobre el terreno, y
entonces mayor será el tamaño de la antena equivalente.
El SEASAT de la NOAA fue el primer radar de apertura sintética a bordo de un
satélite para uso civil. Fue lanzado en 1978 y estuvo en funcionamiento 110 días en
395
C UESTIONES DE TELEDETECCIÓN
una órbita casi polar (aunque no heliosíncrona) a 800 km de altitud. Su antena era de
10 m y su portadora de 1,2 GHz (longitud de onda de 23 cm), por lo que su anchura
de haz sobre el terreno sería de rb ≃ 18 km. Gracias a la técnica SAR, esta resolución
se redujo hasta los 25 m, similar a la resolución rg sobre cada línea del terreno, aunque
mayor a la teóricamente alcanzable de 5 m. Similar al SEASAT era el sensor ASAR en
la órbita del ENVISAT, también a unos 800 km de altura: su antena de 10 m de longitud
operando a 5,331 GHz (longitud de onda de 5,6 cm) proporcionaría una resolución de
4,5 km. Evidentemente, esta resolución no es la que proporcionó este instrumento. La
antena sintetizada del ASAR era de casi 4 km, de ahí que su resolución espacial fuese
rb = 10 m (en el modo de onda). Los nuevos SAR a bordo de los Sentinel-1, poseen
características similares, y ya prometen llegar a la resolución teórica máxima de 5 m en
los modos de “Wave mode” y “Strip map”.
Si cuanto más pequeña es la antena de un SAR, mejor es su resolución espacial, ¿por
qué no se construyen antenas más pequeñas? La razón es la potencia de la onda recibida:
cuanto mayor sea la antena, más potencia recibe. Por otro lado, el tiempo de muestreo
no se puede reducir indefinidamente, y también ello reduce la cantidad de señal recibida,
haciendo peligrar su calidad respecto al ruido térmico de la antena; así que al final la
resolución espacial estaría limitada por rg .
Respuesta: (a) Las imágenes de radar se calculan aplicando una corrección a la pérdi-
da de potencia por la propagación de la onda, de manera que la distancia sensor-
terreno no aparece en la imagen. Sí que influyen en cada píxel (y de hecho, es
sobre lo que informa la imagen radar) la pendiente del terreno en ese punto, par-
ticularmente respecto a la dirección de observación desde el satélite, la rugosidad
del terreno, que condiciona la forma en que es dispersada la onda incidente, y el
material que forma el terreno, especialmente, sus propiedades eléctricas (ya que
la onda es una onda electromagnética).
396
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Potencia emitida
Potencia recibida
Sensor Sensor
n
p ció
ce
re
de
z
Ha
Ha
zd
ee
1
mi
x 1
sió
R2 x
n
R2
Potencia incidente
Potencia dispersada
Blanco en la superficie
Figura 11.6. Ecuación del radar. La potencia recibida es función de la potencia emitida por el sensor, de la
ganancia de los haces de emisión y recepción, de la distancia que hace que las ondas emitida y recibida se
expandan, y de la reflectividad y tamaño del blanco (es decir, de su sección eficaz equivalente).
haz. Este factor, no obstante, varía de forma suave, y el criterio de dentro-fuera del haz
es un criterio arbitrario. Este factor de ganancia dependiente de la dirección es el mismo
para la recepción de la señal dispersada desde el terreno: allí donde más energía llega,
es también donde más sensible será el sensor a la señal dispersada, es decir, la recibirá
más amplificada que otra de igual potencia pero dispersada desde otro punto al que llegó
menos energía del sensor. Además, la potencia recibida depende de la longitud de onda:
es mucho más fácil detectar las longitudes de onda más largas que las más cortas. La
relación matemática que describe esto se llama la ecuación del radar:
G(θ) G(θ) λ2
Pr = Pe σT
4πR2 4πR2 4π
El coeficiente σT es el único que no se describe por las propiedades de la antena o por
la geometría de la emisión y la recepción: es la fracción de la potencia que incide en el
terreno que es dispersada en la dirección del sensor. Por eso se llama la sección eficaz de
radar, es decir, de cada metro cuadrado de terreno, la fracción que estaría efectivamente
reflejando la totalidad de la radiación que le llega. Juega el papel de la reflectividad en
los sensores ópticos. Las imágenes de radar ya se distribuyen en su nivel L0, corregidas
de todos los factores conocidos en la ecuación del radar, excepto del que es de interés:
la sección eficaz.
397
C UESTIONES DE TELEDETECCIÓN
ening o
t
)
(fore tamien
nto
amie
short
Acor
Distancia sobre
Alarg
la imagen
Zona
de so
mbra
Como en el caso de la luz, en el caso de las microondas (el rango en que se encuen-
tran las longitudes de onda empleadas en radar), esta fracción dependerá de la inclinación
del terreno respecto de la dirección de irradiación y de la composición del terreno. Dado
que las irregularidades del terreno serán de centímetros, es decir, del orden de magnitud
de las longitudes de onda empleadas, la rugosidad del terreno también influirá en el re-
sultado: ya no se podrá hacer la suposición de que todas las superficies son lambertianas
y dispersan la luz igual en todas las direcciones, la rugosidad hará que las microondas
incidentes sean reflejadas especularmente (y, entonces, alejadas de la dirección de obser-
vación del sensor; un píxel en el que el terreno presente irregularidades mucho menores
que la longitud de la onda aparecerá negro) o sean muy retrodispersadas (esto es, prefe-
rentemente en la dirección desde la que llegaron; un píxel así aparecerá más brillante).
Además de estos factores del terreno que proporcionan información sobre él, el brillo
de un píxel en la imagen radar estará afectado de dos efectos incontrolados: las sombras
e inversiones (“layovers”), y el “speckle”. El haz radar se propaga en línea recta, por lo
que las zonas de terreno pueden ser ocultadas por obstáculos más altos que ellas, que
impiden que sean iluminadas por la onda emitida; la radiación dispersada llegará desde
el obstáculo, pero de toda la zona en su sombra no llegará señal: se verá en negro en
la línea de la imagen (figura 11.7). En algunos casos, la onda llegará antes a la cima de
un cuerpo (una montaña) que a su base; esto producirá el curioso efecto de la inversión:
en la imagen aparecerá antes la cima que la base de la montaña, y la mezcla de señales
procedentes de una y otra hará que aparezca una línea destacada que exagera la orografía
o incluso la deforma (figura 11.8).
El “speckle” es el ruido típico de las imágenes de radar. Es un ruido inevitable que
se forma debido a la interferencia de la onda electromagnética dispersada consigo mis-
398
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Figura 11.8. Izquierda: imagen radar (ASAR) de una escena alrededor del lago Compotosto (Italia).
Derecha: imagen Landsat TM de la misma zona (banda 5) fusionada con el modelo de elevación SRTM
(tonos de altura creciente , del azul al verde). Se puede observar como las tres cuencas orientales aparecen
deformadas en la imagen ASAR. Nota: el SAR observa desde la izquierda de la imagen; el sol ilumina
desde la parte inferior.
ma. La luz no presenta este problema en los sensores ópticos, porque la luz natural (la
procedente del Sol) está formada por muchas ondas mezcladas, cada una con su fase de
oscilación independiente de las demás; sin embargo, en una onda de radar todo el frente
de la onda vibra con una misma frecuencia y fase, la que se originó en la antena. Cuando
la onda incide sobre el terreno, dentro de un píxel, los distintos puntos en ese píxel (de
decenas de metros por decenas de metros) se hallarán a diferentes alturas, muy diferentes
comparadas con la longitud de la onda de radar; si a dos puntos llega la onda incidente
con una una diferencia de fases tal que en uno de ellos esté en “cresta” y en otro en “va-
lle”, la suma de las ondas dispersadas por ambos puntos llegará al sensor con intensidad
nula; sin embargo, si uno de los dos puntos hubiese estado media longitud de onda más
cerca del sensor, la onda resultante hubiese sido más intensa que la emitida por cada
punto por separado. Esta variación tan aleatoria, debida a diferencias pequeñas de altura
dentro de un mismo píxel es lo que origina el speckle. Además, como las variaciones de
altura se suelen producir de manera continua a lo largo del terreno, el speckle no aparece
como un ruido aleatorio (que se puede filtrar con uno de los filtros habituales), sino que
forma patrones espaciales “correlacionados” (algo que aprovechan algunos métodos de
análisis para extraer información sobre las cubiertas analizando la “textura” del speckle).
399
C UESTIONES DE TELEDETECCIÓN
Respuesta: (d) En una imagen radar de polarización se pueden distinguir distintos ti-
pos de materiales, rugosidades o contenido en agua. Distintos materiales presen-
tan diferentes respuestas dieléctricas. Las variaciones en la rugosidad, hacen que
el campo eléctrico se refleje más o menos, porque varía la inclinación del campo
eléctrico de la onda respecto a la superficie de la cubierta. Los diferentes con-
tenidos de humedad en el terreno también se pueden distinguir, porque el campo
eléctrico produce corrientes eléctricas que fluyen de manera diferente dependien-
do del contenido en agua; estas corrientes inducidas en el terreno absorben en
mayor o menor cantidad la energía de la onda incidente.
400
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Antena
Campo
Antena eléctrico
Campo de la
eléctrico onda
de la
onda
V
Suelo
decir, emitidas con una polarización y detectadas con otra). Con cada una de estas cuatro
señales, estos sensores son capaces de construir cuatro imágenes de una misma escena,
y estas imágenes se ven diferentes.
¿A qué se deben las diferencias entre imágenes adquiridas en distintos modos de
polarización? La respuesta es la “depolarización” (figura 11.10). Una onda electromag-
nética polarizada en una dirección vertical u horizontal permanece así polarizada cuando
se propaga o cuando es reflejada por una superficie lisa (es decir, con irregularidades pe-
queñas comparadas con la longitud de onda) perpendicular a sus campos. Sin embargo,
cuando la superficie está inclinada respecto a la dirección de polarización, la onda re-
flejada lo es con una dirección de polarización distinta: tras la reflexión se conserva el
campo paralelo a la superficie, pero no el perpendicular a ella, que es atenuado.
Ante una superficie rugosa, por lo tanto, aparecen nuevas onditas dispersadas que
están polarizadas en direcciones distintas de la original; una onda incidente V será retro-
dispersada desde una superficie ligeramente rugosa con polarización principalmente V,
y un poco de polarización H; cuanto más aumenta la rugosidad, más reflexiones sufre la
onda inicial en las facetas de la superficie, y más proporción de la polarización original
V se pierde en favor de la polarización H originada en ellas. Lo dicho para las múlti-
ples reflexiones en una superficie rugosa es también cierto para las múltiples reflexiones
en un volumen irregular, como el ocupado por un dosel arbóreo o por las matas de un
terreno cultivado. Las polarizaciones “cruzadas” HV o VH, comparadas con las polari-
zaciones “iguales” HH o VV (respectivamente), proporcionan por lo tanto una medida
de la rugosidad del terreno; y la rugosidad más característica en las imágenes natura-
les es la vegetación. Sin embargo, las polarizaciones “cruzadas” tienen el inconveniente
de generar señales muy débiles, porque la fracción de la señal “depolarizada” suele ser
pequeña.
401
C UESTIONES DE TELEDETECCIÓN
antena emisora
antena receptora
E polarización V
E polarización H
El hecho de que los campos eléctricos (los que más interactúan con la materia) estén
alineados en una dirección, es importante en el caso de estructuras también alineadas en
una dirección, como pueden ser las plantas de cereal: todas paralelas y orientadas ver-
ticalmente. Cuando una onda polarizada paralelamente se encuentra con una plantación
de cereal, el campo eléctrico se atenúa mucho; un campo polarizado horizontalmente,
se atenúa menos. Por lo tanto, el cociente entre la señal HH y la señal VV informará de
la biomasa de cereal: si VV es menor que HH será porque su energía ha sido absorbida
por los tallos del cereal. En el caso del arroz, este método da resultados muy buenos:
en su caso, al crecer sobre una lámina de agua (que es como un espejo para la onda de
radar) sólo llegará al radar la retrodispersión procedente de las plantas de arroz; el agua
no retrodispersará señal ninguna.
Las ondas polarizadas paralelamente a una superficie son las más atenuadas al pene-
trar en ella (por ejemplo, en los tallos del ejemplo anterior). Por esta razón las imágenes
HH son las que se usan para estimar la humedad del terreno: cuanto más humedad, más
se atenúa la onda polarizada horizontalmente al penetrar en él. Por otro lado, las VV no
serán tan sensibles a las pérdidas por penetrar la onda en el material, así que informarán
sólo de la rugosidad de la superficie, no de las propiedades del interior.
Las combinaciones de imágenes HH, VV, HV y VH se pueden combinar en compo-
siciones RGB. Los diferentes colores representarán diferentes propiedades de rugosidad
402
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Figura 11.11. Combinación RGB de imágenes radar (rojo: banda X-HH, verde: banda X-HV, azul: banda
L-HH) con diferentes polarizaciones. Fuente: Eckardt et al. (2013), open access.
y de absorción de las ondas de radar en las diferentes cubiertas del terreno. De este mo-
do, gracias a los SAR con múltiples polarizaciones se puede hacer interpretación visual
de las imágenes de forma similar a como se hace con las imágenes ópticas en falso color.
403
C UESTIONES DE TELEDETECCIÓN
1 0
0.9 −5
0.8
Fracción transmitida
−10
Transmisión en dB
0.7
−15
0.6
−20
0.5
−25
0.4
−30
0.3
0.2 −35
0.1 −40
0 −45
0 2 4 6 8 10
Debido a las propiedades de los logaritmos, una diferencia de X decibelios entre dos
valores de esa magnitud está relacionada no con sus valores absolutos, sino con su co-
ciente. Por ello la escala decibélica es muy adecuada para caracterizar magnitudes que
sufren procesos que multiplican o dividen sucesivamente sus valores. Un ejemplo de ello
es la interacción de una onda con un medio: su energía se va dividiendo conforme avanza
más y más metros a través de un medio.
Cuando una onda electromagnética de longitud de onda λ atraviesa un medio con-
ductor, la energía (radiancia) que llega a una profundidad x en su interior es proporcional
a e−κx , donde κ se llama coeficiente de atenuación y está relacionado con la conducti-
vidad del medio y con la frecuencia de la onda electromagnética: por lo general, cuanto
mayores son la frecuencia y la conductividad, mayor es κ.
La interacción onda-materia (especialmente la absorción de la energía de la onda)
es mayor cuando la frecuencia de la onda ( f = c/λ ) es del orden de la frecuencia de
oscilación de uno de los componentes de la materia (electrón atómico, molécula, . . . ). En
el caso de las ondas de onda larga como las utilizadas en el radar, su frecuencia es muy
pequeña comparada con las de los electrones atómicos o las moléculas individuales por
lo que no interactúa con ellos. Toda la absorción que sufren las microondas de un radar
se debe a su interacción con los electrones de conducción y otras cargas libres móviles
presentes en los conductores o las disoluciones de sales. Por lo tanto, la absorción de las
microondas se describe por la disipación de su energía al intentar desplazar estas cargas
en medios conductores (pero que presentan, resistencia eléctrica a las corrientes en que
se traduce ese movimiento de cargas).
404
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Un suelo puede estar cubierto de vegetación, que ocupa una fracción del volumen
sobre el suelo: el resto es aire, entre los tallos o ramas de esa vegetación. La vegetación
es rica en agua y sales minerales, por lo que absorbe la radiación electromagnética al
intentar el campo eléctrico oscilante de ésta desplazar los iones disueltos en su savia;
también la onda es dispersada (difractada) por la simple presencia de obstáculos más
pequeños que su longitud de onda, que rodea. Cuando la onda electromagnética llega
al suelo, tras recorrer un espesor x de vegetación, ha sido atenuada en un factor e−κx ;
después se refleja hacia el sensor y vuelve a atenuarse otro factor e−κx . El logaritmo de la
atenuación, que vale entonces −2κx, describe la cantidad de biomasa (altura y densidad
de los tallos) y el vigor de ésta (contenido en agua) sobre el suelo. En la imagen XX,
las variaciones de los decibelios recibidos en el sensor caracterizan las variaciones de
la biomasa sobre suelos semejantes. Es decir, una imagen radar de una zona cultivada
convertida a decibelios, muestra la distribución del vigor de biomasa.
Respuesta: (c) La técnica radar que se empleó fue la interferometría. Esta técnica con-
siste en comparar la fase de la onda reflejada sobre el terreno desde dos puntos
separados, de modo que, sabiendo la distancia entre ellos, se puede conocer con
precisión la posición del punto que refleja la onda en la superficie. A estas dos
antenas receptoras separadas, una a bordo del transbordador espacial, y otra en
un mástil extendido de 60 metros, se le llama par interferométrico de antenas.
Una de las informaciones más útiles sobre nuestro planeta es la forma de su superfi-
cie. Para determinarla es necesario conocer la altura de cada punto de ella respecto a
una superficie de referencia (un elipsoide de referencia). A lo largo de la historia se lle-
varon a cabo muchas topografías, empleando métodos diferentes (desde la medida por
triangulación hasta los pares de imágenes estereoscópicas tomadas desde aviones); sin
embargo, cada uno de estos métodos se aplicó sobre áreas particulares del planeta, sin
lograrse con ello una visión global homogénea: para ello se necesitaba un método de
cálculo de la topografía uniforme sobre toda la superficie terrestre. Este fue el objetivo
planteado por la NASA en la misión SRTM, usando como plataforma el transbordador
espacial Endeavour. El uso del transbordador espacial permitía adquirir los datos desde
una órbita baja, a sólo 230 km sobre la superficie.
405
C UESTIONES DE TELEDETECCIÓN
Figura 11.13. Transbordador espacial Endeavour con el brazo del par interferométrico (el otro par se
hallaba en el cuerpo del transbordador) usado para la misión SRTM. Fuente: NASA.
Estas diferencias de fase se pueden calcular sólo mientras sean menores a una oscila-
ción completa del campo (una longitud de onda): más allá de ésta, la diferencia calculada
vuelve a empezar en cero, porque las oscilaciones se vuelven a repetir; este problema se
406
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Diferencia Diferencia
de fase de fase
Figura 11.14. Par de antenas interferométricas y cambio detectado en la diferencia de fase entre ambas al
variar la altura del terreno.
407
C UESTIONES DE TELEDETECCIÓN
rencia WGS84) localizadas en una malla con un punto cada 1′′ de arco tanto en latitud
como en longitud (es decir, cada 30 m sobre el meridiano). El DEM SRTM ha sido re-
procesado hasta cuatro veces y en septiembre de 2014 se ha hecho público a su máxima
resolución (hasta esa fecha, fuera de los EE.UU. se distribuía a una resolución de 3′′ de
arco): sobre el terreno, esto equivale a tener unos 30 m × 30 m en zonas ecuatoriales,
30 m × 20 m en latitudes intermedias y 30 × 15 m en las latitudes más altas mapeadas
de 60o . Los datos obtenidos con el par en la banda X más precisos, pero no cubren la
totalidad de la superficie terrestre, sino algunas franjas; fueron procesados y son distri-
buidos por la DLR (Deutsch Luft- und Raumfahrt, la agencia alemana de aeronáutica e
investigación espacial).
408
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
El estudio del interior del océano es uno de los retos de la teledetección actual. En él no
penetran las radiaciones electromagnéticas usuales, por lo que la teledetección óptica,
térmica o radar sólo alcanza a caracterizar su superficie: los pigmentos que le dan color
al agua, la temperatura de ésta, la rugosidad de su superficie (y, así, los vientos que la
mueven), y últimamente, su altura. Lo que hay bajo la superficie se conoce, o bien, por
medida directas con instrumentos sumergidos conectados a la superficie mediante ca-
bles (conocidos comúnmente como sondas), o bien, por medidas de sónar, que mediante
la emisión, propagación y rebote de ondas acústicas, obtiene información sobre la pro-
fundidad y el tipo de fondo marino (de forma análoga a como el radar lo hace para la
superficie terrestre). No obstante, es muy costoso hacer un estudio global con sonares
a bordo de barcos; las batimetrías que se conocen del océano se han hecho compilando
los registros de profundidades de los sonares de centenares de barcos mercantes: pero
aquellas zonas lejos de las rutas comerciales están todavía sin cartografiar. Los mapas
de profundidades como el que muestra Google Maps están interpolados entre esas rutas;
y la interpolación causa, a veces, patrones peculiares como el de la “ciudad submarina”
frente a las costas de Canarias y Azores.
Para determinar la forma de la Tierra, se han usado gravímetros: sistemas de péndu-
los o muelles que miden la gravedad terrestre a partir de la variación en sus períodos de
oscilación. La gravedad media en la superficie terrestre es de alrededor de 9,81 m/s2 ; un
aumento o una disminución de ésta, se asocia con una variación de la distancia al centro
409
C UESTIONES DE TELEDETECCIÓN
Figura 11.16. Efectos de la interpolación en la batimetría del fondo atlántico: surcos indicados por las
flechas, especialmente, la rejilla a la izquierda de la imagen, debidos, a los transectos de una campaña de
sónar. Fuente: Google Maps/NASA.
de la Tierra. Así descubrió Jean Richer en 1627 que la Tierra tiene forma de elipsoide de
revolución, al comparar la gravedad en París con la gravedad en el ecuador (y descontar
la fuerza centrífuga en éste): la gravedad menor en el ecuador se debía a que éste está
más alejado del centro. La superficie que “une” los puntos con gravedad igual a la media
(unos situados sobre la superficie física de la Tierra y otros bajo ella) se denomina geoi-
de; se ve “hundido” allí donde la anomalía gravitatoria es positiva (más gravedad que
la media) y con “protuberancias” en aquellos puntos donde es negativa (figura 11.17).
Una anomalía gravitatoria puede producirse, por ejemplo, en una zona asentada sobre
un batolito granítico: sobre él, la anomalía gravitatoria será negativa, porque es menos
denso que el manto sobre el que flota (por lo que “atrae menos”). Esta situación se da en
el noroeste de la Península Ibérica, donde la gravedad es menor que en su parte oriental.
410
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Figura 11.17. Superficie del modelo de geoide EGM2008: exagerada la diferencia en altura respecto al
elipsoide de referencia.
hundida respecto a su alrededor, será porque está más cerca de algo que la está atrayendo:
una montaña submarina produciría ese efecto. Ya no se trata de estar más cerca o más
lejos del centro de la Tierra, sino de estar más cerca o más lejos de una masa de tierra.
Para determinar la altura de la superficie marina se han utilizado altímetros, que
son radares a bordo de satélites que emiten sus haces de microondas verticalmente: el
tiempo que tarda en llegar el rebote de un pulso enviado a la superficie informa de la
distancia de ésta a la órbita del satélite, que se debe conocer con mucha precisión. Los
altímetros a bordo del ERS-1 (de la ESA) y del Geosat (de la NASA) fueron los primeros
en completar un mapa de alturas de la superficie de los océanos.
Los altímetros más modernos que continuaron la adquisición de datos de los ERS-1
y Geosat fueron los CryoSat-2 (ESA), Jason-1 (NASA): con sus datos se ha obtenido el
mapa más preciso de la superficie marina hasta la fecha . Los altímetros pueden calcu-
lar variaciones en la altura del mar del orden de 5 cm ; estas variaciones se tienen que
promediar a lo largo de mucho tiempo para eliminar los efectos de las mareas, los efec-
tos atmosféricos, las variaciones de temperatura del agua del mar, etc. (la misión ERS,
continuadas por el RA-2 del ENVISAT, han tenido una duración de 15 años).
Por poner un ejemplo: un volcán submarino, de 2 km de altura, producirá un hun-
dimiento de la superficie marina de unos 2 m a lo largo de una distancia de 20 km; por
lo tanto, con resoluciones espaciales de 8 km (la distancia entre órbitas del ERS-1) y
precisiones verticales de 5 cm, se podrá determinar la existencia de formaciones subma-
rinas mucho más pequeñas que ésta. No obstante, se observó que son las variaciones de
la altura de la superficie marina (y, por lo tanto, de la gravedad terrestre) a lo largo de
distancias entre los 15 y los 200 km las que están correlacionadas con la batimetría del
411
C UESTIONES DE TELEDETECCIÓN
Figura 11.18. Altura de la superficie marina durante el fenómeno de “El Niño” de 1997. Fuente: NASA.
océano. Es decir, se deben tener variaciones de gravedad a lo largo distancias de este or-
den de magnitud para poder decir que son debidas a la orografía del fondo oceánico; esto
limita la resolución espacial del método. En la práctica no serán distinguibles montañas
o valles a menos de unos 100 km de distancia.
Los altímetros no sólo han sido utilizados para generar topografías del fondo oceá-
nico. Es particularmente famosa la misión Topex/Poseidon (NASA y CNES, la agencia
espacial francesa), dedicada a estudiar las corrientes oceánicas y capaz de medir varia-
ciones en la altura de tan sólo 2 cm. La diferente densidad del agua más cálida o más fría
hace que la superficie marina se deforme también, en virtud del principio de Arquíme-
des: el agua de una corriente cálida (menos densa) se manifiesta como una elevación de
la superficie del océano, porque “flota” sobre el agua más fría bajo ella y a su alrededor.
En particular, esta misión Topex/Poseidon observó casi en tiempo real el desarrollo del
fenómeno de El Niño en 1997: la oscilación en las corrientes del océano Pacífico que
afecta al clima global cuando una corriente cálida aparece cruzando el océano (figura
11.18). También estudió las mareas en los océanos, que se propagan como oscilaciones
de la superficie del mar de unos 30 cm de altura, excepto en zonas en las que la batime-
tría oceánica hace variar la velocidad de la onda de marea: entonces ésta puede aumentar
su amplitud, tal como sucede en las costas continentales, donde las mareas alcanzan am-
plitudes de varios metros. El conocimiento preciso de las mareas proporciona no sólo
información para eliminar su influencia en los datos de altimetría, sino para estudiar
412
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Respuesta: (a) La técnica más empleada para medir diferencias de distancias pequeñas
es la interferometría; en Teledetección es la interferometría radar la que permite
determinar diferencias de distancias del orden de la longitud de onda de la ra-
diación radar empleada (es decir, del orden de centímetros). La interferometría
muestra bandas (habitualmente coloreadas) en las que el desplazamiento es el
mismo: esto destaca zonas que se han movido al unísono, como sucede en terre-
motos o erupciones volcánicas, en los que grandes zonas terreno se desplazan.
Esta representación se llama un interferograma. Para generar un interferograma
se comparan matemáticamente las señales de fase de dos imágenes SAR adquiri-
das desde la misma posición en la órbita del satélite: la fase varía de una a otra
por la diferente distancia a la que se encuentra la superficie que refleja la onda;
así se sabe cuánto se ha alejado la superficie de la posición del sensor entre una
adquisición y otra.
413
C UESTIONES DE TELEDETECCIÓN
El interferograma requiere para su formación que la fase de la onda esté bien de-
finida: de esta radiación se dice que es coherente. El campo eléctrico de una radiación
coherente, oscila al unísono: no es la superposición de ondas, oscilando cada una de
ellas con una fase diferente (piénsese en la diferencia entre el sonido de un violín y en
del grupo de violines de una gran orquesta: suenan diferente, aunque estén dando la mis-
ma nota). La luz natural, procedente del sol, no es coherente en ese sentido, pero en la
fina película de aceite, la fase de las ondas se conserva de una superficie a la otra por-
que la película es muy fina y varía poco su espesor a lo largo del espacio: se produce
coherencia espacial, aunque no temporal, y por eso se forma el interferograma. El radar
usa una señal electromagnética temporal y espacialmente coherente, y por eso se puede
emplear en aplicaciones interferométricas.
En teledetección las mejores imágenes radar se obtienen por la técnica SAR: con
esta técnica se sintetiza (matemáticamente) una antena de gran tamaño (kilómetros) de
manera que se calcula la onda que se reflejaría por retrodispersión desde el terreno: su
amplitud y su fase. La amplitud se relaciona con la cantidad de energía que rebota en
las irregularidades del terreno y que no es absorbida por éste. La fase se relaciona con el
retraso que sufre la onda debido a estos rebotes: si dentro de un píxel la mayor parte de
los “dispersores” se hallan cerca del sensor, y en otro píxel vecino esos “dispersores” se
hallan más alejados del sensor, entra ambos se observará una diferencia de fases, porque
llegarán a la antena más tarde las oscilaciones del campo eléctrico rebotado desde el
segundo píxel que desde el primero. Lo mismo sucede si la altitud del terreno en un píxel
es mayor que la altitud en otro vecino: la fase del primero se verá adelantada respecto a la
del segundo, más alejado. En la realidad, debido al tamaño de los píxeles de una imagen
SAR y a la multitud de dispersores (la rugosidad del terreno), estas diferencias de fase
entre píxeles próximos no se pueden usar para determinar diferencias de distancias o
alturas entre ellos. Sin embargo, sí se pueden usar para establecer diferencias de distancia
o altura de un píxel respecto a él mismo, si se observa exactamente desde la misma
posición. De este modo se calculan los interferogramas SAR.
Las primeras imágenes de interferometría SAR fueron proporcionadas por los SIR-C
y X-SAR a bordo del transbordador espacial, en 1994 (más tarde, estas técnicas interfe-
rométricas, serían usadas para desarrollar el modelo digital de elevación global SRTM).
Sin embargo, los primeros satélites capaces de obtener estas imágenes de manera perió-
dica y durante mucho tiempo, fueron los ERS-1 (lanzado en ) y ERS-2 (lanzado en ) de
la ESA. Esto se logró gracias a a lo bien caracterizadas que se tenían sus órbitas y a la
estabilidad de las mismas a lo largo del tiempo. Uno de los primeros ejemplos de este
tipo de estudios fue el terremoto de Landers (Virginia, EE.UU.) del 28 de junio de 1992,
cuyo campo de deformación del terreno (de hasta 6 m a lo largo de una falla de 85 km)
414
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Figura 11.19. Interferograma formado por imágenes SAR antes y después del terremoto de Landers de
1992. Fuente: NASA, JPL.
fue calculado a partir de dos imágenes del ERS-1: una del 24 de abril de 1992 y otra del
7 de agosto de 1992.
Con los dos satélites ERS-1 y ERS-2 en “tándem”, es decir, describiendo la misma
órbita sólo que con 24 horas de diferencia (algo que duró desde 1995 hasta el fallo del
ERS-1 en 2000), se pudieron hacer estudios de coherencia interferométrica, es decir, es-
timaciones estadísticas de correlación entre la fase de la señal reflejada por una cubierta
un día y el siguiente (a lo largo que varios píxeles). Cuando esta correlación es perfecta,
quiere decir que la cubierta no ha variado: es de esperar en un suelo rocoso, o con ve-
getación baja (herbácea), o en un suelo urbano. Cuando esta correlación no es perfecta,
quiere decir que se han producido cambios de un día a otro: en una superficie de agua,
o en un bosque, puede causar esto un cambio del viento; en otros casos puede ser la
precipitación o la inundación del terreno lo que rompa la coherencia entre una imagen
y otra (aunque esta aplicación no está todavía muy estudiada/optimizada). Por lo tan-
to, esta medida de la variación de una cubierta puede proporcionar una clasificación de
cubiertas por su comportamiento, o por los fenómenos meteorológicos que las afecten
(y, hay que recordarlo, independientemente de la presencia de nubes sobre la zona de
estudio).
415
C UESTIONES DE TELEDETECCIÓN
10. ¿Cómo puede un radar a bordo de un satélite medir la velocidad del viento
sobre el océano, si el aire (y la atmósfera en general) es transparente a las
microondas que usan los radar?
Respuesta: (b) La medida de los vientos oceánicos en superficie se lleva a cabo me-
diante “dispersómetros” de vientos (wind scatterometers). Estos sensores radar
envían una onda de longitud de onda centimétrica dentro de un haz ancho (con
una huella sobre el terreno de decenas de kilómetros) y miden la poca fracción
de la energía enviada que es retrodispersada por las onditas centimétricas que
induce el viento en la superficie del mar. La altura de estas onditas, relacionada
416
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
Figura 11.20. Velocidad con la que aumenta (signo +, azul) o disminuye (signo -, rojo) la cubierta de hielo
de la Antártida. Fuente: ESA.
417
C UESTIONES DE TELEDETECCIÓN
ERS
dispersómetro
de vientos
56º
18º
+45º
0º
km
−45º 50
500 k
m
Figura 11.21. Haces de barrido del dispersómetro a bordo del ERS-1. Cada haz era emitido en la banda C
(5,3 GHz) por una antena orientada a ±45◦ o 90◦ respecto a la dirección de vuelo del ERS-1.
418
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
la intensidad y dirección del viento con la señal retrodispersada en una dirección. Por
ello, para determinar la dirección del viento se necesitan medidas desde varias direccio-
nes diferentes, es decir, el dispersómetro de vientos debe emitir su haz de microondas
hacia varias direcciones. Por ejemplo el SeaSat, el primer dispersómetro de vientos a
bordo de un satélite (lanzado en 1978), enviaba cuatro haces de microondas orientados
en la dirección de avance del satélite (haz inclinado 22◦ hacia delante y atrás respecto
a la vertical) y en direcciones a 45◦ de su órbita (inclinadas 55◦ respecto a la vertical).
Otros dispersómetros posteriores, como los que llevaban los ERS, siguieron utilizanto
esta disposición. Los dispersómetros más modernos emplean una antena giratoria, que
selecciona consecutivamente las diferentes orientaciones del haz.
La precisión con la que se puede medir el viento en la actualidad usando estos méto-
dos es de 0,5 m/s en módulo y unos 6o en dirección: prácticamente, la misma precisión
con la que se puede medir con un anemómetro (debido a las variaciones locales y a las
rachas).
419
C UESTIONES DE TELEDETECCIÓN
antena Circuito eléctrico capaz de mantener una corriente alterna de determinada fre-
cuencia con pérdidas menores de energía en él. Cuando una onda electromagnética
con la frecuencia especificada llega al circuito, se establece en él esa corriente que
puede ser medida: la antena actúa como receptor. Cuando la corriente es estable-
cida en el circuito por un oscilador eléctrico, la antena genera a su vez una onda
electromagnética de la misma frecuencia: la antena actúa como emisor.
batimetría Profundidad del suelo marino o de otra masa de agua respecto a la superficie
de dicho cuerpo de agua. Por extensión, mapa de elevación del suelo marino.
campo electromagnético Campo de energía radiante transportado por los fotones que
se observa como una sucesión alternada, en forma de onda, de oscilaciones del
campo eléctrico y magnético. El campo magnético se propaga a la velocidad de la
luz e interactúa con las cargas en la materia, ya sean libres (como los electrones
en los metales) o ligadas (como los electrones en las moléculas), transmitiéndoles
parte de su energía.
dispersómetro de vientos Sensor activo que mide la radiación dispersada por la super-
ficie marina en varias direcciones, relacionándola con la altura de las ondulaciones
inducidas por el viento y con su dirección, y permitiendo así estimar la velocidad
y dirección de los vientos. Las ondulaciones causadas por el viento en la superfi-
cie del agua son centimétricas, del orden de las longitudes de onda empleadas en
estos sensores radar.
ecuación del radar Relación matemática entre la potencia emitida por una antena de
radar, la distancia a un objeto sobre el que incide el haz radar, y la potencia recibida
de vuelta en la antena. Esta relación permite corregir la atenuación sufrida por la
420
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
onda y calcular la reflectividad (llamada, en radar, sección eficaz) del objeto, que
es independiente de la posición del sensor respecto a él.
fase En una oscilación periódica, valor numérico que varía entre 0◦ y 360◦ (o entre 0 y
2π radianes) que caracteriza el cambio en el tiempo de la oscilación, repitiéndose
en cada período de ésta. Una oscilación periódica se puede representar por un
punto moviéndose en una circunferencia: la fase es el ángulo sobre el contorno de
esta circunferencia, mientras que la amplitud de la oscilación será cualquiera de
las coordenadas cartesianas de éste.
par interferométrico Par de antenas situadas a una distancia conocida que emiten o
reciben señales (ondas electromagnéticas) de igual longitud de onda hacia o des-
de los mismos puntos del terreno. El cálculo del desfase entre la señal recibida
en una y otra antenas, y el cambio de ese desfase entre puntos próximos del te-
rreno, permiten calcular la diferencia de altura entre puntos con gran precisión y,
421
C UESTIONES DE TELEDETECCIÓN
extendiendo esto a todos los puntos de una imagen, permite calcular un modelo de
elevación de ella.
polarización Dirección de oscilación del vector de campo eléctrico en una onda electro-
magnética. La onda se dice que está linealmente polarizada cuando esta dirección
se mantiene en el tiempo; cuando varía aleatoriamente en el tiempo, se dice que la
onda no está polarizada.
portadora Frecuencia de la onda electromagnética emitida en el pulso de la antena de
un radar. Tras interactuar con el terreno, la onda retrodispersada o eco deja de
tener un comportamiento periódico, debido a la falta de periodicidad del relieve;
la señal recibida en el sensor es el producto de la onda portadora por la “onda del
terreno”, de modo que se puede eliminar la primera, la portadora, quedando sólo
la información de la superficie.
radar Sensor activo que emite una onda electromagnética y recoge su reflejo en el ob-
jeto de estudio. El radar dispone de una antena que enfoca el haz de ondas elec-
tromagnéticas en la dirección del objeto que se quiere detectar; esta antena emite
y recibe radiación electromagnética a una frecuencia característica, en el entorno
de los Gigahertzs (es decir, con longitudes de onda de centímetros).
radar de apertura real (RAR) Radar que construye una imagen a partir de la señal
recibida en su antena desde el terreno. La resolución espacial de este radar está
limitada por la anchura del haz enviado por la antena que es menor cuanto mayor
sea la antena y menor la longitud de onda. Esta limitación hace que el radar de
apertura real no se pueda utilizar para obtener imágenes detalladas desde satélite,
aunque sí se puede utilizar desde plataformas aerotransportadas (aviones).
radar de apertura sintética (SAR) Radar que construye una imagen combinando las
señales recibidas de varios pulsos sucesivos a lo largo de su movimiento. La reso-
lución espacial de este radar aumenta mucho al sintetizar una antena equivalente
al desplazamiento del sensor a lo largo de su órbita y combinar en ella la infor-
mación procedente de los sucesivos pulsos recibidos. La mayoría de los radares a
bordo de satélites emplean este método de síntesis de antena.
speckle Ruido impulsivo típico de las imágenes de radar originado por la interferencia
coherente de la onda retrodispersada por las estructuras presentes en el terreno.
SRTM (shuttle radar topography mission) Misión del transbordador espacial de la NA-
SA que en 2000 obtuvo datos interferométricos para calcular un modelo de ele-
vación del terreno global de la Tierra. Por extensión, el DEM obtenido a partir de
esos datos.
422
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
swath Línea del terreno barrida por el haz de un radar en dirección perpendicular a
su avance sobre la órbita. Los radares empleados en teledetección son de barrido
lateral, es decir, emiten un haz de microondas alargado perpendicularmente a su
órbita. Este haz barre la superficie, recibiendo un eco de cada línea del swath con
las que se construye la imagen. La palabra swath procede de unir sweep (barrer) y
path (camino).
11.5. BIBLIOGRAFÍA
T.G. Farr et al. (2007). “The Shuttle Radar Topography Mission”. Reviews of
Geophysics, 45(2):1-33.
D. Massonet et al. (1993). “The displacement field of the Landers earthquake map-
ped by radar interferometry”. Nature, 364: 138-142.
423
C UESTIONES DE TELEDETECCIÓN
C. Wu, J.E. Graf, M.W. Spencer, C. Winn (1997). “SeaWinds scatterometer instru-
ment using a pulse compression radar”. Proceedings of the SPIE, 3221: 340-345.
424
L A INFORMACIÓN DE LAS ONDAS : EL RADAR
The Landers earthquake of June 28, 1992 Coseismic Study — NASA JPL
URL: http://www-radar.jpl.nasa.gov/sect323/InSar4crust/LandersCo.html
Página web sobre el estudio por interferometría radar del terremoto de Landers de
1992.
425
C UESTIONES DE TELEDETECCIÓN
Marine Gravity from Satellite Altimetry — Exploring Ocean Tectonics from Spa-
ce
URL: http://topex.ucsd.edu/grav_outreach/index.html
Página del grupo de Geodesia Satelital de la Scirps Institution of Oceanography de
la Universidad de California en San Diego con múltiples imágenes de anomalías
gravitatorias debidas al fondo marino, que informan sobre fallas en él.
426
A PÉNDICE A
EL PROGRAMA BEAM
E L PROGRAMA BEAM
Lo primero que notamos con la interfaz gráfica de Beam es que está en Inglés: con-
viene acostumbrarnos a la terminología en este idioma, porque la encontraremos fre-
cuentemente en la bibliografía y en otros programas de teledetección. Lo segundo es
que los menús de File (Archivo), Edit (Editar), View (Ver), Window (Ventana) y Help
(Ayuda) nos son familiares de otras aplicaciones.
429
C UESTIONES DE TELEDETECCIÓN
Figura A.2. Menú mostrando todos los formatos que permite importar Beam.
430
E L PROGRAMA BEAM
La interfaz gráfica de Beam es Visat (figura A.1). Visat permite mantener abiertas
diferentes imágenes (o productos) cuyas bandas y metadatos organiza en un árbol (que
se muestra a la izquierda). Estos elementos se pueden visualizar (como imágenes, las
bandas, o como tablas, los metadatos) en ventanas que se abren en el espacio principal.
Con las distintas barras de herramientas se puede navegar por la imagen con ayuda del
ratón (desplazándola y haciendo zoom), añadir elementos (como marcadores, puntos de
control, regiones de interés) a las imágenes, cambiar sus colores (definiendo paletas de
color), etc. Desde los menús de Visat se puede acceder a las funciones de Beam, que
cubren operaciones genéricas, útiles para todos los sensores (menús View, Analysis y
la mayoría de Tools), y también a los Plugins (normalmente bajo el menú Tools) que
permiten hacer operaciones específicas sobre imágenes de ciertos sensores.
Desde el menú File, podemos abrir archivos (Open), importarlos (Import) y, final-
mente, guardarlos (Save). Para estas operaciones podemos escoger entre varios tipos de
formatos de archivo, que muchas veces se corresponden con diferentes tipos de sensores:
cada sensor suele guardar la información en un formato diferente que proporciona mejor
soporte a la información que recoge el sensor o al procesamiento que recibe (figura A.2).
Por otro lado, también hay formatos genéricos. Y, además, Beam tiene el suyo propio:
el Beam Dimap (heredero del formato Dimap en que se distribuyen las imágenes del
satélite SPOT y del formato IMG del software ENVI).
Una vez importamos un producto, se muestra un resumen de éste en el panel de
“Products View” (figura A.3). Desplegando cada carpeta, podemos inspeccionar los di-
431
C UESTIONES DE TELEDETECCIÓN
Figura A.5. Pins y sus coordenadas y los valores de las bandas mostrados en el “Pin Manager”. En la parte
inferior derecha se puede ver un rectángulo definido sobre la imagen: otro elemento geométrico.
432
E L PROGRAMA BEAM
Figura A.6. Vistas de las bandas de un producto: arriba, una única banda; derecha, composición en color
“natural” (aunque las diferentes ganancias de los canales no lo aparenten); abajo, composición en “falso
color” (con la banda NIR en el canal rojo, destacando la vegetación en este color).
una expresión algebraica (“aritmética de bandas”) que es lo único que se guarda en me-
moria, no los valores calculados de los píxeles. Estas bandas son muy convenientes, por
razones de ahorro de memoria. En el Árbol del producto, su icono es una “V”.
Haciendo doble click sobre una banda del producto se abre una vista de ella (figura
A.6). Es posible abrir vistas RGB (menú View > Open RGB Image) en las que tres
bandas se dirigen a los tres canales, rojo, verde y azul, para mostrar imágenes en color
natural (si a los canales se asignan bandas espectrales verdaderamente en el rojo, verde
y azul) o en falso color (cuando las bandas espectrales no corresponden a esos colores
visibles).
Para visualizar mejor una banda, se puede modificar su tabla de color. La manera más
sencilla de hacerlo es asignar la ventana (la amplitud de la horquilla de niveles digitales
que se quiere dirigir al rango 0..255 de niveles de gris del monitor) y el nivel (el centro
de ese intervalo) guiados por su histograma. El histograma (la estadística de los ND en
función de su valor) suele mostrar distintos “montículos” por cada uno de los tipos de
cubierta diferentes presentes: serán visibles cuando éstas sean radiométricamente muy
433
C UESTIONES DE TELEDETECCIÓN
Figura A.7. Asignación de la ventana y el nivel para visualizar la materia en suspensión en una imagen
NIR del agua.
434
E L PROGRAMA BEAM
Figura A.10. Definición de una geocodificación por medio de puntos de control (GCP).
diferentes, como sucede en el caso de agua y tierra. Esto se puede ver en la ventana de
la izquierda de la figura A.7.
Para facilitarnos la visualización, también se puede asignar una paleta de color en
función de los niveles digitales (figura A.8): nuestro ojo puede diferenciar muchos más
colores (de una paleta bien elegida) que niveles de gris.
435
C UESTIONES DE TELEDETECCIÓN
436
E L PROGRAMA BEAM
Dos productos pueden estar georreferenciados y cubrir una misma área geográfica,
aunque no ceñirse exactamente a la misma zona. Piénsese, por ejemplo, en dos imágenes
de una misma área geográfica adquiridas por dos sensores: las escenas no se correspon-
derán entre sí más que en una región de intersección (preferiblemente en aquella zona en
la que estemos interesados para nuestro estudio). También es común tener dos productos
de un mismo satélite adquiridos en dos días distintos o con dos sensores distintos. Para
llevar a cabo cualquier proceso que involucre ambas imágenes, se deben co-localizar,
esto es, calcular los valores de valores píxeles de una imagen en las posiciones de la
matriz en la que se definen los de la otra imagen, que se toma como referencia. Para ello,
se seleccionan el producto de referencia o “máster” y el producto que se va a proyectar
sobre él, o “esclavo”, y se emplea la herramienta “Collocation” de Beam (figura A.12).
El resultado será un nuevo producto con bandas procedentes de los dos productos
originales, cuyos píxeles coinciden con los del producto maestro. Los valores del pro-
ducto esclavo se habrán interpolado en esas posiciones, por alguno de los métodos que
proporciona la herramienta (desplegable en la parte inferior de la figura A.12). Este nue-
vo producto se puede guardar en formato DIMAP de Beam.
437
C UESTIONES DE TELEDETECCIÓN
Figura A.13. Creación de un producto de menor tamaño en área geográfica y bandas de trabajo.
438
E L PROGRAMA BEAM
Por lo general, las escenas que se distribuyen de un sensor son muy grandes, y nues-
tros estudios sólo requerirán pequeñas regiones dentro de ellas. Hay que tener en cuenta
que una imagen ocupa mucha memoria de nuestro ordenador, y también que cualquier
proceso se aplica píxel a píxel de la misma. Por lo tanto, por economía de memoria y
de tiempo de proceso, conviene trabajar sobre escenas flotantes o “subsets” (subconjun-
tos) de la escena original. Estos productos de trabajo se crean con “File > Export raster
> Beam DIMAP” escogiendo la opción “Subset” (figura A.13). Como subconjunto no
sólo se puede definir un área geográfica particular, sino que también se puede reducir el
número de bandas exportadas o, incluso, decidir qué metadatos se quieren eliminar (por
ejemplo, los relacionados con la historia de procesamiento).
439
C UESTIONES DE TELEDETECCIÓN
Figura A.15. Tamaño de píxel en la imagen original: zona del Cabo de San Vicente (97 km / 50 píxeles =
1.94 km/píxel), Golfo de Gabés (Túnez; 129 km / 50 píxels = 2.58 km/píxel) e Isla de Menorca (38 km /
50 píxeles = 0.768 km/píxel).
440
E L PROGRAMA BEAM
441
C UESTIONES DE TELEDETECCIÓN
Figura A.18. Puntos de control en el terreno marcados sobre la imagen World View-2.
Figura A.19. Correspondencias entre posiciones en la imagen y coordenadas geográficas de los GCP.
Obsérvese el mensaje de que ya se han introducido suficientes puntos para calcular la interpolación).
442
E L PROGRAMA BEAM
443
C UESTIONES DE TELEDETECCIÓN
444
E L PROGRAMA BEAM
Figura A.24. Arriba: Herramienta “Noise Reduction” para productos CHRIS/PROBA. Abajo: Banda 3
original (izquierda) y obtenida de la herramienta noise reduction (derecha).
445
C UESTIONES DE TELEDETECCIÓN
4. La calculadora de bandas
Descargue una image GeoTIFF del canal térmico del sensor TM de Landsat-
5 usando la interfaz ESDI (http://glcfapp.glcf.umd.edu:8080/esdi) proporcionada
por la Universidad de Maryland (EE.UU.). El producto se distribuye como un con-
junto de archivos en formato GeoTIFF comprimidos, cada uno correspondiente a
una banda del sensor. Debe descomprimir el archivo de la banda 6 antes de abrirlo
con Beam: utilice una herramienta como 7-zip (http://www.7-zip.org/), WinRAR
(http://www.winrar.es) o la herramienta gunzip.
607,76
log 0,055158×DN+1,2378 +1
• Compruebe con la herramienta “Pixel Info” (figura A.27) si los valores que
muestra la nueva “banda” son razonables en función de la latitud de su esce-
na, de la época del año en que fue adquirida la imagen y el tipo de cubierta
sobre la que la haya calculado (agua, nieve, tierra, vegetación).
446
E L PROGRAMA BEAM
447
Juan del Rosal, 14
28040 MADRID
Tel. Dirección Editorial: 913 987 521