Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los cambios
que los objetos imponen a los campos que los envuelven, según sean éstos electromagnéticos,
acústicos, gravimetritos o magnéticos: bastará poseer el sensor adecuado para cada caso. Desde
un punto de vista práctico, más acorde a nuestros fines, podemos restringir la generalidades
este concepto limitándonos a utilizar el término “percepción remota” en conexión con técnicas
electromagnéticas de adquisición de información. Si quisiéramos historiar la evolución de la
percepción remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones
años cuando alguna forma inferior de vida comenzó a diferenciar algunas de sus células
volviéndolas fotosensibles, proceso que evolucionó también durante millones de años hasta
convertirlas en un sensor altamente sofisticado como el ojo humano. Si bien éste fue y sigue
siendo el sensor utilizado en muchas aplicaciones cotidianas de la percepción remota, ya desde
el siglo XIX comenzó a ser sustituido por un mecanismo que lo imitaba ofreciendo algunas
ventajas como el del registro permanente de las observaciones: la cámara fotográfica. Esta fue
montada en plataformas tan dispares como palomas y globos aerostáticos en un principio, luego
en aviones y en épocas más recientes en las primeras plataformas orbitales (Fig 1). El
vertiginoso desarrollo de estas últimas, acompañadas por los avances tecnológicos paralelos
llevaron a la situación actual en que innumerables plataformas orbitan la Tierra observándola
con sofisticados sensores como escáneres multiespectrales, sensores térmicos
infrarrojos, sistemas de radar y láser, etc.
Para entender cómo opera la percepción remota, es necesario entender algunos de los
principios físicos que la hacen posible. Esto requiere conocimientos de, la radiación
electromagnética (EMR) y sus interacciones con varios componentes del medio
ambiente. Los elementos involucrados para obtener una señal remotamente percibida
son: la fuente de energía, la atmósfera, el objetivo y el sensor.
Es por tanto claro que mientras más alta la frecuencia de la EMR, más energía que facilita su
detección. Adicionalmente, la relación entre velocidad, longitud de onda, y frecuencia (c = λf)
indica que mientras más corta la longitud de onda, mayor el monto de energía disponible. Dado
que hay menos energía en las bandas de longitudes de onda más grande, generalmente, los
sensores que operan en estas regiones tienen una resolución espacial más cruda dado que
deben de recolectar fotones de un área más amplia para poder recibir una señal medible.
Figura 3: Representación del espectro electromagnético.
INTERACCIONES ATMOSFÉRICAS
La energía que recibe un sensor desde un objetivo de interés debe pasar a través de la
atmósfera. Los componentes gaseosos y las partículas de materia dentro de la atmósfera,
pueden afectar la intensidad y la distribución espectral de la energía y pueden impedir la
observación de características de la superficie. La magnitud de los efectos atmosféricos
dependen de factores tales como la longitud de la ruta, la longitud de onda siendo observada y
las variaciones diarias de las condiciones atmosféricas. En el caso de la energía reflejada, la
atmósfera interviene entre la fuente de iluminación y el objetivo, así como también entre el
objetivo y el sensor. Para longitudes de onda emitidas, la situación es más sencilla dado que el
objetivo es la fuente de iluminación.
Cuando la EMR se encuentra con partículas que son varias veces más grandes que las longitudes
de onda afectadas, ocurre una reflexión múltiple no selectiva. El término no selectiva significa
que todo lo reflejado de las longitudes de onda solar son afectadas más o menos igualmente.
Las gotas de agua en nubes o los bancos de niebla son difusiones no selectivas; ellas aparentan
ser blancas porque todas las longitudes de onda visibles son reflejadas. Debido a sus longitudes
de onda larga, los sensores de microondas no son afectados por las reflexiones múltiples
atmosféricas y son por lo tanto capaces de “ver” a través de las nubes.
Debido a las reflexiones múltiples, la energía que es recibida por el sensor incluye reflexiones
tanto de la atmósfera como del objetivo. El componente de reflexión atmosférico es referido
como la ruta de radiancia y se requieren algoritmos complejos para corregir este efecto. En el
caso de difusiones no selectivas, como las nubes, ninguna radiación del objetivo alcanza al
sensor, cuando menos en las bandas visible e infrarroja. En el caso de las difusiones de Raleigh
y Mie es posible medir la influencia de la radiancia de ruta a través de la observación de objetos
muy obscuros, que reflejan relativamente poca energía, en varias bandas adquiridas al mismo
tiempo. Visualmente, el efecto de relexiones múltiples es una imágen más difusa con menor
contraste global.
A diferencia de las reflexiones múltiples que redirigen la EMR y causan una pérdida de detalle,
la absorción atmosférica realmente reduce el monto de energía en ciertas bandas de longitud
de onda. A pesar de que la atmósfera es esencialmente transparente en la porción visible del
espectro, hay varias regiones en las cuales es parcial o totalmente opaco. Varios componentes
gaseosos en la atmósfera absorben o “toman” energía en estas longitudes de onda que son
llamadas bandas de absorción. La Figura 4 ilustra el porcentaje de la EMR que puede pasar a
través de la atmósfera como una función de la longitud de onda. Los sistemas de sensores están
únicamente diseñados para operar en ventanas atmosféricas, regiones no absorbentes del
espectro donde la transmisión es alta.
Cuando moléculas de gas absorben la EMR, su nivel de energía es incrementado; esta energía
es subsecuentemente reemitida como calor la cual es radiación térmica infrarroja. Las emisiones
atmosféricas pueden degradar la señal que alcanza a un sensor desde un objetivo de manera
muy parecida en la que las reflexiones múltiples afectan a la energía reflejada. De nuevo, es
posible corregir este efecto a través de comparar mediciones realizadas simultáneamente en
diferentes bandas.
B A
La forma de dicha curva depende del patrón de niveles energéticos del objeto irradiado y siendo
dicho patrón altamente específico para el sistema atómico molecular del objeto irradiado, es
decir de su estructura química, la curva espectral de éste constituye algo así como una
impresión digital o firma espectral del objeto en cuestión permitiendo su identificación.
Cuando la radiación incide sobre un dado objeto de la superficie terrestre pueden considerarse
los tres tipos fundamentales de interacciones que se representan en la Fig.5 con el
correspondiente balance energético según la ley de la conservación de la energía
Cuando la EMR alcanza un objeto, algunas de las longitudes de onda son reflejadas mientras que
otras son absorbidas o transmitidas. En el espectro visible esta reflectancia selectiva de ciertas
longitudes de onda es percibida como color. La cantidad de energía que es reflejada por un
objeto en diferentes longitudes de onda (relativa a la energía que recibe) es denominada la
reflectancia espectral que es una propiedad intrínseca de cada material
Como puede observarse (a) (b) también en la Fig. 5 (c) en el caso de la reflexión difusa la
radiación penetra hasta cierta profundidad en el material y tiene oportunidad de interaccionar
con los componentes químicos de éste.
La radiación reflejada en forma difusa posee pues más información que la especular acerca del
objeto irradiado. Obviamente, en Percepción Remota será pues particularmente importante
medir las propiedades de la reflectancia difusa de los objetos terrestres. Las características del
fenómeno de reflexión por parte de un objeto sobre la superficie terrestre puede ser
cuantificada midiendo la porción de energía incidente sobre el objeto que es reflejada por éste.
Podemos entonces definir la Reflectancia Espectral como:
Figura 6: Observamos a campo un cultivo de soja desde diferentes ángulos o cuando los
iluminamos desde diferentes direcciones.
.
Dada la importancia de la reflectancia espectral en Percepción Remota creemos interesante
analizar aquí las características espectrales de algunos objetos que aparecen muy
frecuentemente en las aplicaciones de esta tecnología: vegetación, suelo y agua. En la Fig. 7 se
representan las correspondientes curvas de reflectancia espectral.
Figura 7: Curvas de reflectancia espectral de los vegetales y características espectrales de
algunos objetos
LA REFLECTANCIA EN EL AGUA
Absorbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región como
cuerpos oscuros, facilitando su observación y delineamiento. Para longitudes de onda visibles
hay factores que complican la interpretación. En efecto, la reflectancia de un cuerpo de agua
puede generarse por interacción con la superficie (reflexión especular), con material en
suspensión o con el fondo mismo del cuerpo de agua. El agua clara absorbe poca energía con
longitudes de onda por debajo de 0.6 µm, pero a medida que aumenta la turbidez la reflectancia
en el visible aumenta rápidamente. Igualmente la presencia de clorofila (algas, fitoplancton)
modifica la reflectancia del agua, efecto que se aplica al monitoreo por percepción remota de
concentraciones de algas. La Figura 8 es una imagen MODIS que permite observar los
sedimentos en el Río de la Plata provenientes de los ríos Paraná y Uruguay y que se extienden
hasta aproximadamente Mar Atlántico.
Hemos visto cómo las radiaciones electromagnéticas, fundamentalmente emitidas por el sol y
reflejadas por los objetos terrestres, o incluso emitidas por dichos objetos (p.ej. en el infrarrojo
térmico), todas más o menos afectadas por efectos atmosféricos, se combinan generando
“señales” de las cuales es posible extraer información acerca de dichos objetos y de las
coberturas terrestres. La detección de tales señales electromagnéticas puede efectuarse por
medios fotográficos o electrónicos. Históricamente fueron la placa o el film
fotográfico, usualmente sobre plataformas aéreas, los sensores remotos por excelencia. Estos,
a partir de las últimas décadas, debieron convivir con los sensores electrónicos, más adecuados
para las exigencias a que son sometidos sobre plataformas suborbitales y satelitales.
De todos modos la detección sobre plataformas aéreas, sea con sensores fotográficos o
electrónicos sigue constituyendo una valiosa fuente de información en un amplio rango de
aplicaciones, y la decisión final sobre el uso de tal o cual tipo de plataforma debe ser
cuidadosamente analizada, particularmente cuando la relación costo/beneficio gravita
sensiblemente sobre el presupuesto de un proyecto.
Fue a partir de la década del 60 que comenzó el desarrollo vertiginoso de la percepción remota
desde plataformas satelitales. Distintos factores han condicionado este comportamiento que
ha ido llevando a la percepción remota satelital a una etapa esencialmente comercial. Este
potencial se volvió más evidente con las misiones orbitales y espaciales a partir de la década del
60: uno de ellos fue el proyecto CORONA de espionaje militar. Un número no determinado de
estos satélites de corta vida (1 a 16 días) orbitando a unos 130 km de altura y utilizando cámaras
fotográficas de alta resolución realizó misiones de espionaje entre los años 1960 y 1972. El
caudal fotográfico así obtenido fue desclasificado en 1995. Un zoom sobre dicha imagen
permite detectar objetos de10m. Entre las misiones espaciales citemos las misiones Mercury,
Gemini y Apolo. En particular el Apolo IX realizó la primera experiencia controlada de fotografía
orbital multiespectral. Estas experiencias fueron continuadas en posteriores misiones
(Skylab,Apolo-Soyuz, etc.)
SATÉLITES
Con el uso de satélites como plataformas de percepción remota, ha sido posible superar algunas
de las dificultades enfrentadas en la percepción remota con aviones. Los satélites pueden
monitorear el total de la superficie de la tierra sobre bases periódicas, cubriendo una sección
suficientemente grande en cada revolución. Los satélites diseñados para percepción remota
sobre bases operacionales son generalmente no tripulados.
Parámetros Orbitales
La órbita teórica de un satélite es una elipse. En el caso de satélites ambientales, sin embargo,
esta elipse es generalmente considerada como un círculo teniendo a la tierra como su centro.
Las órbitas de los satélites se describen como sigue (referirse a la Figura 8):
i) ecuatorial - teniendo una órbita dentro del plano del ecuador;
ii) polar - teniendo una órbita dentro del plano de los ejes de la tierra;
iii) polar cercano - teniendo una órbita oblicua a los ejes de la tierra.
La mayoría de los satélites de comunicación tienen órbitas ecuatoriales, mientras que las series
de satélites de observación de la tierra tales como TIROS, NOAA y NIMBUS tienen órbitas polares
o polares cercanas. Las órbitas polares son preferidas para ver zonas longitudinales con luz del
día o durante la noche.
Figura 8: Orbitas de los satélites. (Después de E.C. Barrett y L.F. Curtis, 1982).
Orbita geosincrónica:
Las órbitas geosincrónicas tienen altitudes de hasta 3600 km. Los satélites en estas órbitas se
mueven en la misma dirección de la rotación de la tierra (progrado) y sus velocidades son
ajustadas para mantener la posición de los satélites sobre un punto designado sobre la superficie
de la tierra. Cuando el satélite geosincrónico “fluctúa” en el plano ecuatorial (inclinación orbital
“i” igual a cero), es llamado un satélite geoestacionario, por ejemplo, la série GEOS/ METEOSAT
de satélites metereologicos. Los satélites geoestacionarios no pueden tomar imágenes de la
tierra en latitudes mayores a 80°. Son generalmente capaces de tomar imágenes y leer- toda su
área visible (1/3 de la superficie de la tierra) cada 30 minutos. El área visible grande y la
repetitividad de la adquisición de datos, han hecho este tipo de satélites muy populares para
estudios meteorológicos y oceanográficos.
i) las dificultades económicas y tecnológicas de poner el sistema en una órbita tan alta y el
obtener un adecuado comportamiento de los sensores llevados a bordo (una adecuada
resolución espacial);
ii) la pobre cobertura polar.
Orbita heliosincronica:
Esta es un órbita mucho más baja (alrededor de 900 km) que la órbita geosiricrónica. La
inclinación de la órbita relativa al ecuador es cercana a los 90° (polar o polar cercano) y los
satélites (LANDSAT, NOAA, SPOT, etc.) cruzan el ecuador a la misma hora solar cada día. Esto
significa que un punto particular de la tierra es visto regularmente (dependiendo del período del
satélite) a la misma hora, lo cual es útil para análisis comparativo de datos multitemporales. Al
seleccionar una órbita particular es posible no solamente obtener una cobertura repetida de
toda la superficie de la tierra, sino que permite seleccionar los intervalos entre observaciones
de un sitio específico. Esto es logrado por satélites de bajo nivel con órbitas helioiosincrónicas
polares o polares cercanas. Por ejemplo, LANDSAT-4 1 tiene un ángulo de inclinación de 98.3° y
una altitud de 687 km. Cruza el ecuador cada 98.5 minutos y, durante ese intervalo de tiempo,
la tierra a rotado “s”:
Las principales ventajas de los satélites heliosincrónicos son:
i) La factibilidad económica y tecnológica de poner un sistema de órbita baja y de obtener
rendimiento o comportamiento adecuado de los sensores llevados a bordo (alta
resolución espacial en el orden de diez metros);
ii) la posibilidad de darle servicio al sistema orbital con sistemas espaciales tripuladas.
i) Radiómetros barredores: estos sensores colectan una línea de datos a través del uso de
un espejo rotativo para “barrer” la vista perpendicular a la línea de vuelo, por ejemplo,
un sensor térmico IR y un barredor multiespectral (MSS) del LANDSAT (referirse a las
Figuras 11 y 12 respectivamente). El movimiento hacia adelante del satélite o del avión
produce líneas subsecuentes de datos.
ii) Radiómetros de barrido accionado: este tipo de sensor, por ejemplo, el HRV del SPOT,
tiene uno o varios arreglos de detectores. Una línea de adquisición es vista
instantáneamente sin ningún movimiento mecánico lo cual es una mejora significativa
respecto a los radiómetros de barrido (referirse a la Figura 11).
Figura 11: Sistema barredor infrarrojo térmico. Figura 12 Orientación del LANDSAT
MSS. (Después F.F.Sabins, Jr., 1979)
.
Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital con el
lanzamiento, por parte de E.E.U.U., del primero de una serie de satélites ópticos especialmente
destinados a monitorear los recursos terrestres. Dicha serie se llamó LANDSAT y actualmente
operan Landsat-5 y Landsat-7, Landsat 8 OLI Figura 11. Por su parte Francia, con la participación
de Suecia y Bélgica, lanzó en 1986 el primer satélite de la serie SPOT (Systeme Pour l'Observation
de la Terre) de la cual operan actualmente los
Spot -2, -4 y –5 (Fig. 12).
Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si ésta está
en la línea de visión del satélite (A). En caso contrario la información puede ser almacenada a
bordo de B para su posterior retransmisión a una estación terrena. B puede también enviar sus
datos a un sistema satelital repetidor que consiste en una serie de satélites de comunicaciones
en órbita geosincrónica. Los datos son enviados de un satélite repetidor C) a otro hasta alcanzar
un estación terrena adecuada.
Cada línea se subdivide en una secuencia de elementos espaciales individuales cada una de las
cuales representa una pequeña área de la escena terrestre que se examina.
O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las cuales
refleja radiación y que son sensadas secuencialmente a lo largo de la línea. En el sensor cada
una de estas celdas está asociada a un pixel (o picture element) ligado a un detector
microelectrónico y se caracteriza por un dado valor de radiación que a través del efecto
fotoeléctrico genera una corriente electrónica.
El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a dicho
píxel, queda determinada por el Campo de Visión Instantánea del sensor (Instantaneous Field
of View – IFOV).
El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al área
terrestre que está midiendo en cada instante. El IFOV es función de la óptica del sensor, del
tamaño del detector, de la altitud de la plataforma, etc. Los electrones emitidos son recogidos
sucesivamente, píxel por píxel, generando una señal variable que representa la variación
espacial de la radiación por el muestreo progresivo que el sensor va efectuando sobre la escena
terrestre estudiada.
Esto permite asignar a cada píxel un valor discreto llamado Número Digital (DN – digital number).
Estos números digitales resultan de convertir las señales analógicas generadas por el detector
en valores digitales constituidos por números enteros que cubren un intervalo finito, por
ejemplo 8 bit cubriendo el intervalo de 0 a 255. Estos valores digitales permitirán construir la
imagen a través de dispositivos adecuados, por ejemplo el monitor de una computadora. En el
modo de barrido en la dirección de la trayectoria (along track pushbroom) no existe espejo
oscilante, sino un arreglo lineal de pequeños detectores cuyas minúsculas dimensiones
permiten que se asocien hasta miles de ellos en dicho arreglo. El sistema de filtros incorporado
al arreglo permite seleccionar las longitudes de onda.
Cada detector es un dispositivo de acoplamiento de carga (Charge-Coupled Device – CCD –ver
más adelante). En este modo de barrido, los píxeles que constituirán la imagen final
corresponden a estos microdetectores con sus correspondientes filtros incorporados en el
arreglo lineal. A medida que la plataforma avanza en su órbita la radiación proveniente de las
celdas terrestres a lo largo del campo de visión del satélite llega simultáneamente a los
correspondientes detectores. La señal generada por cada detector es removida en
milisegundos, siendo el detector reseteado a cero quedando pronto para recibir la radiación
proveniente de la nueva línea del campo de visión.
RESOLUCION SISTEMAS DE PERCEPCIÓN REMOTA
Los sistemas de percepción remota difieren en la resolución, es decir, el nivel de detalle con que
pueden capturar las imágenes, su frecuencia temporal, “finura espectral”, etc.. Desde este
punto de vista podemos considerar cuatro diferentes tipos de resolución: espacial, espectral,
radiométrica y temporal.
RESOLUCIÓN ESPACIAL.
La resolución espacial se refiere a la finura de detalles visibles en una imagen: cuanto menor es
el área terrestre representada por cada píxel en una imagen digital mayores son los detalles que
pueden ser captados y mayor es la resolución espacial. Otra definición: es la precisión que puede
alcanzar el sensor por pixel, es decir, el área real de tierra representada en un nivel digital de
información (pixel).
En las Figura 24 se observan imágenes de una misma región a tres diferentes resoluciones
espaciales (alta, mediana y baja, correspondiendo respectivamente al QUICKBIRD, 0.60m
LANDSAT-5, 30m y MODIS 1.1 km ,). Dicho de una manera más simple la resolución espacial se
relaciona con la medida de los objetos más pequeños que pueden ser registrados por un sensor.
Existen diferentes factores que influyen en la resolución espacial: además de los obviamente
asociados al sensor, como ser el poder resolutivo del sistema óptico, debemos considerar las
influencias atmosféricas, presencia de humo, neblina, bajos niveles de iluminación, etc.
También existen factores asociados a las características del objeto a detectar y de su entorno:
un buen contraste y bordes nítidos del objeto son favorecen la detección. La selección de la
resolución espacial necesaria para un dado proyecto debe analizarse cuidadosamente. En efecto,
pretender resoluciones mayores que la necesaria encarece el costo de las imágenes y la carga
de proceso.
Figura 24 Ejemplo de diferentes resoluciones espaciales
MODIS 1,1 km
QUICKBIRD, 0.60m LANDSAT-5 30 m
ESCALA VS. RESOLUCIÓN ESPACIAL. La resolución espacial de una imagen es una predicción
del tamaño del pixel expresada en términos de dimensiones sobre el terreno. Usualmente
se presenta por un valor único correspondiente a la longitud de un lado del
cuadrado correspondiente a dicho pixel. Así, una resolución espacial de 30 m significa que el
pixel representa un área de 30 m x 30 m sobre el terreno. Si el pixel fuera rectangular debería
ser representado por su largo y ancho, por ejemplo 56 m x 79 m. La resolución espacial es
una indicación del potencial de detalle que ofrece una imagen. Si una imagen de satélite de 1
m de resolución se imprime a una escala de 1/500000 se perdería el potencial de detalle que
ofrece dicha imagen. La inversa también es cierta: si se imprime una imagen de baja resolución
espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles individuales. Cuando
efectuamos “zoom” repetido sobre una imagen digital (es decir, cuando vamos “afinando” la
escala) llega un momento en que comienzan a visualizarse los pixeles, y a partir de ese punto
aunque sigamos afinando la escala no se aumentará su nivel de detalle llegando a dificultarse
su interpretación.
RESOLUCIÓN ESPECTRAL
La resolución espectral son los intervalos específicos dentro del espectro electromagnético
donde el sensor registra los datos. La amplitud de la banda espectral, esto es, el grado en el que
el rango limitado de las longitudes de onda es detectado, es referido como la resolución
espectral
Vimos que cada pixel de una dada banda espectral tiene un pixel coincidente en cada una de las
demás bandas. Así, para una imagen que conste de K bandas habrán K niveles de grises
asociados a cada pixel.
RESOLUCION RADIOMETRICA
Los datos provenientes de los sensores pueden ser almacenados en formatos analógicos o
digitales. En un sistema analógico las variaciones en la intensidad de los insumos originales de
las señales, por ejemplo (la variación en la brillantez de una imagen), son presentadas por
variaciones continuas en algún otro medio tal como el voltaje o la densidad de la película. Una
representación digital en contraste, divide la señal original en rangos discretos, a cada uno de
los cuales le es asignado un valor numérico. El rango de la señal original representado por un
valor numérico único es llamado la resolución radiométrica del sistema del sensor. Los datos
grabados digitalmente a diferencia de los datos analógicos, pueden ser procesados fácilmente
por computadoras y pueden copiarse repetidamente sin afectarse negativamente los originales
o datos copiados. Para la interpretación humana, sin embargo, un desplegado analógico tal
como una fotografía o una imagen de televisión es más útil. Con equipo apropiado es posible
convertir datos de un formato al otro.
En la sección anterior nos referimos a los números digitales (DN) asociados a cada píxel en
las imágenes digitales y que generan lo que llamamos escala de grises que en realidad es
la escala de niveles digitales disponibles para representar los detalles de la imagen. El
número de niveles de grises se expresa comúnmente en términos de dígitos binarios (bits)
necesarios para almacenar el valor del nivel de gris máximo para el caso considerado.
Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores 1y 0.
Usando un arreglo de bits puede representarse un número cualquiera dentro de los límites de
“longitud de palabra” de la computadora. Para lograr una imagen de pantalla con variaciones de
brillo prácticamente continuas desde el punto de vista visual se necesitan 5 o 6 bits por píxel.
El número de valores que pueden ser representados por una serie dígitos es xn , donde x es el
número de valores que cada dígito puede representar y n es el número de dígitos usados. En una
base binaria el número de valores será 2n .
Por ejemplo, para 5 bits tendremos 32 valores, para Landsat 8 tiene una resolución radiométrica
de 256 niveles (8 bits). Sentinel 2 por ejemplo consigue un valor de 4096 niveles de intensidad
(12 bits).para 11 bits 2048, etc. En el caso del Landsat y el HRVI se tienen 8 bits, es decir, la escala
de grises se extiende de 0 a 255, totalizando 256 valores.
RESOLUCION TEMPORAL
En la figura 26 vemos que las características orbitales del LANDSAT hacen que la distancia entre
el trazado terrestre de dos órbitas consecutivas sea de 2752 km en el ecuador. En la figura 26
se observan las órbitas recorridas en días sucesivos. El intervalo de tiempo entre órbitas
adyacentes es de 7 días. De todos modos como LANDSAT-5 y LANDSAT-7 están desfasados 8
días, cuando ambos satélites se encuentran operativos puede lograrse para una dada región una
cobertura LANDSAT cada 8 días.
Hasta ahora, se podían obtener imágenes gratuitas de Landsat sobre una porción específica de
terreno cada 16 días. Esto, en según qué cultivos y momentos del cultivo puede ser insuficiente
para un estudio concreto. Sentinel 2 con sus 2 satélites gemelos, proporcionan una resolución
temporal de 5 días, aumentando considerablemente su frecuencia de revisión por un mismo
punto.
Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden orientarse
según diferentes ángulos, con lo cual pueden registrar imágenes no sólo en el nadir sino también
a través de enfoques laterales, frontales o traseros. Esto permite lograr períodos de revisita
mucho más cortos, incluso de dos o tres días. Otro ejemplo de satélites con alta resolución
temporal lo constituyen los de la serie NOAA con sus sensores AVHRR.
Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria global
diurna y nocturna. Sin embargo, debe tenerse en cuenta que la resolución espacial de éstos es
de 1 km, es decir mucho menor que la de los satélites anteriormente mencionados. De todos
modos, su elevada resolución temporal, los hace sumamente útiles en monitoreos ambientales
o agrometeorológicos sobre áreas muy extensas. Estas características son compartidas con el
instrumento MODIS a bordo de los satélites TERRA y ACQUA sobre áreas muy extensas. Estas
características son compartidas con el instrumento MODIS a bordo de los satélites TERRA y
ACQUA.
Cada pixel en cada banda está en perfecto registro geométrico con sus equivalentes de
las restantes bandas. Asociado a cada pixel existe un número (Número Digital, DN) que mide la
radiancia promedio o brillo correspondiente al área de escena abarcada por dicho pixel. En una
base binaria de 8 bits el DN poseerá 28 valores en un rango de 0 a 255.
Estos valores pueden ser modulados para producir en la pantalla de una computadora un escala
de grises que va desde el negro (DN=0) hasta el blanco (DN=255). O sea que para cada pixel en
una escena que consta de k bandas espectrales habrá asociados k niveles de grises. Estos definen
un espacio espectral k dimensional en el que cada pixel es representado por un vector que
constituye su firma espectral y que permitirá, a través de operaciones de clasificación basadas
en algoritmos matemático-estadísticos, asignar dicho pixel a clases temáticas definidas. El área
terrestre representada por un pixel está determinada por la altura del sensor y los parámetros
de diseño de éste, particularmente el campo de visión instantáneo (IFOV). Obviamente al
reducirse dicha área más detalles de la imagen serán aparentes, es decir que aumenta la
resolución espacial.
COMBINACIONES DE COLORES
Vimos que las imágenes satelitales suelen ser multiespectrales, es decir que son
registradas simultáneamente en varias regiones del espectro electromagnético. Estas imágenes
pueden ser estudiadas individualmente en escalas de grises o en imágenes coloreadas obtenidas
a partir de las primeras. Estas últimas se generan según el modelo de color RGB (del inglés Red,
Green, Blue). Este hace referencia a la composición del color en términos de la intensidad de los
colores primarios con los que se forma: el rojo, el verde y el azul. Es un modelo de color basado
en la síntesis aditiva, es decir basado en la mezcla por adición de dichos primarios. Para indicar
en qué proporción se mezcla cada color se asigna un valor a cada uno de los colores primarios.
Así por ejemplo, para un display de computadora de 8 bits por pixel el rango de valores posibles
(o sea de DN) para cada componente de color es de 0 a 255. En consecuencia existirán 2563 =
16.777.216 combinaciones posibles de rojo, verde y azul, y a cada pixel de una combinación de
color corresponderá un punto dentro del cubo de color representado en las Figura 29 (a esta
última se le extrajo un sector para mejor visualización interior).
Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del azul (0,0,255).
La ausencia de color, es decir el negro corresponde al punto (0,0,0). La combinación de dos
colores a nivel 255 con un tercero a nivel 0 da lugar a tres colores intermedios: el amarillo
(255,255,0), el cyan (0,255,255) y el magenta (255,0,255). El blanco se forma con los tres colores
primarios a su máximo nivel (255,255,255).
La escala de grises es la diagonal que une el blanco y el negro. Concretando, para preparar una
combinación de color se seleccionan tres bandas de interés de la escena multiespectral y
computadora mediante se le asigna a cada una de ellas uno de los tres colores primarios. El
display nos entregará una combinación RGB correspondiente a las bandas seleccionadas y a la
asignación de colores. Las bandas a seleccionar quedarán condicionadas, aparte de las
posibilidades ofrecidas por el sensor del satélite, por aquellos rasgos de la escena que se desea
realzar, y la asignación de colores además de ser condicionada por dicho factor puede
corresponder a un criterio profesional o heurístico del analista.
De todos modos, existen ciertas combinaciones que demostraron ser de particular interés,
sobre todo asociadas a temas ambientales y agronómicos. Dichas combinaciones para Landsat
o Sentinel son:
RGB (4-3-2) (3,2,1) Esta combinación suele llamarse “color natural” pues involucra a las tres
bandas ,visibles y se le asigna a cada una de ellas su verdadero color, resultando una
combinación que se aproxima a los colores naturales de la escena. La vegetación aparece en
diversos tonos de verde y los suelos en colores marrones o tostados. Además, las bandas visibles
tienen buena penetración en los cuerpos de agua y esta combinación permite observar detalles
en agua poco profundas (turbidez, corrientes, batimetría, plumas de sedimentos, etc.).
RGB (6,5, 2) Landsat 8 (11,8A,2) Sentinel 2B Agricultura Constituye una “simulación”del color
natural, pese a utilizar 2 bandas infrarrojas. Se ve realzada la diferencia de humedad en suelos
y vegetales. Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá éste.
RGB (8-4-3) Sentinel 2B Esta combinación suele llamarse “falso color infrarrojo” pues los
colores resultantes en la imagen son similares a los de las fotografías obtenidas con film
infrarrojo color. Al asignar el rojo a la bandas 4 (NIR) resultará que todos los tonos de rojo, desde
el rojo muy oscuro al rosado pálido corresponden a vegetación: los tonos más oscuros se
relacionan con la presencia de vegetación arbórea densa, como bosques, montes, etc.,
pudiéndose identificar algunas especies como pinos y eucaliptos. Rojos claros indican cultivos y
praderas vigorosas. Los rosados corresponden a vegetación poco densa como pasturas
naturales. El celeste corresponde a suelo desnudo, seco o áreas rocosas. El azul-celeste
puede corresponder a zonas urbanas. El azul oscuro a negro se relaciona con agua clara en
cursos o cuerpos de agua. Si éstos presentan partículas en suspensión aparecerán con
tonalidades azul-verdosas (cian). Los colores verde a verde azulado corresponden a parcelas
aradas o suelos descubiertos con mayor o menor contenido de humedad.
En las Figura 30 , se presenta una imagen LANDSAT 5 de una forestación. A efectos comparativos
esta imagen fue sometida a las combinaciones de color arriba mencionadas.
Las combinaciones de color que acabamos de ver hacen referencia a las bandas del LANDSAT,
pero los criterios son aplicables a otros satélites teniendo en cuenta las características
espectrales de sus bandas. No todas las imágenes satelitales presentan la diversidad de bandas
del LANDSAT, y en tales casos algunas de las combinaciones antes referidas no pueden realizarse
con las escenas de dichas satélites, no obstante lo cual el analista puede intentar otras
combinaciones que permitan realzar características de interés.
La combinación de color utilizada en este caso es RGB 3,2,1 (infrarrojo medio, infrarrojo cercano,
rojo). Las bandas infrarrojas que son intensamente absorbidas por el agua permiten destacar
nítidamente los contornos de los ríos (color negro), algunos de los cuales en este período
estaban desbordados, así como las zonas anegadas (colores oscuros). Las áreas forestadas
aparecen con color verdoso más intenso.
Otro ejemplo es el caso del ASTER (instrumento a bordo del satélite TERRA) que en el modo de
resolución espacial de 20 m solo posee una banda en el verde, otra en el rojo y una tercera en
el infrarrojo cercano. En este caso es posible la combinación RGB 3,2,1 (i.r. cercano, rojo, verde)
como se aprecia en la Figura 32.
Esta sección describe los satélites ambientales actualmente en el aire, sus sensores y su uso
potencial para estudios oceanográficos. Los sensores para algunos de estos satélites, están
actualmente fuera de comisión o, en el caso de satélites tripulados, no habitados. Sin embargo,
debido al potencial de interés en los datos que han adquirido durante su período de actividad,
son incluidos en esta sección.
El TM proporciona una resolución global de 30 metros. Esta alta resolución es lograda por
detectores sensitivos y por una cuantización de 8 bits en el proceso de conversión analogías a
digital (256 niveles de gris). En contraste, la MSS tiene únicamente 6 bits de cuantización (64
niveles de gris). Esto significa que las escenas del TM contienen mayor número de píxel con
mayor rango radiométrico. Esto resulta también en una alta tasa de datos de bits de 84.9
megabytes por segundo.
Serie NOAA
Con la experiencia ganada con las series de satélites NIMBUS, PIROS y TOS (Satélite Operacional
TIROS), se comenzó la serie de satélites operacionales de NOAA. La Administración Nacional
Oceánica y Atmosférica de E.U.A. (NOAA) fundó la serie, de ahí la designación del nombre.
Los satélites de la serie NOAA están dedicados a observaciones metereológicas y a estudios de
la temperatura superficial del mar.
Serie GOES/METEOSAT
Estos satélites geoestacionarios de gran altitud (36,000 km) son utilizados para observaciones
metereológicas globales y para comunicaciones (referirse a las Figuras 14 respectivamente). Los
aspectos de la metereología que son el foco de estos satélites, incluyen el mapeo de nubes e
imágenes infrarrojas y visibles de la superficie de la tierra, para detectar cambios de gran escala
en parámetros oceánicos.
SPOT
Este satélite fué lanzado en 1986 y está dedicado a la observación de la tierra, aunque tiene
aplicaciones oceanográficas al igual que el LANDSAT.
Tiene una órbita heliosincrónicos polar cercana con un ángulo de inclinación de 99° y un período
de 101 minutos. Realiza de 14 a 15 revoluciones per día y sobrepone la misma ruta cada 26 días
con una distancia entre rutas de 2,818 km. La altitud de este satélite es de 820 a 840 km. El
sensor a bordo es el radiómetro de opresión de barrido, HRV (Alta Resolución Visible).
SENTINEL
Diseñada como una constelación de dos satélites – Sentinel-1A y -1B –, esta misión equipada
con un radar de banda C proporcionará imágenes de las superficies terrestre y oceánica de
Europa, Canadá y las regiones polares casi en tiempo real, obtenidas en cualquier momento del
día o la noche y en todas las condiciones meteorológicas.
Equipada con un potente radar de apertura sintética, esta misión garantiza la continuidad con
el satélite europeo Envisat, que dejó de funcionar en 2012 tras 10 años de servicio. La tecnología
se basa en una sólida herencia de radares en satélites, iniciada con ERS-1 hace 23 años.
El satélite Sentinel-2B de la ESA, que duplicará la cobertura óptica de alta resolución de la misión
Sentinel-2, perteneciente al sistema de vigilancia medioambiental Copernicus de la Unión
Europea.
La misión de toma de imágenes Sentinel-2 se basa en una constelación de dos satélites idénticos:
Sentinel-2A, lanzado en junio de 2015, y Sentinel-2B. Aunque lanzados por separado, ambos
satélites se encuentran en la misma órbita, con una separación de 180°. Cada cinco días, entre
los dos satélites quedará cubierta toda la superficie terrestre, las mayores islas y las aguas
costeras y continentales entre las latitudes 84° S y 84° N, optimizando así la cobertura global y
la provisión de datos.
Cada satélite Sentinel-2 transporta una innovadora cámara multiespectral de alta resolución,
con 13 bandas espectrales que aportan una nueva perspectiva de la superficie emergida y la
vegetación. La combinación de la alta resolución y las nuevas capacidades espectrales, así como
un campo de visión que abarca 290 km de ancho y sobrevuelos frecuentes, proporcionará vistas
de la Tierra sin precedentes.
bandas Resolución espacial (m) Resolución espectral (nm)
Banda 1 (Aerosol) 60 443
Banda 2 (Azul) 10 490
Banda 3 (Verde) 10 560
Banda 4 (Rojo) 10 665
Banda 5 (NIR) 20 705
Banda 6 (NIR) 20 740
Banda 7 (NIR) 20 783
Banda 8 (NIR) 10 842
Banda 8a 20 865
Banda 9 (Vapor de agua) 60 9945
Banda 10 (Cirrus) 60 1375
Banda 11 (SWIR) 20 1610
Banda 12 (SWIR) 20 2190
ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA
Los avances tecnológicos de las últimas décadas en el campo de la percepción remota y de sus
cada vez más numerosas aplicaciones nos hacen desistir de intentar realizar acerca de éstas
una presentación sistemática y formal, sobre todo si queremos mantener el
carácter introductorio de este trabajo. Ya en los capítulos anteriores, al referirnos a
diversos aspectos y procedimientos de la Percepción Remota los hemos ilustrado con algunos
ejemplos de aplicación a casos de monitoreo de recursos terrestres. Para este capítulo final
hemos elegido algunos temas de aplicación puntuales que creemos pueden ser de especial
interés para quienes nos han acompañado hasta aquí. Estos temas son:
· Aplicaciones en agricultura.
APLICACIONES EN AGRICULTURA.
ÍNDICES DE VEGETACIÓN
Vamos a referirnos a ciertas operaciones algebraicas efectuadas sobre los valores numéricos
de los pixeles correspondientes sobre dos o más bandas pertenecientes a la misma escena.
Entre las más importantes figuran las que conducen a evaluar los índices de vegetación. Un
índice de vegetación es un número generado por alguna combinación de bandas espectrales y
que puede tener alguna relación con la cantidad de la vegetación presente en un dado píxel de
la imagen.
¿Ves el salto tan enorme que hay justo en el cambio del visible al NIR?
¡¡La reflectancia de una planta sana en la banda del NIR (infrorrojo cercano) es brutal!!
Si nuestros ojos fueran capaces de captar esta longitud de onda, las plantas en pleno vigor
vegetativo, nos estarían deslumbrando como espejos!!. La reflectancia al NIR no la genera la
clorofila como en el verde. Esa reflectancia se debe a la estructura celular del parénquima.
Para valores mayores de 1.3 mµ aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 mµ. El stress
vegetal suele manifestarse cuando por efecto de factores como sequía, enfermedades,
infección por plagas, etc., la hoja ve reducido su contenido de agua. Esto produce el colapso de
las células del mesodermo inferior, lo cual reduce la reflectancia en el IR cercano, constituyendo
un síntoma visual de stress ya que suele manifestarse días e incluso semanas antes de que
comiencen a apreciarse cambios visualmente o a través de la fotografía color convencional
Es verdad que el NDVI predice cosas?
Mucho se ve en la web de modelos predictivos de rendimientos de cultivo, plagas, riego… Cómo
podemos ahorrar costes con modelos que nos dicen qué cantidad de fertilizante hay que echar
según en qué zonas del campo y muchas cosas más. ¿Todo esto hace el NDVI? Bueno, no es del
todo cierto pero ayuda. El NDVI es uno de tantos índices y es una herramienta más de apoyo
al diagnóstico y la predicción. Y aquí es donde quiero arrojar un poco de luz sobre este índice al
que muchas veces se sobrevalora. No porque sea un mal índice, sino porque se le atribuyen
capacidades inherentes que no tiene.
Muchas veces se da a entender o se malinterpreta que el NDVI es capaz de inferir todas esas
variables de un cultivo simplemente capturando una imagen multiespectral, sacándo el índice y
ya. Pareciera que con un satélite o drone, ya no tenemos que ir al campo a mirar cómo va el
cultivo. “Me mandan una imagen al móvil con un mapa de ‘colores” precioso y ya sé qué le pasa
al cultivo y cómo debo solucionarlo. Hasta sé cuánto tengo que regar y cuánto plaguicida usar.”
Como si de una bola de cristal se tratara. Cuidado con esto.
La labor del técnico de campo, ingeniero agrónomo, agricultor es esencial en la interpretación
de las imágenes. Quien cultiva sabe mejor que nadie qué variables maneja, como la pendiente
de la parcela, el tipo de suelo, la conductividad del agua con la que riega, el fertilizante que
utiliza, la cantidad del mismo, el clima en esa zona, los rendimientos del cultivo en diferentes
años, los vientos predominantes… Esto una imagen NDVI no te lo dice y son variables esenciales.
El NDVI nos da un valor que indica si la planta está bien, si está en su óptimo de crecimiento en
ese momento o realmente está sufriendo, lo que se conoce como estrés. Este estrés puede ser
debido a:
Estrés hídrico: Falta de agua (normalmente) aunque puede ser un exceso también.
Estrés nutricional: Falta o exceso de algún nutriente necesario. Pueden ser
macronutrientes NPK (Nitrógeno, Fósforo, Potasio) o micronutrientes como (Calcio,
hierro, boro, manganeso, zinc…)
Estrés por plagas. Daño físico a la hoja, debilitamiento de la planta…
Estrés por enfermedades: Víricas, criptogámicas (hongos), bacterias, nematodos…
Estrés por pH: Si el suelo tiene un pH fuera del rango “cómodo” para la planta, el sistema
radicular sufre y la absorción de nutrientes se ve afectada seriamente.
Estrés lumínico: No es común en cultivos agrícolas, pero puede pasar.
¡¡¡EL NDVI NOS DA EL ESTADO DE LA PLANTA, PERO NO NOS DICE EL POR QUÉ!!!
El espectro vegetal posee el aspecto típico del obtenido con un espectrómetro de laboratorio
o bien con un sensor hiperespectral. Como los satélites más usuales actualmente son sólo
multiespectrales no nos pueden suministrar una curva espectral con la alta resolución de un
espectrómetro o un sensor hiperespectral. Sin embargo, con sus datos, por ejemplo con las 6
bandas visibles e infrarrojas del Landsat, podemos construir un espectro grosero como el de la
Figura 33 que de algún modo refleja las características del espectro de laboratorio y que nos
puede brindar mucha información acerca del estado de un cultivo, de una forestación, etc. La
curva a corresponde a pleno vigor vegetativo, la b representa una etapa con estrés hídrico y la
c marca ya un estado avanzado de estrés hídrico. Obsérvese el quiebre de las curvas a aprox.
1.6mµ, que es un reflejo del contenido de agua de la hoja y permite diferenciar claramente por
el cambio de concavidad de la curva la transición a un estado de stress. Si se consideran los
valores relativos de las reflectancias en el rojo y en el infrarrojo cercano para cada banda se
comprende que ocurrirá un notorio decrecimiento del NDVI al pasar de la banda a a la c
Conclusión: ¿De qué nos sirve un índice si luego no somos capaces de interpretar los
valores, contextualizando el cultivo en el tiempo y en el espacio?
El NDVI necesita información complementaria
Las variables a controlar son muchísímas y el mismo cultivo puede variar mucho en función de:
estado fenológico, situación geográfica, clima, variedad, SUELO (este influye muchísiiiiiisimo),
laboreo, programa de fertilización… cuantas más tengamos controladas, más fácil es predecir
qué variable está causando el NDVI anormalmente bajo. Debemos tener una visión de conjunto,
muchas muestras tomadas, muchas imágenes de nuestro cultivo para contrastarlas.
Cuando se anuncia que con un NDVI se pueden predecir dosis de fertilización nitrogenada por
zonas para maíz por ejemplo, es cierto, se puede, pero siempre teniendo en cuenta que ha
habido un estudio muy potente por detrás. Un estudio que ha encontrado una relación directa
o patrón entre los valores de NDVI en un estado fenológico del maíz y su fertilización
nitrogenada (seguramente con las demás variables casi constantes en la medida de lo posible).
Con esto, lo que se quiere resaltar aquí es que, si en un mapa de valores NDVI captados por un
sensor (ya sea satélite o UAV) hay zonas del cultivo con peor índice que el resto, no podemos
saber SÓLO con la imagen qué puede estar pasando. Podemos plantear hipótesisy desde luego
podemos descartar aquellas afecciones que no correpondan con el momento en que se mide
ese valor. Pero sigue siendo necesario ir al campo y ver qué puede estar pasando. Además, no
vale con una sola adquisición de imágenes.
Lo interesante es tener series temporales dentro de la campaña y entre campañas. Así
tendremos valores con los que poder comparar, descartar variables y ajustar los modelos a lo
que realmente queremos.
Resumiendo
El NDVI es un índice muy aceptable que nos da información muy valiosa porque podemos
generar mapas que nos dan diferencias de vigor vegetativo en grandes extensiones. Una vez
visto esto, debemos ir a campo, observar las diferencias (tanto espaciales como temporales) de
las zonas afectadas y empezar a descartar variables y buscar el diagnóstico concreto.
EL NDVI ES UNA HERRAMIENTA MÁS, NO UNA SOLUCIÓN.
Durante los meses de febrero de 2018 a marzo de 2018 se produjo en Argentina una intensa
sequía. Esta fue seguida a través de imágenes NOAA 19 de 1 km de resolución y calculando los
índices de vegetación. Es el índice de vegetación normalizado (IVN; NDVI en inglés) que se
calcula a partir de información captada por el sensor AVHRR de los satélites de la serie NOAA a
una resolución espacial de 100 hectáreas (1 km2), tomando los valores máximos para una
composición de imágenes correspondientes a un mes calendario. Las imágenes obtenidas se
representan en la secuencia de la Figura 34.
Seguimiento de cultivos
El NDVI está asociado a la fracción de la radiación solar absorbida por las plantas. Existe una
fuerte relación entre elNDVI y variables de la vegetación tales como la biomasa, el índice de área
foliar (IAF) o la productividad. Conocer dichas variables en el tiempo para los distintos lotes o
potreros permite estimar la oferta forrajera, definir la carga animal óptima y planificar otras
prácticas de manejo en los sistemas ganaderos. También permite predecir el rendimiento de los
cultivos, asignar diferencialmente los recursos y comparar la campaña actual con anteriores en
los sistemas agrícolas.
Las Figuras 34; 35 y 36 muestran una secuencia de imágenes temporales de algunas arroceras
a lo largo de un pequeño área. Las imágenes cubren aproximadamente 14 km x 14 km y
fueron extraídas de una imagen Landsat standard de 185 km x 185 km. Junto a cada imagen
se muestra la foto del estado de desarrollo de una pequeña arrocera cuya posición se indica
en la imagen.
Figura 35
Figura 36
Los ejemplos anteriores son de carácter localizado. Sin embargo existen actualmente satélites
como los de la serie NOAA y TERRA (Los Nuevos Satélites Para la Observación de la Tierra) que
en el marco de programas de monitoreo permanente de la superficie terrestre como por
ejemplo el programa EOS (Earth Observation System) de la NASA, suministran información
permanente sobre cambios en las coberturas terrestres. Entre los productos que estos
programas suministran se encuentra el NDVI a nivel global. Estos productos están disponibles
en Internet en resoluciones espaciales de 250m a 1 km por pixel. Uno de los sitios más
apropiados para bajarlos es el Earth Observing System Data Gateway
PERCEPCION REMOTA EN EL INFRARROJO TERMICO
Generalidades sobre el infrarrojo térmico (IRT). Todo objeto cuya temperatura se encuentre
por encima del cero absoluto emite energía electromagnética en la región infrarroja térmica (3
a 14 mµ) del espectro electromagnético. Si bien el ojo humano es insensible a dichas
radiaciones existen, sensores capaces de detectarlas. Efectivamente, los sistemas de
percepción remota en el IRT son capaces de registrar imágenes térmicas que ofrecen
incontables aplicaciones, fundamentalmente en el monitoreo de las superficies terrestres y
oceánicas así como de fenómenos atmosféricos. Es una práctica usual medir la temperatura de
un cuerpo mediante un termómetro que está en contacto o sumergido en dicho cuerpo. La
magnitud así medida es la llamada temperatura cinética que constituye una manifestación
interna de la energía translacional asociada al movimiento aleatorio y colisiones de las
moléculas del cuerpo considerado. Esta energía interna puede convertirse en energía radiante
y ser emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede
medir así la temperatura radiante del objeto que está correlacionada, aunque no es
exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo más baja
que esta última debida a una propiedad térmica de los cuerpos que llamamos emisividad y que
más adelante consideraremos asociada al movimiento aleatorio y colisiones de las moléculas
del cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser
emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede medir así
la temperatura radiante del objeto que está correlacionada, aunque no es exactamente igual,
a la temperatura cinética.
Refiriéndonos en particular a la serie NOAA, diremos que es una familia de satélites solar-
sincrónicos que orbita a 833 km de altitud. Su sensor AVHRR (Advanced High
Resolution Radiometer) ha sido tal vez el más ampliamente utilizado para las medidas de
temperatura. Posee cinco canales: uno en el visible (0.63 mµ ), uno en el IR cercano (0.91 mµ),
uno en el límite IR cercano/térmico (3.7 mµ) y dos en el IRT (10.8 mµ y 12 mµ).
Este sensor posee una resolución espacial de 1.1 km y un ancho de barrido de 2400 km. Los
satélites en actividad de esta serie son NOAA-12, 14, 15, 16, 17 y 18. Debe tenerse en cuenta
que pese a su gran eficiencia para medir temperaturas sobre grandes extensiones geográficas
sus mediciones no están libres de dificultades, particularmente por la acción combinada de
perturbaciones debidas a la emisividad del terreno y el efecto atmosférico. La perturbación
atmosférica es debida fundamentalmente a la absorción y emisión de radiación térmica por
parte del contenido de vapor de agua atmosférico, mientras que el efecto de emisividad se
debe a la heterogeneidad de los elementos presentes en la superficie terrestre. En
consecuencia, una adecuada estimación de temperatura desde plataformas satelitales
requerirá corregir los defectos indicados.
Temperatura terrestre.
La temperatura terrestre es un buen indicador del balance energético y del efecto invernadero,
puesto que constituye uno de los parámetros clave en la física de los procesos que ocurren en
la superficie de la Tierra tanto a nivel local como global. Combina los resultados de las
interacciones superficie-atmósfera y de los flujos energéticos entre la atmósfera y el suelo. Por
tal motivo su medida es necesaria para variados estudios climáticos, hidrológicos, ecológicos y
biogeoquímicos. Su importancia en agricultura radica en que la temperatura del suelo y del
follaje es uno de los factores determinantes del crecimiento vegetal y gobierna el inicio y
terminación de los procesos estacionales de los vegetales. Como en el caso de las medidas
marinas en las terrestres existen abundantes bases de datos de temperatura a nivel global
obtenidos a través de los sensores AVHRR y MODIS, aunque también se obtiene información
de esta naturaleza a través de satélites geoestacionarios (ej. serie GOES). Como en el caso de
la medida de temperatura del mar también aquí se recurre a algoritmos de cálculo, por ejemplo
del tipo de ventana dividida o split-window para procesar los datos de infrarrojo térmico.
El FIRMS (Fire Information for Resource Management System) por ejemplo genera un mapa de
puntos calientes/incendios casi en tiempo real accesible por Internet. El FIRMS, operado por la
NASA y la Univ. de Maryland se basa en el sistema de respuesta rápida de MODIS.
(http://rapidfire.sci.nasa.gov/status/)
Las imágenes satelitales constituyen una valiosa herramienta para acceder rápidamente a
aquellas áreas sometidas a desastres ecológicos. Su amplia área de cobertura, su facilidad para
visualizar rápidamente y evaluar la situación de aquellos lugares donde las mismas
consecuencias del desastre impiden o dificultan otros tipos de aproximación son factores
fundamentales en el manejo de las acciones de recuperación posteriores al evento. Incluso en
muchos casos la información satelital permite emitir alertas previos al evento: en efecto,
muchos tipos de desastres, como inundaciones, sequías, huracanes, erupciones volcánicas, etc.
poseen señales precursoras que un satélite pude detectar. El alerta temprano permite reducir
los riesgos potenciales y planificar las acciones a tomar durante y luego del episodio. Cuando
hablamos de desastres ecológicos lo hacemos en un sentido amplio. En efecto, incluimos en
dicho concepto no sólo los desastres naturales sino también los debidos a la acción humana
directa o bien inducidos por la acción humana. Algunos son de rápido desenlace y con
resultados devastadores, otros son de desarrollo lento pero con iguales o más serias
repercusiones en el tiempo.