Está en la página 1de 41

DEFINICIONES Y CONCEPTOS FUNDAMENTALES PERCEPCIÓN REMOTA (PR).

Percepción remota es la ciencia y arte de obtener información de un objeto, área o fenómeno a


través del análisis de los datos adquiridos mediante algún dispositivo que no esta en contacto
físico con el objeto, área o fenómeno investigados.

Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los cambios
que los objetos imponen a los campos que los envuelven, según sean éstos electromagnéticos,
acústicos, gravimetritos o magnéticos: bastará poseer el sensor adecuado para cada caso. Desde
un punto de vista práctico, más acorde a nuestros fines, podemos restringir la generalidades
este concepto limitándonos a utilizar el término “percepción remota” en conexión con técnicas
electromagnéticas de adquisición de información. Si quisiéramos historiar la evolución de la
percepción remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones
años cuando alguna forma inferior de vida comenzó a diferenciar algunas de sus células
volviéndolas fotosensibles, proceso que evolucionó también durante millones de años hasta
convertirlas en un sensor altamente sofisticado como el ojo humano. Si bien éste fue y sigue
siendo el sensor utilizado en muchas aplicaciones cotidianas de la percepción remota, ya desde
el siglo XIX comenzó a ser sustituido por un mecanismo que lo imitaba ofreciendo algunas
ventajas como el del registro permanente de las observaciones: la cámara fotográfica. Esta fue
montada en plataformas tan dispares como palomas y globos aerostáticos en un principio, luego
en aviones y en épocas más recientes en las primeras plataformas orbitales (Fig 1). El
vertiginoso desarrollo de estas últimas, acompañadas por los avances tecnológicos paralelos
llevaron a la situación actual en que innumerables plataformas orbitan la Tierra observándola
con sofisticados sensores como escáneres multiespectrales, sensores térmicos
infrarrojos, sistemas de radar y láser, etc.

Figura 1: Evolución de diferentes plataformas para registro de observaciones

La Percepción Remota involucra dos procesos básicos:


 Adquisición de datos desde plataformas con sensores adecuados
 Análisis de los datos mediante dispositivos visuales o digitales.
Muchas veces la información así adquirida se complementa con datos de referencia ya
existentes de la región en estudio (mapas de suelos, estadísticas de cosechas, planos catastrales,
etc.) Toda esta información es usualmente combinada en forma de capas de información en lo
que usualmente se denomina un SIG (Sistema de Información Geográfico) o GIS de acuerdo a
sus siglas en inglés.

FUENTES DE ENERGIA E INTERACCIONES

Para entender cómo opera la percepción remota, es necesario entender algunos de los
principios físicos que la hacen posible. Esto requiere conocimientos de, la radiación
electromagnética (EMR) y sus interacciones con varios componentes del medio
ambiente. Los elementos involucrados para obtener una señal remotamente percibida
son: la fuente de energía, la atmósfera, el objetivo y el sensor.

NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS

Dada la importancia de las radiaciones electromagnéticas en la adquisición de información por


PR se justifica estudiar su naturaleza con mayor detalle. La energía electromagnética o energía
radiante es una entidad física que se manifiesta bajo dos aspectos complementarios entre sí: el
ondulatorio y el corpuscular. La concepción ondulatoria que permite explicar ciertos fenómenos
como los de difracción e interferencia interpreta la radiación como un campo eléctrico y uno
magnético oscilando en planos perpendiculares (Fig. 2). El fenómeno ondulatorio posee una
doble periodicidad: en el espacio y en el tiempo. La periodicidad espacial determina la longitud
de onda que es la distancia entre dos puntos consecutivos de igual amplitud del campo eléctrico
o magnético. El intervalo de tiempo transcurrido entre dos instantes consecutivos en que uno u
otro campo alcanza igual valor se denomina período t. Se define la frecuencia de la radiación
como la relación 1/t que se expresa en ciclos por segundo
Figura 2 Esquema de la concepción ondulatoria de la energía electromagnética

La concepción corpuscular permite explicar ciertos hechos experimentales como el efecto


fotoeléctrico y la absorción de radiación por las moléculas y consiste en concebir la radiación
como un haz de corpúsculos llamados cuantos de radiación o fotones que se desplazan en la
dirección del haz con la velocidad de la luz. Las concepciones ondulatoria y corpuscular de la
radiación se concilian en la relación de PLANCK:

La relación de Planck permite que un haz de radiación de determinada frecuencia (o longitud de


onda) sea interpretado como un flujo de cuantos de determinada energía. En la Fig. 3 se
representa el espectro electromagnético. Obsérvese que la región visible del espectro
electromagnético representa sólo una pequeña fracción de éste. Por razones de practicidad se
utilizan diferentes unidades de longitud de onda según la región espectral considerada. En
nuestro estudio, que se centrará fundamentalmente en las regiones conocidas como visible e
infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm) o a los nanómetros
(1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros.

Es por tanto claro que mientras más alta la frecuencia de la EMR, más energía que facilita su
detección. Adicionalmente, la relación entre velocidad, longitud de onda, y frecuencia (c = λf)
indica que mientras más corta la longitud de onda, mayor el monto de energía disponible. Dado
que hay menos energía en las bandas de longitudes de onda más grande, generalmente, los
sensores que operan en estas regiones tienen una resolución espacial más cruda dado que
deben de recolectar fotones de un área más amplia para poder recibir una señal medible.
Figura 3: Representación del espectro electromagnético.

INTERACCIONES ATMOSFÉRICAS

La energía que recibe un sensor desde un objetivo de interés debe pasar a través de la
atmósfera. Los componentes gaseosos y las partículas de materia dentro de la atmósfera,
pueden afectar la intensidad y la distribución espectral de la energía y pueden impedir la
observación de características de la superficie. La magnitud de los efectos atmosféricos
dependen de factores tales como la longitud de la ruta, la longitud de onda siendo observada y
las variaciones diarias de las condiciones atmosféricas. En el caso de la energía reflejada, la
atmósfera interviene entre la fuente de iluminación y el objetivo, así como también entre el
objetivo y el sensor. Para longitudes de onda emitidas, la situación es más sencilla dado que el
objetivo es la fuente de iluminación.

El efecto atmosférico más fácilmente discernible en longitudes de onda visibles, es el de


difusión. La difusión es simplemente la reflexión de la energía por partículas en la atmósfera;
mientras que las partículas individuales son pequeñas, su efecto neto puede ser bastante
significativa si están presentes en cantidades apreciables. La difusión de Rayleigh es causada por
moléculas atmosféricas y partículas diminutas que son considerablemente más pequeñas que
las longitudes de onda de la radiación a la que afectan. Este tipo de difusión ocurre
primariamente en las porciones ultravioleta y azul del espectro y, de hecho, es responsable por
la apariencia azul del cielo durante el día. Es también una de las principales causas de neblina en
las imágenes. La difusión de Mie es causada por partículas esféricas tales como polvo o vapor de
agua, que son aproximadamente del mismo tamaño que la longitud de onda a la cual afectan. A
pesar de que la difusión de Mie ocurre a lo largo del espectro fotográfico (ultravioleta a
infrarrojo cercano) tiende a afectar longitudes de onda más largas que las que afecta la
relexiones múltiples de Rayleigh.

Cuando la EMR se encuentra con partículas que son varias veces más grandes que las longitudes
de onda afectadas, ocurre una reflexión múltiple no selectiva. El término no selectiva significa
que todo lo reflejado de las longitudes de onda solar son afectadas más o menos igualmente.
Las gotas de agua en nubes o los bancos de niebla son difusiones no selectivas; ellas aparentan
ser blancas porque todas las longitudes de onda visibles son reflejadas. Debido a sus longitudes
de onda larga, los sensores de microondas no son afectados por las reflexiones múltiples
atmosféricas y son por lo tanto capaces de “ver” a través de las nubes.

Debido a las reflexiones múltiples, la energía que es recibida por el sensor incluye reflexiones
tanto de la atmósfera como del objetivo. El componente de reflexión atmosférico es referido
como la ruta de radiancia y se requieren algoritmos complejos para corregir este efecto. En el
caso de difusiones no selectivas, como las nubes, ninguna radiación del objetivo alcanza al
sensor, cuando menos en las bandas visible e infrarroja. En el caso de las difusiones de Raleigh
y Mie es posible medir la influencia de la radiancia de ruta a través de la observación de objetos
muy obscuros, que reflejan relativamente poca energía, en varias bandas adquiridas al mismo
tiempo. Visualmente, el efecto de relexiones múltiples es una imágen más difusa con menor
contraste global.

A diferencia de las reflexiones múltiples que redirigen la EMR y causan una pérdida de detalle,
la absorción atmosférica realmente reduce el monto de energía en ciertas bandas de longitud
de onda. A pesar de que la atmósfera es esencialmente transparente en la porción visible del
espectro, hay varias regiones en las cuales es parcial o totalmente opaco. Varios componentes
gaseosos en la atmósfera absorben o “toman” energía en estas longitudes de onda que son
llamadas bandas de absorción. La Figura 4 ilustra el porcentaje de la EMR que puede pasar a
través de la atmósfera como una función de la longitud de onda. Los sistemas de sensores están
únicamente diseñados para operar en ventanas atmosféricas, regiones no absorbentes del
espectro donde la transmisión es alta.

Cuando moléculas de gas absorben la EMR, su nivel de energía es incrementado; esta energía
es subsecuentemente reemitida como calor la cual es radiación térmica infrarroja. Las emisiones
atmosféricas pueden degradar la señal que alcanza a un sensor desde un objetivo de manera
muy parecida en la que las reflexiones múltiples afectan a la energía reflejada. De nuevo, es
posible corregir este efecto a través de comparar mediciones realizadas simultáneamente en
diferentes bandas.

Figura 4: Transmisión de energía a través de la atmósfera como una función de la longitud de


onda. Las regiones de longitud de onda de alta transmitancia son ventanas atmosféricas. Los
gases responsables de la absorción son especificados.

INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE LOS ESPECTROS

En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares suelen


encontrarse en sus niveles energéticos más bajos, pero por el aporte de diversas formas de
energía (eléctrica, térmica, electromagnética, etc.) pueden ser excitados a niveles energéticos
superiores. Si la energía suministrada al sistema es suficiente podrá provocar transiciones entre
niveles electrónicos, usualmente acompañados, por cambios vibracionales y rotacionales. Si las
energías aportadas son menores las transiciones sólo se producirán entre niveles vibracionales
e incluso sólo rotacionales. Consideremos la excitación de las moléculas por aporte de energía
radiante mediante un haz de radiación que posea un rango continuo de longitudes de onda (o,
lo que es equivalente, por un haz de fotones cuyas energías cubren un amplio rango continuo
de valores): este es el caso típico de la radiación emitida por el sol o por cuerpos incandescentes.
Este tipo de radiación suele llamarse continua o de espectro continuo. El objeto o sistema
irradiado absorberá aquellos fotones que poseen la energía justamente necesaria para producir
las transiciones que le son permitidas. Es así que en el haz transmitido o reflejado luego de
interaccionar con el sistema el número de fotones de ciertas longitudes de onda se verá
reducido, o dicho de otro modo, la intensidad de las radiaciones de determinadas longitudes de
onda se verá reducida.
Este efecto se representa en el caso hipotético de la Fig. 4: un haz incidente de
composición espectral dada por la curva A ve modificada dicha composición espectral de
acuerdo a la curva B, que puede ser considerada la curva espectral del objeto irradiado.

Figura 4: Representación de radiación incidente y radiación reflejada por un objeto

B A

La forma de dicha curva depende del patrón de niveles energéticos del objeto irradiado y siendo
dicho patrón altamente específico para el sistema atómico molecular del objeto irradiado, es
decir de su estructura química, la curva espectral de éste constituye algo así como una
impresión digital o firma espectral del objeto en cuestión permitiendo su identificación.

INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE TERRESTRE

Cuando la radiación incide sobre un dado objeto de la superficie terrestre pueden considerarse
los tres tipos fundamentales de interacciones que se representan en la Fig.5 con el
correspondiente balance energético según la ley de la conservación de la energía

Cuando la EMR alcanza un objeto, algunas de las longitudes de onda son reflejadas mientras que
otras son absorbidas o transmitidas. En el espectro visible esta reflectancia selectiva de ciertas
longitudes de onda es percibida como color. La cantidad de energía que es reflejada por un
objeto en diferentes longitudes de onda (relativa a la energía que recibe) es denominada la
reflectancia espectral que es una propiedad intrínseca de cada material

Es decir que la energía incidente se fracciona en varios componentes: energía reflejada,


absorbida y/o transmitida, siendo todos estos componentes dependientes de la longitud de
onda. Conviene aquí destacar dos puntos:
• La proporción de energía reflejada, absorbida o transmitida variará con los diferentes objetos,
dependiendo del tipo de material que compone dichos objetos así como de su condición. Esto
permite identificar diferentes objetos en una imagen.
• La dependencia con la longitud de onda determina que la proporción de energía reflejada,
absorbida y/o transmitida varíe para las diferentes longitudes de onda. Esto hace que dos
objetos que pueden ser indistinguibles entre sí en un dado rango espectral puedan ser
perfectamente diferenciados en otro rango.
Es conocido el uso de película infrarroja en lugar de la pancromática común para detectar, por
ejemplo, equipos bélicos camuflados. La manera como un objeto refleja la energía que incide
sobre él afecta sensiblemente las características de la energía que detecta un sensor que esté
observando dicho objeto. En efecto, el tipo de reflexión que se produce quedará determinado
por la textura o grado de rugosidad de la superficie del objeto así como del ángulo de incidencia
de la energía radiante sobre el objeto. La reflexión especular se produce cuando la radiación
incide sobre una superficie relativamente lisa (esto ocurre cuando el tamaño de las partículas
de la superficie es menor que la longitud de onda de la radiación incidente). En este caso
los ángulos de incidencia y reflexión son iguales, siguiendo las leyes de la óptica geométrica.
La reflexión difusa o lambertiana ocurre en el caso inverso, es decir cuando la superficie es
más rugosa y la longitud de onda de la radiación incidente es menor que el tamaño de
las partículas de la superficie. En este caso la radiación es reflejada en todas direcciones.
Figura 5: Diferentes tipo de reflexión que se produce de la superficie del objeto

Entre estos dos casos caben todas las posibilidades intermedias.

Como puede observarse (a) (b) también en la Fig. 5 (c) en el caso de la reflexión difusa la
radiación penetra hasta cierta profundidad en el material y tiene oportunidad de interaccionar
con los componentes químicos de éste.
La radiación reflejada en forma difusa posee pues más información que la especular acerca del
objeto irradiado. Obviamente, en Percepción Remota será pues particularmente importante
medir las propiedades de la reflectancia difusa de los objetos terrestres. Las características del
fenómeno de reflexión por parte de un objeto sobre la superficie terrestre puede ser
cuantificada midiendo la porción de energía incidente sobre el objeto que es reflejada por éste.
Podemos entonces definir la Reflectancia Espectral como:

Dada su simplicidad y claridad el concepto de superficie lambertiana se utiliza usualmente como


una aproximación del comportamiento óptico de los objetos observados por percepción
remota. Sin embargo, esta es una aproximación que pocas veces se cumple para las superficies
naturales, particularmente cuando el sensor opera fuera del nadir, es decir, en observaciones
laterales.
En efecto, las propiedades de reflectancia de un objeto pueden variar, no sólo con la longitud
de onda sino también con los ángulos de irradiación y de observación. Se define así una Función
de Distribución de Reflectancia Bidireccional (BRDF: bidirectional reflectance distribution
function) que no es sino la reflectancia espectral de un objeto en función de las geometrías de
iluminación y observación que se le apliquen. La función BRDF es necesaria en muchas
aplicaciones de percepción remota para efectuar correcciones en mosaicos de imágenes, para
clasificaciones de coberturas terrestres, para detección de nubes, correcciones atmosféricas etc.
y se han desarrollado modelos matemáticos para representarla. Si bien no entraremos en
mayores detalles sobre este tema debemos señalar que esta función, matemáticamente
compleja, simplemente describe algo que nosotros observamos día a día: que los objetos lucen
diferentes cuando los observamos desde diferentes ángulos o cuando los iluminamos desde
diferentes direcciones. Así por ejemplo, el campo de soja de la Fig. 6 cuando el observador está
de espaldas al sol (a) o cuando está de frente a él (b). En este último caso se observa la reflexión
especular de muchas hojas.

Figura 6: Observamos a campo un cultivo de soja desde diferentes ángulos o cuando los
iluminamos desde diferentes direcciones.

.
Dada la importancia de la reflectancia espectral en Percepción Remota creemos interesante
analizar aquí las características espectrales de algunos objetos que aparecen muy
frecuentemente en las aplicaciones de esta tecnología: vegetación, suelo y agua. En la Fig. 7 se
representan las correspondientes curvas de reflectancia espectral.
Figura 7: Curvas de reflectancia espectral de los vegetales y características espectrales de
algunos objetos

LA REFLECTANCIA DE LOS VEGETALES

Es usualmente relativamente baja en la región visible, con un máximo a aproximadamente 0.53


µm, es decir en el verde. Aumenta bruscamente en el infrarrojo (IR) para luego caer a valores
muy bajos a 2.5 µm. La baja reflectancia en el visible se atribuye a la elevada absorción de los
pigmentos vegetales, principalmente clorofila. Estos pigmentos, sin embargo, son altamente
transparentes a la radiación IR, y la elevada reflectancia en dicha región estaría determinada
por la estructura interna de la hoja.
Los mínimos de reflexión a 1.45, 1.95 y 2.5 µm corresponden a la elevada absorción de las
moléculas de agua presentes en la hoja. En un corte transversal de una hoja, mostrando su
estructura interna: Las superficies interna y externa están tapizadas por una simple capa de
células epidérmicas carentes de clorofila y recubiertas por una delgada película de ceras. El
tejido mesodérmico entre las dos epidermis está formado por dos capas. La superior contiene
células oblongas dispuestas en forma regular y ordenada (tejido en empalizada). Estas células
son ricas en las clorofilas a y b que están contenidas en cuerpos subcelulares denominados
cloroplastos, componentes predominantes del grupo de cromoplastos que también contienen
pigmentos como xantofilas y carotenos (las clorofilas reflejan el verde, las xantofilas el amarillo,
verde y rojo y los carotenos el rojo). La parte inferior del tejido mesodérmico es esponjoso,
formado por células de forma irregular, flojamente empaquetadas, dejando entre ellas
numerosos espacios intercelulares y cavidades de aire. En la misma Figura se indican posibles
trayectorias para la radiación que atraviesa la hoja.
Generalmente sólo una pequeña fracción de la radiación incidente es
reflejada directamente por la superficie externa pues la cutícula y la
epidermis son casi transparentes al visible y al IR cercano. Otra fracción
de radiación puede ser transmitida directamente a través de la hoja.
Finalmente, el resto de la radiación sufre interacciones con la
estructura interna de la hoja. Parte de ella puede ser absorbida por los
pigmentos de la hoja, pero una fracción importante sufre reflexiones y
refracciones múltiples en el tejido esponjoso debido a la sensible
diferencia de índices de refracción entre el aire (n=1.0) y las paredes de
las células hidratadas (n=1.3).
Como consecuencia de tales reflexiones parte de la radiación vuelve hacia atrás, pudiendo
emerger como radiación reflejada. Como la clorofila es transparente al IR cercano la hoja refleja
intensamente dicho rango espectral (en dicha región típicamente es reflejado un 40-50% de la
radiación incidente en la hoja).
Resumiendo, podemos decir que las características espectrales de la radiación reflejada por una
hoja en la región visible depende fundamentalmente de la absorción de radiación por parte de
los pigmentos de la hoja, mientras que en el IR cercano, en la región de 0.7 a 1.3 µm, es
consecuencia primaria de la estructura interna de la hoja. Para valores superiores a 1.3 µm
aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 µm asociados a las bandas de absorción del
agua.

LA REFLECTANCIA EN EL AGUA
Absorbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región como
cuerpos oscuros, facilitando su observación y delineamiento. Para longitudes de onda visibles
hay factores que complican la interpretación. En efecto, la reflectancia de un cuerpo de agua
puede generarse por interacción con la superficie (reflexión especular), con material en
suspensión o con el fondo mismo del cuerpo de agua. El agua clara absorbe poca energía con
longitudes de onda por debajo de 0.6 µm, pero a medida que aumenta la turbidez la reflectancia
en el visible aumenta rápidamente. Igualmente la presencia de clorofila (algas, fitoplancton)
modifica la reflectancia del agua, efecto que se aplica al monitoreo por percepción remota de
concentraciones de algas. La Figura 8 es una imagen MODIS que permite observar los
sedimentos en el Río de la Plata provenientes de los ríos Paraná y Uruguay y que se extienden
hasta aproximadamente Mar Atlántico.

Figura 8: Imagen MODIS de las costas del Río de la Plata


LA REFLECTANCIA EN LOS SUELOS
La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los
factores que afectan la reflectancia del suelo citemos su contenido de humedad, su textura,
rugosidad, presencia de materia orgánica y contenido de óxido de hierro, en particular, el
contenido de humedad está estrechamente ligado a la textura: los suelos arenosos, de partículas
grandes, usualmente están bien drenados, resultando con baja humedad y relativamente alta
reflectancia. La inversa ocurre con los suelos mal drenados. La rugosidad y la materia orgánica,
así como el óxido de hierro disminuyen la reflectancia del suelo, a lo menos en la región visible.

LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES

Hemos visto cómo las radiaciones electromagnéticas, fundamentalmente emitidas por el sol y
reflejadas por los objetos terrestres, o incluso emitidas por dichos objetos (p.ej. en el infrarrojo
térmico), todas más o menos afectadas por efectos atmosféricos, se combinan generando
“señales” de las cuales es posible extraer información acerca de dichos objetos y de las
coberturas terrestres. La detección de tales señales electromagnéticas puede efectuarse por
medios fotográficos o electrónicos. Históricamente fueron la placa o el film
fotográfico, usualmente sobre plataformas aéreas, los sensores remotos por excelencia. Estos,
a partir de las últimas décadas, debieron convivir con los sensores electrónicos, más adecuados
para las exigencias a que son sometidos sobre plataformas suborbitales y satelitales.
De todos modos la detección sobre plataformas aéreas, sea con sensores fotográficos o
electrónicos sigue constituyendo una valiosa fuente de información en un amplio rango de
aplicaciones, y la decisión final sobre el uso de tal o cual tipo de plataforma debe ser
cuidadosamente analizada, particularmente cuando la relación costo/beneficio gravita
sensiblemente sobre el presupuesto de un proyecto.
Fue a partir de la década del 60 que comenzó el desarrollo vertiginoso de la percepción remota
desde plataformas satelitales. Distintos factores han condicionado este comportamiento que
ha ido llevando a la percepción remota satelital a una etapa esencialmente comercial. Este
potencial se volvió más evidente con las misiones orbitales y espaciales a partir de la década del
60: uno de ellos fue el proyecto CORONA de espionaje militar. Un número no determinado de
estos satélites de corta vida (1 a 16 días) orbitando a unos 130 km de altura y utilizando cámaras
fotográficas de alta resolución realizó misiones de espionaje entre los años 1960 y 1972. El
caudal fotográfico así obtenido fue desclasificado en 1995. Un zoom sobre dicha imagen
permite detectar objetos de10m. Entre las misiones espaciales citemos las misiones Mercury,
Gemini y Apolo. En particular el Apolo IX realizó la primera experiencia controlada de fotografía
orbital multiespectral. Estas experiencias fueron continuadas en posteriores misiones
(Skylab,Apolo-Soyuz, etc.)

SATÉLITES
Con el uso de satélites como plataformas de percepción remota, ha sido posible superar algunas
de las dificultades enfrentadas en la percepción remota con aviones. Los satélites pueden
monitorear el total de la superficie de la tierra sobre bases periódicas, cubriendo una sección
suficientemente grande en cada revolución. Los satélites diseñados para percepción remota
sobre bases operacionales son generalmente no tripulados.
Parámetros Orbitales
La órbita teórica de un satélite es una elipse. En el caso de satélites ambientales, sin embargo,
esta elipse es generalmente considerada como un círculo teniendo a la tierra como su centro.
Las órbitas de los satélites se describen como sigue (referirse a la Figura 8):
i) ecuatorial - teniendo una órbita dentro del plano del ecuador;
ii) polar - teniendo una órbita dentro del plano de los ejes de la tierra;
iii) polar cercano - teniendo una órbita oblicua a los ejes de la tierra.
La mayoría de los satélites de comunicación tienen órbitas ecuatoriales, mientras que las series
de satélites de observación de la tierra tales como TIROS, NOAA y NIMBUS tienen órbitas polares
o polares cercanas. Las órbitas polares son preferidas para ver zonas longitudinales con luz del
día o durante la noche.

Figura 8: Orbitas de los satélites. (Después de E.C. Barrett y L.F. Curtis, 1982).

Orbita geosincrónica:
Las órbitas geosincrónicas tienen altitudes de hasta 3600 km. Los satélites en estas órbitas se
mueven en la misma dirección de la rotación de la tierra (progrado) y sus velocidades son
ajustadas para mantener la posición de los satélites sobre un punto designado sobre la superficie
de la tierra. Cuando el satélite geosincrónico “fluctúa” en el plano ecuatorial (inclinación orbital
“i” igual a cero), es llamado un satélite geoestacionario, por ejemplo, la série GEOS/ METEOSAT
de satélites metereologicos. Los satélites geoestacionarios no pueden tomar imágenes de la
tierra en latitudes mayores a 80°. Son generalmente capaces de tomar imágenes y leer- toda su
área visible (1/3 de la superficie de la tierra) cada 30 minutos. El área visible grande y la
repetitividad de la adquisición de datos, han hecho este tipo de satélites muy populares para
estudios meteorológicos y oceanográficos.

Las principales ventajas del satélite geosincrónico son:

i) la más frecuente observación posible de la región iluminada de la tierra desde un sistema


orbitral;
ii) la posibilidad de barrer el mismo punto de la tierra repetidamente, generando series de
imágenes espacialmente registradas;
iii) la más grande cobertura de área posible desde un sistema orbital;
iv) el uso efectivo de telecomunicaciones.

Las principales desventajas de un satélite geosincrónico son:

i) las dificultades económicas y tecnológicas de poner el sistema en una órbita tan alta y el
obtener un adecuado comportamiento de los sensores llevados a bordo (una adecuada
resolución espacial);
ii) la pobre cobertura polar.
Orbita heliosincronica:
Esta es un órbita mucho más baja (alrededor de 900 km) que la órbita geosiricrónica. La
inclinación de la órbita relativa al ecuador es cercana a los 90° (polar o polar cercano) y los
satélites (LANDSAT, NOAA, SPOT, etc.) cruzan el ecuador a la misma hora solar cada día. Esto
significa que un punto particular de la tierra es visto regularmente (dependiendo del período del
satélite) a la misma hora, lo cual es útil para análisis comparativo de datos multitemporales. Al
seleccionar una órbita particular es posible no solamente obtener una cobertura repetida de
toda la superficie de la tierra, sino que permite seleccionar los intervalos entre observaciones
de un sitio específico. Esto es logrado por satélites de bajo nivel con órbitas helioiosincrónicas
polares o polares cercanas. Por ejemplo, LANDSAT-4 1 tiene un ángulo de inclinación de 98.3° y
una altitud de 687 km. Cruza el ecuador cada 98.5 minutos y, durante ese intervalo de tiempo,
la tierra a rotado “s”:
Las principales ventajas de los satélites heliosincrónicos son:
i) La factibilidad económica y tecnológica de poner un sistema de órbita baja y de obtener
rendimiento o comportamiento adecuado de los sensores llevados a bordo (alta
resolución espacial en el orden de diez metros);
ii) la posibilidad de darle servicio al sistema orbital con sistemas espaciales tripuladas.

Las principales desventajas de los satélites heliosincrónicos son:


i) la baja repetitividad de su cobertura (por ejemplo, en el orden de semanas) este
problema sin embargo puede ser superado con una apropiada combinación de
parámetros orbitales y de características de las imágenes a obtenerse con los sensores.
El mismo sitio puede por lo tanto ser fotografiado frecuentemente, cada 1 a 3 días,
dependiendo de la latitud, a pesar de que son requeridas correcciones para compensar
la variabilidad del ángulo de incidencia;
ii) la pérdida de oportunidades de obtener imágenes debido a la cobertura de nubes,
pequeña área de cobertura y baja repetitividad.

Sistemas de Adquisición Secuencial


Sensores pasivos
Los sensores en esta categoría son llamados radiómetros. Ellos reciben y graban, línea, la EMR
reflejada o emitida por la tierra y la atmósfera (referirse a la Figura 10). Dependiendo del tipo
de detector utilizado, los sensores pasivos pueden grabar diferentes partes de la EMR dentro de
longitudes de onda ultravioleta a microondas.
Sensor Plataforma
MSS Barredor Multiespectral LANDSAT
TM Mapeador Temático LANDSAT
AVHRR Radiómetro Avanzado de Muy Alta Resolución NOA
HCMR Radiómetro de Mapeo de la Capacidad de Calor HCMM
CZCS Barredor de Color de la Zona Costera NIMBUS-7
HRV Alta Resolución Visible SPOT
Figura 10 Componentes de una señal pasiva de microondas. (Después de T.M. Lillesand y R.W.
Kiefer, 1979).

Algunas categorías de los sensores pasivos incluyen:

i) Radiómetros barredores: estos sensores colectan una línea de datos a través del uso de
un espejo rotativo para “barrer” la vista perpendicular a la línea de vuelo, por ejemplo,
un sensor térmico IR y un barredor multiespectral (MSS) del LANDSAT (referirse a las
Figuras 11 y 12 respectivamente). El movimiento hacia adelante del satélite o del avión
produce líneas subsecuentes de datos.

ii) Radiómetros de barrido accionado: este tipo de sensor, por ejemplo, el HRV del SPOT,
tiene uno o varios arreglos de detectores. Una línea de adquisición es vista
instantáneamente sin ningún movimiento mecánico lo cual es una mejora significativa
respecto a los radiómetros de barrido (referirse a la Figura 11).

Figura 11: Sistema barredor infrarrojo térmico. Figura 12 Orientación del LANDSAT
MSS. (Después F.F.Sabins, Jr., 1979)
.

Figura 11 Características generales de un radiómentro de barrido accionado. (Después T.E.


Avery y G.L. Berlin, 1985).

Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital con el
lanzamiento, por parte de E.E.U.U., del primero de una serie de satélites ópticos especialmente
destinados a monitorear los recursos terrestres. Dicha serie se llamó LANDSAT y actualmente
operan Landsat-5 y Landsat-7, Landsat 8 OLI Figura 11. Por su parte Francia, con la participación
de Suecia y Bélgica, lanzó en 1986 el primer satélite de la serie SPOT (Systeme Pour l'Observation
de la Terre) de la cual operan actualmente los
Spot -2, -4 y –5 (Fig. 12).

Figura 11 Satélite LANDSAT Figura 12 Satélite SPOT

Actualmente existen muchas otras plataformas satelitales similares a las anteriores


y pertenecientes a distintos países o resultantes de acuerdos entre dichos países (Rusia, Japón,
India, Argentina, China, Brasil, etc.). En general todos estos satélites se caracterizan por órbitas
quasi polares y solar –sincrónicas con parámetros similares a los ejemplificados en la Fig. 12. En
una órbita solar-sincrónica la rotación de la Tierra en torno al sol, la inclinación de la órbita y el
período orbital son tales que en cada órbita el satélite cruza el Ecuador a la misma hora solar
local. En el caso del Landsat 5 es a la hora 09:45.
Figura 12: Satélites con órbitas quasi polares y solar –sincrónicas

Adelantándonos a un tema que más adelante analizaremos respecto a la resolución espacial de


los satélites, es decir, el tamaño mínimo de los objetos que son capaces de discernir en sus
imágenes, diremos que los satélites que acabamos de mencionar son de resolución espacial
moderada, pudiendo variar entre 5 y 30 m.
En los últimos años se han puesto en órbita satélites comerciales de alta resolución espacial
como el Ikonos (Fig.14), el Quickbird (Fig.15) y el Orbview-3 (Fig.16). Las órbitas de estos satélites
son más bajas (680 y 450 km) y sus resoluciones espaciales alcanzan a 1 m y 0.6m. La Fig. 17
permite apreciar visualmente en imágenes de un cultivo agrícola el efecto de la resolución
espacial.

Figura 14 Ikonos Figura 15 Quickbird Figura 16 Orbview-3

Figura 17 Ejemplo de diferentes resoluciones espacial. La imagen de la derecha mejor


diferenciación de objetos
SATELITES METEOROLOGICOS Y AGROMETEOROLOGICOS

Existen también otras series de satélites destinados fundamentalmente a


misiones meteorológicas, agrometeorológicas, atmosféricas y oceánicas. Algunos de estos
satélites, como los de las series NOAA (Nacional Oceanic and Atmospheric Administration -USA),
SEA STAR (USA) describen órbitas cuasi polares sincrónico-solares a altitudes del orden de 850
km y resoluciones espaciales de 1km.
Otros satélites, como los de las series GOES (Geostationary Operational Environmental
Satellite) y METEOSAT (Eutmetsat – Europa), etc. Se mantienen en órbitas geoestacionarias
a aproximadamente 36000 km y con resoluciones espaciales de 1km. Debe tenerse en cuenta
que el período de un satélite, es decir el tiempo que tarda en completar su órbita aumenta con
la altitud: a 36000 km un satélite posee el mismo período que la Tierra. Así, si se posiciona en
el plano ecuatorial permanece estacionario respecto a la superficie de la Tierra, es decir,
observando siempre el mismo hemisferio. La operación de estos satélites se esquematiza en la
Figura 18.

Figura 18. Esquema de los diferentes satélites geoestacionarios y órbitas cuasi


polares sincrónico-solares (NOAA y METEOR)

LOS NUEVOS SATELITES PARA LA OBSERVACION DE LA TIERRA

Numerosos satélites orbitan actualmente la Tierra en misiones de observación no sólo de


las coberturas terrestres sino también de su atmósfera, sus océanos, etc., y en
general investigando la interacción de los dinámicos sistemas geofísicos. Estos satélites
transportan sofisticados instrumentos para cumplir dichas misiones. Queda fuera del alcance de
nuestro estudio referirnos a la extensa lista de dichas plataformas y sus instrumentos. De
todos modos nos referiremos a dos ejemplos notables de tales plataformas: los satélites TERRA
(y su gemelo AQUA) y ENVISAT. TERRA es un satélite multinacional de investigación científica de
la NASA. Recorre una órbita solar-sicrónica y es la “nave insignia” del Earth Observing System de
la NASA. Fue puesto en órbita en febrero del 2000 y transporta a bordo cinco sensores remotos
destinados a medidas terrestres ambientales y de cambios en el sistema climático. El ENVISAT ,
lanzado en el 2002 en órbita solar-sincrónica y operado por la ESA es posiblemente el mayor
satélite de observación construido hasta el momento (8000 kg). Transporta a bordo 10
sofisticados sensores ópticos y de radar para monitorear permanentemente las cubiertas
terrestres y oceánicas, la atmósfera y los casquetes polares.
Ya mencionamos que los satélites utilizan sensores diferentes a los de la fotografía convencional.
En general se trata de sensores electrónicos de estado sólido, adecuados a las regiones
espectrales para las que se desea obtener imágenes. Como detallaremos más adelante cada
satélite puede registrar las imágenes terrestres simultáneamente en varias regiones visibles e
infrarrojo cercano, medio o térmico del espectro electromagnético.
Los sistemas óptico-telescópicos del satélite enfocan las escenas terrestres sobre arreglos de
tales detectores y las señales analógicas generadas por éstos son digitalizadas para
su retransmisión, sea a otros satélites geosincrónicos sea a estaciones rastreadoras terrenas.
Estas posibilidades se esquematizan en la Fig.19.

Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si ésta está
en la línea de visión del satélite (A). En caso contrario la información puede ser almacenada a
bordo de B para su posterior retransmisión a una estación terrena. B puede también enviar sus
datos a un sistema satelital repetidor que consiste en una serie de satélites de comunicaciones
en órbita geosincrónica. Los datos son enviados de un satélite repetidor C) a otro hasta alcanzar
un estación terrena adecuada.

SENSORES DE LAS PLATAFORMAS ESPACIALES

Consideraciones generales. Hemos visto cómo la radiación electromagnética es portadora de la


información acerca de aquellos materiales u objetos de interés en percepción remota. Pero para
adquirir y luego poder procesar dicha información son necesarios ciertos dispositivos
denominados sensores. Existen gran número de sensores destinados a numerosas aplicaciones,
muchas de las cuales caen fuera del área específica de nuestro estudio. Aquí nos
concentraremos fundamentalmente en los llamados espectroradiómetros de barrido (scanning
radiometers) de particular importancia en sistemas de percepción remota. En la gran mayoría
de estos instrumentos el mecanismo de base es el efecto fotoeléctrico: cuando un haz de
fotones incide sobre una placa negativamente cargada o sobre algún material fotosensible
adecuado se produce una emisión de partículas negativas (electrones). Estos electrones
pueden fluir desde la placa generando una señal electrónica. La magnitud de la corriente
eléctrica producida (número de fotoelectrones por unidad de tiempo) es directamente
proporcional a la intensidad luminosa. La energía cinética de los fotoelectrones emitidos varía
con la longitud de onda asociada a los fotones incidentes. Sin embargo, debe tenerse en cuenta
que diferentes materiales que manifiestan el fenómeno fotoeléctrico liberan fotoelectrones
bajo diferentes intervalos de longitudes de onda: cada uno de ellos presenta un umbral de
longitudes de onda para el que el fenómeno se manifiesta y otro umbral de longitudes de onda
para el que el fenómeno cesa. Los sensores que aquí nos interesan son del tipo pasivo,
caracterizados porque la radiación que llega a ellos proviene de una fuente externa (p.ej. el Sol).
Además, los electrones liberados son capaces de inducir la formación de una imagen cuando son
recogidos por dispositivos adecuados de detección (detectores).
Como los sensores son instrumentos capaces de medir cuantitativamente la radiación
electromagnética en determinadas regiones del espectro se denominan radiómetros. Cuando
este sensor incluye además un componente del tipo de un prisma o red de difracción o filtros
de interferencia que pueden dispersar la radiación de una dada región del espectro en
longitudes de onda discretas que son dirigidas hacia los detectores se denomina espectrómetro.
Cuando la radiación es dispersada no en longitudes de onda discretas sino en bandas espectrales
más anchas, es decir cubriendo ciertos intervalos de longitudes de onda el término más
conveniente para el sensor es espectroradiómetro. Este es el caso más usual en los sensores
aeroespaciales. Como en general estos sensores se desplazan barriendo la escena estática que
están observando se dice que operan en modo de barrido o escaneado (scanning mode).
Podemos distinguir dos categorías de estos escáneres: los óptico-mecánicos y los óptico-
electrónicos. Los primeros se caracterizan por tener un componente mecánico, p.ej. un espejo
rotativo que opera en el barrido de la escena, mientras que los segundos el mismo sistema
óptico enfoca la radiación sobre un arreglo lineal de detectores.

Cada línea se subdivide en una secuencia de elementos espaciales individuales cada una de las
cuales representa una pequeña área de la escena terrestre que se examina.
O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las cuales
refleja radiación y que son sensadas secuencialmente a lo largo de la línea. En el sensor cada
una de estas celdas está asociada a un pixel (o picture element) ligado a un detector
microelectrónico y se caracteriza por un dado valor de radiación que a través del efecto
fotoeléctrico genera una corriente electrónica.
El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a dicho
píxel, queda determinada por el Campo de Visión Instantánea del sensor (Instantaneous Field
of View – IFOV).

El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al área
terrestre que está midiendo en cada instante. El IFOV es función de la óptica del sensor, del
tamaño del detector, de la altitud de la plataforma, etc. Los electrones emitidos son recogidos
sucesivamente, píxel por píxel, generando una señal variable que representa la variación
espacial de la radiación por el muestreo progresivo que el sensor va efectuando sobre la escena
terrestre estudiada.
Esto permite asignar a cada píxel un valor discreto llamado Número Digital (DN – digital number).
Estos números digitales resultan de convertir las señales analógicas generadas por el detector
en valores digitales constituidos por números enteros que cubren un intervalo finito, por
ejemplo 8 bit cubriendo el intervalo de 0 a 255. Estos valores digitales permitirán construir la
imagen a través de dispositivos adecuados, por ejemplo el monitor de una computadora. En el
modo de barrido en la dirección de la trayectoria (along track pushbroom) no existe espejo
oscilante, sino un arreglo lineal de pequeños detectores cuyas minúsculas dimensiones
permiten que se asocien hasta miles de ellos en dicho arreglo. El sistema de filtros incorporado
al arreglo permite seleccionar las longitudes de onda.
Cada detector es un dispositivo de acoplamiento de carga (Charge-Coupled Device – CCD –ver
más adelante). En este modo de barrido, los píxeles que constituirán la imagen final
corresponden a estos microdetectores con sus correspondientes filtros incorporados en el
arreglo lineal. A medida que la plataforma avanza en su órbita la radiación proveniente de las
celdas terrestres a lo largo del campo de visión del satélite llega simultáneamente a los
correspondientes detectores. La señal generada por cada detector es removida en
milisegundos, siendo el detector reseteado a cero quedando pronto para recibir la radiación
proveniente de la nueva línea del campo de visión.
RESOLUCION SISTEMAS DE PERCEPCIÓN REMOTA
Los sistemas de percepción remota difieren en la resolución, es decir, el nivel de detalle con que
pueden capturar las imágenes, su frecuencia temporal, “finura espectral”, etc.. Desde este
punto de vista podemos considerar cuatro diferentes tipos de resolución: espacial, espectral,
radiométrica y temporal.

RESOLUCIÓN ESPACIAL.

La resolución espacial se refiere a la finura de detalles visibles en una imagen: cuanto menor es
el área terrestre representada por cada píxel en una imagen digital mayores son los detalles que
pueden ser captados y mayor es la resolución espacial. Otra definición: es la precisión que puede
alcanzar el sensor por pixel, es decir, el área real de tierra representada en un nivel digital de
información (pixel).
En las Figura 24 se observan imágenes de una misma región a tres diferentes resoluciones
espaciales (alta, mediana y baja, correspondiendo respectivamente al QUICKBIRD, 0.60m
LANDSAT-5, 30m y MODIS 1.1 km ,). Dicho de una manera más simple la resolución espacial se
relaciona con la medida de los objetos más pequeños que pueden ser registrados por un sensor.
Existen diferentes factores que influyen en la resolución espacial: además de los obviamente
asociados al sensor, como ser el poder resolutivo del sistema óptico, debemos considerar las
influencias atmosféricas, presencia de humo, neblina, bajos niveles de iluminación, etc.
También existen factores asociados a las características del objeto a detectar y de su entorno:
un buen contraste y bordes nítidos del objeto son favorecen la detección. La selección de la
resolución espacial necesaria para un dado proyecto debe analizarse cuidadosamente. En efecto,
pretender resoluciones mayores que la necesaria encarece el costo de las imágenes y la carga
de proceso.
Figura 24 Ejemplo de diferentes resoluciones espaciales

MODIS 1,1 km
QUICKBIRD, 0.60m LANDSAT-5 30 m

ESCALA VS. RESOLUCIÓN ESPACIAL. La resolución espacial de una imagen es una predicción
del tamaño del pixel expresada en términos de dimensiones sobre el terreno. Usualmente
se presenta por un valor único correspondiente a la longitud de un lado del
cuadrado correspondiente a dicho pixel. Así, una resolución espacial de 30 m significa que el
pixel representa un área de 30 m x 30 m sobre el terreno. Si el pixel fuera rectangular debería
ser representado por su largo y ancho, por ejemplo 56 m x 79 m. La resolución espacial es
una indicación del potencial de detalle que ofrece una imagen. Si una imagen de satélite de 1
m de resolución se imprime a una escala de 1/500000 se perdería el potencial de detalle que
ofrece dicha imagen. La inversa también es cierta: si se imprime una imagen de baja resolución
espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles individuales. Cuando
efectuamos “zoom” repetido sobre una imagen digital (es decir, cuando vamos “afinando” la
escala) llega un momento en que comienzan a visualizarse los pixeles, y a partir de ese punto
aunque sigamos afinando la escala no se aumentará su nivel de detalle llegando a dificultarse
su interpretación.

RESOLUCIÓN ESPECTRAL

La resolución espectral son los intervalos específicos dentro del espectro electromagnético
donde el sensor registra los datos. La amplitud de la banda espectral, esto es, el grado en el que
el rango limitado de las longitudes de onda es detectado, es referido como la resolución
espectral
Vimos que cada pixel de una dada banda espectral tiene un pixel coincidente en cada una de las
demás bandas. Así, para una imagen que conste de K bandas habrán K niveles de grises
asociados a cada pixel.

 Banda 1 (0.45-0.52µm)(azul): buena penetración en cuerpos de agua. Diferenciación


de suelos y vegetación y de coníferas con vegetación de hojas caducas.
 Banda 2 (0.52-0.60µm)(verde): reflectancia en el verde para vegetación en buenas
condiciones.
 Banda 3 (0.63-0.69µm) (rojo): absorción de la clorofila. Diferenciación de especies
vegetales.
 Banda 4 (0.76-0.90µm) (infrarrojo cercano): evaluación de biomasa. Delineación
de cuerpos de agua.
 Banda 5 (1.55-1.75µm) (infrarrojo medio): estado hídrico en vegetales.
Discriminación entre nubes, nieve y hielo
 Banda 6 (10.4-12.5µm) (infrarrojo térmico): stress térmico en vegetales y
mapeados térmicos.
 Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de zonas
con alteraciones hidrotérmicas en rocas.

RESOLUCION RADIOMETRICA

Los datos provenientes de los sensores pueden ser almacenados en formatos analógicos o
digitales. En un sistema analógico las variaciones en la intensidad de los insumos originales de
las señales, por ejemplo (la variación en la brillantez de una imagen), son presentadas por
variaciones continuas en algún otro medio tal como el voltaje o la densidad de la película. Una
representación digital en contraste, divide la señal original en rangos discretos, a cada uno de
los cuales le es asignado un valor numérico. El rango de la señal original representado por un
valor numérico único es llamado la resolución radiométrica del sistema del sensor. Los datos
grabados digitalmente a diferencia de los datos analógicos, pueden ser procesados fácilmente
por computadoras y pueden copiarse repetidamente sin afectarse negativamente los originales
o datos copiados. Para la interpretación humana, sin embargo, un desplegado analógico tal
como una fotografía o una imagen de televisión es más útil. Con equipo apropiado es posible
convertir datos de un formato al otro.

La medida de una imagen multiespectral se expresa en reflectancia, es decir, la cantidad de


radiación electromagnética que refleja un cuerpo al incidir la radiación procedente del sol. Cada
nivel digital o pixel tendrá un valor de reflectancia o radiancia (no son lo mismo pero son
equivalentes).
Resolución o sensibilidad radiométrica hace referencia al número de niveles digitales utilizados
para expresar los datos recogidos por el sensor. En general, cuando mayor es el número de
niveles mayor es el detalle con que se podrá expresar dicha información. También se puede
definir como el rango dinámico o valores de brillo en que se graban los datos registrados por el
sensor.
En las figuras 25 se representan dos casos bien diferenciados. Ambos representan un misma
área pero con diferentes resolución radiométrica, en la imagen de la izquierda los niveles
digitales son muy pocos 5 bits y la imagen aparece prácticamente en blanco y negro. En cambio
la imagen de la derecha con muchos más niveles digitales 8 bits, el grado de detalle es muy
superior, pudiendo visualizar rutas, calles de la ciudad y el puente sobre el Río.
etc.

Figuras 25: Diferentes resolución radiométrica en imagen satelitales

En la sección anterior nos referimos a los números digitales (DN) asociados a cada píxel en
las imágenes digitales y que generan lo que llamamos escala de grises que en realidad es
la escala de niveles digitales disponibles para representar los detalles de la imagen. El
número de niveles de grises se expresa comúnmente en términos de dígitos binarios (bits)
necesarios para almacenar el valor del nivel de gris máximo para el caso considerado.
Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores 1y 0.
Usando un arreglo de bits puede representarse un número cualquiera dentro de los límites de
“longitud de palabra” de la computadora. Para lograr una imagen de pantalla con variaciones de
brillo prácticamente continuas desde el punto de vista visual se necesitan 5 o 6 bits por píxel.
El número de valores que pueden ser representados por una serie dígitos es xn , donde x es el
número de valores que cada dígito puede representar y n es el número de dígitos usados. En una
base binaria el número de valores será 2n .

Por ejemplo, para 5 bits tendremos 32 valores, para Landsat 8 tiene una resolución radiométrica
de 256 niveles (8 bits). Sentinel 2 por ejemplo consigue un valor de 4096 niveles de intensidad
(12 bits).para 11 bits 2048, etc. En el caso del Landsat y el HRVI se tienen 8 bits, es decir, la escala
de grises se extiende de 0 a 255, totalizando 256 valores.

RESOLUCION TEMPORAL

La Resolución Temporal es una medida de la frecuencia con la que un satélite es capaz de


obtener imágenes de una determinada área. También se denomina intervalo de revisita. Altas
resoluciones temporales son importantes en el monitoreo de eventos que cambian en períodos
relativamente cortos, como inundaciones, incendios, calidad del agua en el caso de
contaminaciones, desarrollo de cosechas, etc. Asimismo, en áreas con cubiertas nubosas
casi constantes como por ejemplo las selvas tropicales, períodos cortos de visita, es decir
altas resoluciones temporales, aumentan la probabilidad de obtener imágenes satisfactorias. Si
consideramos un satélite de la familia LANDSAT, (5 o 7), su resolución temporal es relativamente
baja. En efecto, como sólo registra imágenes en el nadir para volver a registrar una dada área
habrá que esperar que vuelva a recorrer la misma órbita, lo cual ocurre cada 16 días. Esto puede
apreciarse en las Figura. 26.
Figura. 26 Características orbitales del LANDSAT

En la figura 26 vemos que las características orbitales del LANDSAT hacen que la distancia entre
el trazado terrestre de dos órbitas consecutivas sea de 2752 km en el ecuador. En la figura 26
se observan las órbitas recorridas en días sucesivos. El intervalo de tiempo entre órbitas
adyacentes es de 7 días. De todos modos como LANDSAT-5 y LANDSAT-7 están desfasados 8
días, cuando ambos satélites se encuentran operativos puede lograrse para una dada región una
cobertura LANDSAT cada 8 días.
Hasta ahora, se podían obtener imágenes gratuitas de Landsat sobre una porción específica de
terreno cada 16 días. Esto, en según qué cultivos y momentos del cultivo puede ser insuficiente
para un estudio concreto. Sentinel 2 con sus 2 satélites gemelos, proporcionan una resolución
temporal de 5 días, aumentando considerablemente su frecuencia de revisión por un mismo
punto.
Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden orientarse
según diferentes ángulos, con lo cual pueden registrar imágenes no sólo en el nadir sino también
a través de enfoques laterales, frontales o traseros. Esto permite lograr períodos de revisita
mucho más cortos, incluso de dos o tres días. Otro ejemplo de satélites con alta resolución
temporal lo constituyen los de la serie NOAA con sus sensores AVHRR.

Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria global
diurna y nocturna. Sin embargo, debe tenerse en cuenta que la resolución espacial de éstos es
de 1 km, es decir mucho menor que la de los satélites anteriormente mencionados. De todos
modos, su elevada resolución temporal, los hace sumamente útiles en monitoreos ambientales
o agrometeorológicos sobre áreas muy extensas. Estas características son compartidas con el
instrumento MODIS a bordo de los satélites TERRA y ACQUA sobre áreas muy extensas. Estas
características son compartidas con el instrumento MODIS a bordo de los satélites TERRA y
ACQUA.

ESTRUCTURA DE LAS IMÁGENES DIGITALES

Antes de encarar el procesamiento de las imágenes satelitales entendemos


conveniente resumir aquí una serie de conceptos básicos ya considerados previamente acerca
de las imágenes digitales, así como ampliarlos con otros que serán útiles en las posteriores
etapas de este estudio.
Ya vimos como una imagen digital consiste de elementos discretos denominados pixeles. Estos
elementos bidimensionales constituyen los menores elementos no divisibles de la imagen. En la
Figura 27 vemos en forma esquemática cómo una imagen digital está compuesta de pixeles
ubicados en la intersección de cada fila i y columna j en cada una de las k bandas
correspondientes a una dada escena.

Figura 27 Esquema de una imagen digital

Cada pixel en cada banda está en perfecto registro geométrico con sus equivalentes de
las restantes bandas. Asociado a cada pixel existe un número (Número Digital, DN) que mide la
radiancia promedio o brillo correspondiente al área de escena abarcada por dicho pixel. En una
base binaria de 8 bits el DN poseerá 28 valores en un rango de 0 a 255.

Estos valores pueden ser modulados para producir en la pantalla de una computadora un escala
de grises que va desde el negro (DN=0) hasta el blanco (DN=255). O sea que para cada pixel en
una escena que consta de k bandas espectrales habrá asociados k niveles de grises. Estos definen
un espacio espectral k dimensional en el que cada pixel es representado por un vector que
constituye su firma espectral y que permitirá, a través de operaciones de clasificación basadas
en algoritmos matemático-estadísticos, asignar dicho pixel a clases temáticas definidas. El área
terrestre representada por un pixel está determinada por la altura del sensor y los parámetros
de diseño de éste, particularmente el campo de visión instantáneo (IFOV). Obviamente al
reducirse dicha área más detalles de la imagen serán aparentes, es decir que aumenta la
resolución espacial.

COMBINACIONES DE COLORES

Vimos que las imágenes satelitales suelen ser multiespectrales, es decir que son
registradas simultáneamente en varias regiones del espectro electromagnético. Estas imágenes
pueden ser estudiadas individualmente en escalas de grises o en imágenes coloreadas obtenidas
a partir de las primeras. Estas últimas se generan según el modelo de color RGB (del inglés Red,
Green, Blue). Este hace referencia a la composición del color en términos de la intensidad de los
colores primarios con los que se forma: el rojo, el verde y el azul. Es un modelo de color basado
en la síntesis aditiva, es decir basado en la mezcla por adición de dichos primarios. Para indicar
en qué proporción se mezcla cada color se asigna un valor a cada uno de los colores primarios.
Así por ejemplo, para un display de computadora de 8 bits por pixel el rango de valores posibles
(o sea de DN) para cada componente de color es de 0 a 255. En consecuencia existirán 2563 =
16.777.216 combinaciones posibles de rojo, verde y azul, y a cada pixel de una combinación de
color corresponderá un punto dentro del cubo de color representado en las Figura 29 (a esta
última se le extrajo un sector para mejor visualización interior).
Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del azul (0,0,255).
La ausencia de color, es decir el negro corresponde al punto (0,0,0). La combinación de dos
colores a nivel 255 con un tercero a nivel 0 da lugar a tres colores intermedios: el amarillo
(255,255,0), el cyan (0,255,255) y el magenta (255,0,255). El blanco se forma con los tres colores
primarios a su máximo nivel (255,255,255).

La escala de grises es la diagonal que une el blanco y el negro. Concretando, para preparar una
combinación de color se seleccionan tres bandas de interés de la escena multiespectral y
computadora mediante se le asigna a cada una de ellas uno de los tres colores primarios. El
display nos entregará una combinación RGB correspondiente a las bandas seleccionadas y a la
asignación de colores. Las bandas a seleccionar quedarán condicionadas, aparte de las
posibilidades ofrecidas por el sensor del satélite, por aquellos rasgos de la escena que se desea
realzar, y la asignación de colores además de ser condicionada por dicho factor puede
corresponder a un criterio profesional o heurístico del analista.

De todos modos, existen ciertas combinaciones que demostraron ser de particular interés,
sobre todo asociadas a temas ambientales y agronómicos. Dichas combinaciones para Landsat
o Sentinel son:

RGB (4-3-2) (3,2,1) Esta combinación suele llamarse “color natural” pues involucra a las tres
bandas ,visibles y se le asigna a cada una de ellas su verdadero color, resultando una
combinación que se aproxima a los colores naturales de la escena. La vegetación aparece en
diversos tonos de verde y los suelos en colores marrones o tostados. Además, las bandas visibles
tienen buena penetración en los cuerpos de agua y esta combinación permite observar detalles
en agua poco profundas (turbidez, corrientes, batimetría, plumas de sedimentos, etc.).

RGB (6,5, 2) Landsat 8 (11,8A,2) Sentinel 2B Agricultura Constituye una “simulación”del color
natural, pese a utilizar 2 bandas infrarrojas. Se ve realzada la diferencia de humedad en suelos
y vegetales. Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá éste.

RGB (8-4-3) Sentinel 2B Esta combinación suele llamarse “falso color infrarrojo” pues los
colores resultantes en la imagen son similares a los de las fotografías obtenidas con film
infrarrojo color. Al asignar el rojo a la bandas 4 (NIR) resultará que todos los tonos de rojo, desde
el rojo muy oscuro al rosado pálido corresponden a vegetación: los tonos más oscuros se
relacionan con la presencia de vegetación arbórea densa, como bosques, montes, etc.,
pudiéndose identificar algunas especies como pinos y eucaliptos. Rojos claros indican cultivos y
praderas vigorosas. Los rosados corresponden a vegetación poco densa como pasturas
naturales. El celeste corresponde a suelo desnudo, seco o áreas rocosas. El azul-celeste
puede corresponder a zonas urbanas. El azul oscuro a negro se relaciona con agua clara en
cursos o cuerpos de agua. Si éstos presentan partículas en suspensión aparecerán con
tonalidades azul-verdosas (cian). Los colores verde a verde azulado corresponden a parcelas
aradas o suelos descubiertos con mayor o menor contenido de humedad.

En las Figura 30 , se presenta una imagen LANDSAT 5 de una forestación. A efectos comparativos
esta imagen fue sometida a las combinaciones de color arriba mencionadas.

Figura 30 Diferentes combinaciones de colores presenta una imagen LANDSAT

Las combinaciones de color que acabamos de ver hacen referencia a las bandas del LANDSAT,
pero los criterios son aplicables a otros satélites teniendo en cuenta las características
espectrales de sus bandas. No todas las imágenes satelitales presentan la diversidad de bandas
del LANDSAT, y en tales casos algunas de las combinaciones antes referidas no pueden realizarse
con las escenas de dichas satélites, no obstante lo cual el analista puede intentar otras
combinaciones que permitan realzar características de interés.
La combinación de color utilizada en este caso es RGB 3,2,1 (infrarrojo medio, infrarrojo cercano,
rojo). Las bandas infrarrojas que son intensamente absorbidas por el agua permiten destacar
nítidamente los contornos de los ríos (color negro), algunos de los cuales en este período
estaban desbordados, así como las zonas anegadas (colores oscuros). Las áreas forestadas
aparecen con color verdoso más intenso.

Figura 31: Combinación de colores 321 de un satélite TERRA

Otro ejemplo es el caso del ASTER (instrumento a bordo del satélite TERRA) que en el modo de
resolución espacial de 20 m solo posee una banda en el verde, otra en el rojo y una tercera en
el infrarrojo cercano. En este caso es posible la combinación RGB 3,2,1 (i.r. cercano, rojo, verde)
como se aprecia en la Figura 32.

Figura 32: Combinación de colores 321 de un satélite TERRA


SATELITES AMBIENTALES

Esta sección describe los satélites ambientales actualmente en el aire, sus sensores y su uso
potencial para estudios oceanográficos. Los sensores para algunos de estos satélites, están
actualmente fuera de comisión o, en el caso de satélites tripulados, no habitados. Sin embargo,
debido al potencial de interés en los datos que han adquirido durante su período de actividad,
son incluidos en esta sección.

Los principales satélites ambientales en operación al día de hoy son:

1. Series LANDSAT -E.U.A.


2. Series TIROS - E.U.A.
3. Series NOAA - E.U.A.
4. MISION DE MAPEO DE CAPACIDAD DE CALOR (HCMM) - E.U.A.
5. Series NIMBUS - E.U.A.
6. SEASAT-A - E.U.A. (ahora fuera de funciones).
7. GOES/METEOSAT - E.U.A./ E.S.A.
8. SPOT - FRANCIA
9. Series BHASKARA - INDIA
10. MOS-1 – JAPON
11. ESA SENTINEL EUROPA

Las Series LANDSAT


Las series LANDSAT de satélites fueron anteriormente conocidos como Satélites de Tecnología
de Recursos de la Tierra (ERTS)..

Barredor Multiespectral (MSS):


El MSS es un dispositivo barredor de líneas tanto de aviones como de naves espaciales, el cual
produce un número específico de imágenes sincronicas cada una con una banda de onda
diferente. La escena individual de una imagen de un MSS cubre aproximadamente 185 × 185 km
y se sobrepone a su vecino aproximadamente un 10% a lo largo de la ruta terrestre del vehículo
espacial

CARACTERISTICAS DEL LANDSAT-2 MSS


Longitudes de onda: BANDA 4: 0.5 – 0.6 μm (verde)
BANDA 5: 0.6 – 0.7 μm (rojo)
BANDA 6: 0.7 – 0.8 μm (IR cercano)
BANDA 7: 0.8 – 1.1 μM (IR Cercano)
IFOV: 0.086 mrad
Ancho de barrido 185 km
Tamaño de la celda de resolucióndel terreno: 80 m × 80 m

Mapeador Temático (TM):


El TM tiene tres bandas visibles, una infrarroja cercana y dos medianas con una resolución
terrestre de 30 metros de tamaño de celda y una banda IR térmica con un tamaño de celda de
120 metros de resolución terrestre. Las características del sensor son proporcionadas en la
Tabla.
CARACTERISTICAS DEL LANDSAT TM

Longitudes de Onda: BANDA 1: 0.45 – 0.52 μm (violeta-azul)


BANDA 2: 0.52 – 0.60 μm (verde)
BANDA 3: 0.63 – 0.69 μm (rojo)
BANDA 4: 0.76 – 0.90 μm (IR cercano)
BANDA 5: 1.55 – 1.75 μm (IR mediano)
BANDA 6: 10.40 –12.50 μm (IR lejano o térmico)
BANDA 7: 2.08 – 2.35 μm (IR mediano)
IFOV: 0.043 mrad (excepto BANDA 6 : 0.170 mrad)
Ancho de barrido: 185 km
Tamaño de la celdade resolución 30 m × 30 m (excepto BANDA 6: 120 m × 120 m)
del terreno:

El TM proporciona una resolución global de 30 metros. Esta alta resolución es lograda por
detectores sensitivos y por una cuantización de 8 bits en el proceso de conversión analogías a
digital (256 niveles de gris). En contraste, la MSS tiene únicamente 6 bits de cuantización (64
niveles de gris). Esto significa que las escenas del TM contienen mayor número de píxel con
mayor rango radiométrico. Esto resulta también en una alta tasa de datos de bits de 84.9
megabytes por segundo.

Serie NOAA
Con la experiencia ganada con las series de satélites NIMBUS, PIROS y TOS (Satélite Operacional
TIROS), se comenzó la serie de satélites operacionales de NOAA. La Administración Nacional
Oceánica y Atmosférica de E.U.A. (NOAA) fundó la serie, de ahí la designación del nombre.
Los satélites de la serie NOAA están dedicados a observaciones metereológicas y a estudios de
la temperatura superficial del mar.

Serie GOES/METEOSAT
Estos satélites geoestacionarios de gran altitud (36,000 km) son utilizados para observaciones
metereológicas globales y para comunicaciones (referirse a las Figuras 14 respectivamente). Los
aspectos de la metereología que son el foco de estos satélites, incluyen el mapeo de nubes e
imágenes infrarrojas y visibles de la superficie de la tierra, para detectar cambios de gran escala
en parámetros oceánicos.

Figura 14 Posiciones de cinco satélites meteorológicos geo sincrónicos que proporcionan


capacidad de observación de las condiciones globales del tiempo. (Después de
J.A. Richards, 1986).
METEOSAT - CARACTERISTICAS DEL RADIOMETRO BARREDOR

Longitud de Onda: BANDA 1: 0.4 – 1.1 μm (azul-IR cercano)


BANDA 2: 5.7 – 7.1 μm (IR mediano)
BANDA 3: 10.5 – 12.5 μm (lejano o IR
termal)
Ancho de barrido: 12,500 km
Tamaño de resolución de la celda del BANDA 1: 2.5 km × 2.5 km
terreno: BANDA 2,3 5.0 km × 5.0 km
:

SPOT
Este satélite fué lanzado en 1986 y está dedicado a la observación de la tierra, aunque tiene
aplicaciones oceanográficas al igual que el LANDSAT.

Tiene una órbita heliosincrónicos polar cercana con un ángulo de inclinación de 99° y un período
de 101 minutos. Realiza de 14 a 15 revoluciones per día y sobrepone la misma ruta cada 26 días
con una distancia entre rutas de 2,818 km. La altitud de este satélite es de 820 a 840 km. El
sensor a bordo es el radiómetro de opresión de barrido, HRV (Alta Resolución Visible).

Radiómetro de Alta Resolución Visible (HRV)


La característica especial de este barredor es que tiene una resolución terrestre multiespectrales
(3 .bandas) de 20 metros. Los barredores son apuntables también por control terrestre para
permitir la obtención de imágenes de la misma escena desde diferentes rutas orbitales con un
ángulo de incidencia desde 0° (nadir) hasta un máximo de 27°. Las imágenes son obtenidas
utilizando dos radiómetros idénticos HRV los cuales permiten imágenes estereoscópicas
(referirse a la Figura 15.). Las características del HRV son descritas en la Tabla SPOT.

Figura15: Atributos del sistema SPOT. (Después de D.J. Carter, 1986).


TABLA SPOT: CARACTERISTICAS DEL HRV
Modo pancromático Modo multicanal
Longitudes de Onda: 0.57 – 0.73 μm (verde-rojo) 0.50 – 0.59 μm (verde)
0.61 – 0.68 μm (rojo)
0.79 – 0.89 μm (IR cercano)
Ancho de barrido (por HRV) 60 km 60 km
Total del ancho de barrido: 117 km (3 km de 117 km (3 km de
sobreposición) sobreposicióm)
Tamaño de la celda de resolución del 10 m × 10 m 20 m × 20 m
terreno:

SENTINEL

Diseñada como una constelación de dos satélites – Sentinel-1A y -1B –, esta misión equipada
con un radar de banda C proporcionará imágenes de las superficies terrestre y oceánica de
Europa, Canadá y las regiones polares casi en tiempo real, obtenidas en cualquier momento del
día o la noche y en todas las condiciones meteorológicas.

Equipada con un potente radar de apertura sintética, esta misión garantiza la continuidad con
el satélite europeo Envisat, que dejó de funcionar en 2012 tras 10 años de servicio. La tecnología
se basa en una sólida herencia de radares en satélites, iniciada con ERS-1 hace 23 años.

El satélite Sentinel-2B de la ESA, que duplicará la cobertura óptica de alta resolución de la misión
Sentinel-2, perteneciente al sistema de vigilancia medioambiental Copernicus de la Unión
Europea.
La misión de toma de imágenes Sentinel-2 se basa en una constelación de dos satélites idénticos:
Sentinel-2A, lanzado en junio de 2015, y Sentinel-2B. Aunque lanzados por separado, ambos
satélites se encuentran en la misma órbita, con una separación de 180°. Cada cinco días, entre
los dos satélites quedará cubierta toda la superficie terrestre, las mayores islas y las aguas
costeras y continentales entre las latitudes 84° S y 84° N, optimizando así la cobertura global y
la provisión de datos.
Cada satélite Sentinel-2 transporta una innovadora cámara multiespectral de alta resolución,
con 13 bandas espectrales que aportan una nueva perspectiva de la superficie emergida y la
vegetación. La combinación de la alta resolución y las nuevas capacidades espectrales, así como
un campo de visión que abarca 290 km de ancho y sobrevuelos frecuentes, proporcionará vistas
de la Tierra sin precedentes.
bandas Resolución espacial (m) Resolución espectral (nm)
Banda 1 (Aerosol) 60 443
Banda 2 (Azul) 10 490
Banda 3 (Verde) 10 560
Banda 4 (Rojo) 10 665
Banda 5 (NIR) 20 705
Banda 6 (NIR) 20 740
Banda 7 (NIR) 20 783
Banda 8 (NIR) 10 842
Banda 8a 20 865
Banda 9 (Vapor de agua) 60 9945
Banda 10 (Cirrus) 60 1375
Banda 11 (SWIR) 20 1610
Banda 12 (SWIR) 20 2190
ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA

Los avances tecnológicos de las últimas décadas en el campo de la percepción remota y de sus
cada vez más numerosas aplicaciones nos hacen desistir de intentar realizar acerca de éstas
una presentación sistemática y formal, sobre todo si queremos mantener el
carácter introductorio de este trabajo. Ya en los capítulos anteriores, al referirnos a
diversos aspectos y procedimientos de la Percepción Remota los hemos ilustrado con algunos
ejemplos de aplicación a casos de monitoreo de recursos terrestres. Para este capítulo final
hemos elegido algunos temas de aplicación puntuales que creemos pueden ser de especial
interés para quienes nos han acompañado hasta aquí. Estos temas son:

· Aplicaciones en agricultura.

· Temperaturas terrestres y marinas.

· Monitoreo de áreas de desastre.

Esta selección no pretende restar importancia a aplicaciones como urbanismo, geología y


mineralogía, hidrología, estudios climáticos y atmosféricos, etc.

APLICACIONES EN AGRICULTURA.

La percepción remota se ha convertido en una importante fuente de información en el manejo


de la producción agrícola, no sólo a escalas locales sino a nivel global, particularmente para
aquellas regiones en que el suministro de alimentos suele pasar por períodos críticos. En estas
aplicaciones la percepción remota es particularmente empleada para la identificación de
cultivos así como analizar el estado de éstos, jugando para ello un papel primordial las
características espectrales de las principales coberturas terrestres a que ya nos hemos referido
en el Capítulo 4 del presente trabajo.

ÍNDICES DE VEGETACIÓN

Vamos a referirnos a ciertas operaciones algebraicas efectuadas sobre los valores numéricos
de los pixeles correspondientes sobre dos o más bandas pertenecientes a la misma escena.
Entre las más importantes figuran las que conducen a evaluar los índices de vegetación. Un
índice de vegetación es un número generado por alguna combinación de bandas espectrales y
que puede tener alguna relación con la cantidad de la vegetación presente en un dado píxel de
la imagen.

El más conocido es el Índice Diferencial de Vegetación Normalizado (NDVI –


Normalized Difference Vegetation Index)
¿Entonces… qué mide el NDVI?
El NDVI no es más que un índice adimensional (un ratio) que nos muestra la diferencia entre el
valor de reflectancia del NIR y el Rojo. Nos da un valor relativo de ese salto tan bestial que hemos
visto en la gráfica. El quid de la cuestión es buscar cuál es el significado o interpretación de esto.
Bien, pues digamos que tras mucho estudiar los valores y el estado de las plantas se llega a la
siguiente conclusión “general”:
Cuanto mayor sea esta diferencia (es decir, cuanto más se acerque al valor 1) el NDVI nos dice
que la planta goza de buena salud y tiene un buen vigor vegetativo.
Valores muy bajos de NDVI, del orden de 0.1, corresponden a áreas rocosas, arenosas o nevadas.
Valores de 0.2 a 0.3 pueden corresponder a áreas pobres con arbustos o pasturas naturales. A
partir de estos valores tendremos los niveles correspondientes a praderas, cultivos,
forestaciones etc. dependiendo el valor alcanzado, que puede llegar hasta 0.6 y 0.8, del estado
de desarrollo y sanidad de tales áreas.
El fundamento de la definición del NDVI radica en las características del espectro de los
vegetales. En efecto, ya vimos que la radiación reflejada por una hoja en la región visible
depende fundamentalmente de la radiación absorbida por los pigmentos de la hoja, mientras
que en el infrarrojo cercano, en la región de 0.7 a 1.3 mµ, depende de la estructura interna de
la hoja.
Bien, a continuación vemos una gráfica de la reflectancia de una estructura vegetal en diferentes
longitudes de onda. Fíjate en los valores de reflectancia del espectro visible y en las bandas que
implican al infrarrojo cercano o NIR (lo que no vemos).

¿Ves el salto tan enorme que hay justo en el cambio del visible al NIR?

¡¡La reflectancia de una planta sana en la banda del NIR (infrorrojo cercano) es brutal!!

Si nuestros ojos fueran capaces de captar esta longitud de onda, las plantas en pleno vigor
vegetativo, nos estarían deslumbrando como espejos!!. La reflectancia al NIR no la genera la
clorofila como en el verde. Esa reflectancia se debe a la estructura celular del parénquima.

Para valores mayores de 1.3 mµ aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 mµ. El stress
vegetal suele manifestarse cuando por efecto de factores como sequía, enfermedades,
infección por plagas, etc., la hoja ve reducido su contenido de agua. Esto produce el colapso de
las células del mesodermo inferior, lo cual reduce la reflectancia en el IR cercano, constituyendo
un síntoma visual de stress ya que suele manifestarse días e incluso semanas antes de que
comiencen a apreciarse cambios visualmente o a través de la fotografía color convencional
Es verdad que el NDVI predice cosas?
Mucho se ve en la web de modelos predictivos de rendimientos de cultivo, plagas, riego… Cómo
podemos ahorrar costes con modelos que nos dicen qué cantidad de fertilizante hay que echar
según en qué zonas del campo y muchas cosas más. ¿Todo esto hace el NDVI? Bueno, no es del
todo cierto pero ayuda. El NDVI es uno de tantos índices y es una herramienta más de apoyo
al diagnóstico y la predicción. Y aquí es donde quiero arrojar un poco de luz sobre este índice al
que muchas veces se sobrevalora. No porque sea un mal índice, sino porque se le atribuyen
capacidades inherentes que no tiene.
Muchas veces se da a entender o se malinterpreta que el NDVI es capaz de inferir todas esas
variables de un cultivo simplemente capturando una imagen multiespectral, sacándo el índice y
ya. Pareciera que con un satélite o drone, ya no tenemos que ir al campo a mirar cómo va el
cultivo. “Me mandan una imagen al móvil con un mapa de ‘colores” precioso y ya sé qué le pasa
al cultivo y cómo debo solucionarlo. Hasta sé cuánto tengo que regar y cuánto plaguicida usar.”
Como si de una bola de cristal se tratara. Cuidado con esto.
La labor del técnico de campo, ingeniero agrónomo, agricultor es esencial en la interpretación
de las imágenes. Quien cultiva sabe mejor que nadie qué variables maneja, como la pendiente
de la parcela, el tipo de suelo, la conductividad del agua con la que riega, el fertilizante que
utiliza, la cantidad del mismo, el clima en esa zona, los rendimientos del cultivo en diferentes
años, los vientos predominantes… Esto una imagen NDVI no te lo dice y son variables esenciales.
El NDVI nos da un valor que indica si la planta está bien, si está en su óptimo de crecimiento en
ese momento o realmente está sufriendo, lo que se conoce como estrés. Este estrés puede ser
debido a:

 Estrés hídrico: Falta de agua (normalmente) aunque puede ser un exceso también.
 Estrés nutricional: Falta o exceso de algún nutriente necesario. Pueden ser
macronutrientes NPK (Nitrógeno, Fósforo, Potasio) o micronutrientes como (Calcio,
hierro, boro, manganeso, zinc…)
 Estrés por plagas. Daño físico a la hoja, debilitamiento de la planta…
 Estrés por enfermedades: Víricas, criptogámicas (hongos), bacterias, nematodos…
 Estrés por pH: Si el suelo tiene un pH fuera del rango “cómodo” para la planta, el sistema
radicular sufre y la absorción de nutrientes se ve afectada seriamente.
 Estrés lumínico: No es común en cultivos agrícolas, pero puede pasar.

¡¡¡EL NDVI NOS DA EL ESTADO DE LA PLANTA, PERO NO NOS DICE EL POR QUÉ!!!

El espectro vegetal posee el aspecto típico del obtenido con un espectrómetro de laboratorio
o bien con un sensor hiperespectral. Como los satélites más usuales actualmente son sólo
multiespectrales no nos pueden suministrar una curva espectral con la alta resolución de un
espectrómetro o un sensor hiperespectral. Sin embargo, con sus datos, por ejemplo con las 6
bandas visibles e infrarrojas del Landsat, podemos construir un espectro grosero como el de la
Figura 33 que de algún modo refleja las características del espectro de laboratorio y que nos
puede brindar mucha información acerca del estado de un cultivo, de una forestación, etc. La
curva a corresponde a pleno vigor vegetativo, la b representa una etapa con estrés hídrico y la
c marca ya un estado avanzado de estrés hídrico. Obsérvese el quiebre de las curvas a aprox.
1.6mµ, que es un reflejo del contenido de agua de la hoja y permite diferenciar claramente por
el cambio de concavidad de la curva la transición a un estado de stress. Si se consideran los
valores relativos de las reflectancias en el rojo y en el infrarrojo cercano para cada banda se
comprende que ocurrirá un notorio decrecimiento del NDVI al pasar de la banda a a la c

Figura 33: Perfiles espectrales en función diferentes estados de hídricos de un cultivo

Una vez sepamos el tipo de daño…


Además, una vez tengamos claro qué tipo de estrés, debemos buscar la causa!! Si fuera hídrico
podría ser por exceso porque hay una zona de encharcamiento por la pendiente de parcela y un
suelo de textura arcillosa. Si tenemos riego por goteo puede ser una fuga en el sistema, un
exceso de caudal en algunos goteros…
Digamos que el NDVI es como la temperatura corporal. Si la fiebre aumenta sabemos que
estamos malos pero luego hay que diagnosticar por qué. Necesitamos más variables que la
fiebre para saber de qué se trata (dolor muscular, vómitos, qué hemos comido las últimas 24
horas…). Pues de igual manera, con la planta necesitamos más información al respecto.

Hay que visitar al enfermo, hay que ir al campo.


Hay casos muy divertidos de esta interpretación errónea por falta de variables. Esto es un
ejemplo muy obvio y sencillo para ilustrar el concepto. Recuerdo una imagen multiespectral
de una plantación de durazno en el que los valores de NDVI no subían de 0,3. Tras mucho
mirar y mirar pregunto al que me la enseña:

 ¿Cuándo está hecha esta imagen?


 Fines de Abril
 Ajam… y no te has planteado que puede que el durazno haya perdido toda su hoja
y esté en reposo invernal…?

Conclusión: ¿De qué nos sirve un índice si luego no somos capaces de interpretar los
valores, contextualizando el cultivo en el tiempo y en el espacio?
El NDVI necesita información complementaria
Las variables a controlar son muchísímas y el mismo cultivo puede variar mucho en función de:
estado fenológico, situación geográfica, clima, variedad, SUELO (este influye muchísiiiiiisimo),
laboreo, programa de fertilización… cuantas más tengamos controladas, más fácil es predecir
qué variable está causando el NDVI anormalmente bajo. Debemos tener una visión de conjunto,
muchas muestras tomadas, muchas imágenes de nuestro cultivo para contrastarlas.
Cuando se anuncia que con un NDVI se pueden predecir dosis de fertilización nitrogenada por
zonas para maíz por ejemplo, es cierto, se puede, pero siempre teniendo en cuenta que ha
habido un estudio muy potente por detrás. Un estudio que ha encontrado una relación directa
o patrón entre los valores de NDVI en un estado fenológico del maíz y su fertilización
nitrogenada (seguramente con las demás variables casi constantes en la medida de lo posible).
Con esto, lo que se quiere resaltar aquí es que, si en un mapa de valores NDVI captados por un
sensor (ya sea satélite o UAV) hay zonas del cultivo con peor índice que el resto, no podemos
saber SÓLO con la imagen qué puede estar pasando. Podemos plantear hipótesisy desde luego
podemos descartar aquellas afecciones que no correpondan con el momento en que se mide
ese valor. Pero sigue siendo necesario ir al campo y ver qué puede estar pasando. Además, no
vale con una sola adquisición de imágenes.
Lo interesante es tener series temporales dentro de la campaña y entre campañas. Así
tendremos valores con los que poder comparar, descartar variables y ajustar los modelos a lo
que realmente queremos.

Resumiendo
El NDVI es un índice muy aceptable que nos da información muy valiosa porque podemos
generar mapas que nos dan diferencias de vigor vegetativo en grandes extensiones. Una vez
visto esto, debemos ir a campo, observar las diferencias (tanto espaciales como temporales) de
las zonas afectadas y empezar a descartar variables y buscar el diagnóstico concreto.
EL NDVI ES UNA HERRAMIENTA MÁS, NO UNA SOLUCIÓN.

Algunos ejemplos de aplicación del NDVI

Seguimiento de una sequía.

Durante los meses de febrero de 2018 a marzo de 2018 se produjo en Argentina una intensa
sequía. Esta fue seguida a través de imágenes NOAA 19 de 1 km de resolución y calculando los
índices de vegetación. Es el índice de vegetación normalizado (IVN; NDVI en inglés) que se
calcula a partir de información captada por el sensor AVHRR de los satélites de la serie NOAA a
una resolución espacial de 100 hectáreas (1 km2), tomando los valores máximos para una
composición de imágenes correspondientes a un mes calendario. Las imágenes obtenidas se
representan en la secuencia de la Figura 34.
Seguimiento de cultivos

El NDVI está asociado a la fracción de la radiación solar absorbida por las plantas. Existe una
fuerte relación entre elNDVI y variables de la vegetación tales como la biomasa, el índice de área
foliar (IAF) o la productividad. Conocer dichas variables en el tiempo para los distintos lotes o
potreros permite estimar la oferta forrajera, definir la carga animal óptima y planificar otras
prácticas de manejo en los sistemas ganaderos. También permite predecir el rendimiento de los
cultivos, asignar diferencialmente los recursos y comparar la campaña actual con anteriores en
los sistemas agrícolas.

Las Figuras 34; 35 y 36 muestran una secuencia de imágenes temporales de algunas arroceras
a lo largo de un pequeño área. Las imágenes cubren aproximadamente 14 km x 14 km y
fueron extraídas de una imagen Landsat standard de 185 km x 185 km. Junto a cada imagen
se muestra la foto del estado de desarrollo de una pequeña arrocera cuya posición se indica
en la imagen.

La Fig. 34 corresponde al 30-11-98, y la arrocera de referencia posee un NDVI de 0.1 0.2. Se


observan otras áreas (blancas) cuyos índices son prácticamente cero y con menores desarrollo
que la de referencia.

En la Fig. 35 se muestra la situación al 01-01-99 y puede observarse cómo el NDVI de


la referencia ha aumentado a aprox. 0.7, observándose que algunas áreas blancas han elevado
su NDVI, algunas notoriamente. Obviamente se trata de otras arroceras en diferentes estados
de evolución.

En la Fig. 36 el NDVI de referencia a aumentado a 0.8-0.9 y también otras arroceras


han aumentado notoriamente sus índices. Vemos cómo la percepción remota ofrece la
posibilidad de monitorear el estado de los cultivos y, estando las imágenes georreferenciadas
también permitirá calcular las áreas cultivadas.
Figura 34

Figura 35

Figura 36

Monitoreo a nivel global

Los ejemplos anteriores son de carácter localizado. Sin embargo existen actualmente satélites
como los de la serie NOAA y TERRA (Los Nuevos Satélites Para la Observación de la Tierra) que
en el marco de programas de monitoreo permanente de la superficie terrestre como por
ejemplo el programa EOS (Earth Observation System) de la NASA, suministran información
permanente sobre cambios en las coberturas terrestres. Entre los productos que estos
programas suministran se encuentra el NDVI a nivel global. Estos productos están disponibles
en Internet en resoluciones espaciales de 250m a 1 km por pixel. Uno de los sitios más
apropiados para bajarlos es el Earth Observing System Data Gateway
PERCEPCION REMOTA EN EL INFRARROJO TERMICO

Generalidades sobre el infrarrojo térmico (IRT). Todo objeto cuya temperatura se encuentre
por encima del cero absoluto emite energía electromagnética en la región infrarroja térmica (3
a 14 mµ) del espectro electromagnético. Si bien el ojo humano es insensible a dichas
radiaciones existen, sensores capaces de detectarlas. Efectivamente, los sistemas de
percepción remota en el IRT son capaces de registrar imágenes térmicas que ofrecen
incontables aplicaciones, fundamentalmente en el monitoreo de las superficies terrestres y
oceánicas así como de fenómenos atmosféricos. Es una práctica usual medir la temperatura de
un cuerpo mediante un termómetro que está en contacto o sumergido en dicho cuerpo. La
magnitud así medida es la llamada temperatura cinética que constituye una manifestación
interna de la energía translacional asociada al movimiento aleatorio y colisiones de las
moléculas del cuerpo considerado. Esta energía interna puede convertirse en energía radiante
y ser emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede
medir así la temperatura radiante del objeto que está correlacionada, aunque no es
exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo más baja
que esta última debida a una propiedad térmica de los cuerpos que llamamos emisividad y que
más adelante consideraremos asociada al movimiento aleatorio y colisiones de las moléculas
del cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser
emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede medir así
la temperatura radiante del objeto que está correlacionada, aunque no es exactamente igual,
a la temperatura cinética.

APLICACIONES DEL INFRARROJO TERMICO

La medida de temperatura desde plataformas orbitales constituye un parámetro de


fundamental importancia en la estimación de diversas variables de interés terrestre y oceánico.
La tradicional medida de temperaturas mediante termómetros o termistores por contacto está
obviamente asociada a elevados costos operacionales y dificultades cuando dichas medidas
pretenden cubrir extensas áreas geográficas.
La gran solución a este problema la constituyen las mediciones desde satélites con sensores
que operan en la región del IRT. Existe actualmente muchos satélites con tales sensores, pero
aquí nos limitaremos a citar como ejemplos los de la serie NOAA (National Oceanic
and Atmospheric Administration – USA) y los satélites TERRA y AQUA del sistema EOS de
la NASA con su instrumento MODIS

Refiriéndonos en particular a la serie NOAA, diremos que es una familia de satélites solar-
sincrónicos que orbita a 833 km de altitud. Su sensor AVHRR (Advanced High
Resolution Radiometer) ha sido tal vez el más ampliamente utilizado para las medidas de
temperatura. Posee cinco canales: uno en el visible (0.63 mµ ), uno en el IR cercano (0.91 mµ),
uno en el límite IR cercano/térmico (3.7 mµ) y dos en el IRT (10.8 mµ y 12 mµ).

Este sensor posee una resolución espacial de 1.1 km y un ancho de barrido de 2400 km. Los
satélites en actividad de esta serie son NOAA-12, 14, 15, 16, 17 y 18. Debe tenerse en cuenta
que pese a su gran eficiencia para medir temperaturas sobre grandes extensiones geográficas
sus mediciones no están libres de dificultades, particularmente por la acción combinada de
perturbaciones debidas a la emisividad del terreno y el efecto atmosférico. La perturbación
atmosférica es debida fundamentalmente a la absorción y emisión de radiación térmica por
parte del contenido de vapor de agua atmosférico, mientras que el efecto de emisividad se
debe a la heterogeneidad de los elementos presentes en la superficie terrestre. En
consecuencia, una adecuada estimación de temperatura desde plataformas satelitales
requerirá corregir los defectos indicados.

Temperatura terrestre.

La temperatura terrestre es un buen indicador del balance energético y del efecto invernadero,
puesto que constituye uno de los parámetros clave en la física de los procesos que ocurren en
la superficie de la Tierra tanto a nivel local como global. Combina los resultados de las
interacciones superficie-atmósfera y de los flujos energéticos entre la atmósfera y el suelo. Por
tal motivo su medida es necesaria para variados estudios climáticos, hidrológicos, ecológicos y
biogeoquímicos. Su importancia en agricultura radica en que la temperatura del suelo y del
follaje es uno de los factores determinantes del crecimiento vegetal y gobierna el inicio y
terminación de los procesos estacionales de los vegetales. Como en el caso de las medidas
marinas en las terrestres existen abundantes bases de datos de temperatura a nivel global
obtenidos a través de los sensores AVHRR y MODIS, aunque también se obtiene información
de esta naturaleza a través de satélites geoestacionarios (ej. serie GOES). Como en el caso de
la medida de temperatura del mar también aquí se recurre a algoritmos de cálculo, por ejemplo
del tipo de ventana dividida o split-window para procesar los datos de infrarrojo térmico.

Pasemos ahora a considerar algunos ejemplos más concretos de aplicación de medidas


de temperatura. Uno de ellos, cada vez más importante cuando se asocia a los
cambios climáticos globales que afectan nuestro planeta es el monitoreo de incendios. Los
incendios de diferentes tipos de biomasa como forestaciones, malezas, residuos agrícolas, etc.
juegan un importante rol en los cambios climáticos emitiendo a la atmósfera gases de
invernadero y aerosoles y afectando seriamente la biodiversidad de los ecosistemas. La
información satelital en la prevención y monitoreo de incendios, particularmente en áreas
extensas o en territorios de difícil acceso resulta sumamente valiosa. Un sensor como AVHRR
o MODIS no sólo puede detectar incendios cuando ya están declarados a través de la
visualización de sus plumas de humo (Figura 37 Incendios de campo en Paraguay)) sino que
puede hacerlo a través de la detección de anomalías térmicas o puntos calientes antes de que
los efectos visuales se manifiesten notoriamente.
Figura 37: visualización de sus plumas de humo MODIS

El FIRMS (Fire Information for Resource Management System) por ejemplo genera un mapa de
puntos calientes/incendios casi en tiempo real accesible por Internet. El FIRMS, operado por la
NASA y la Univ. de Maryland se basa en el sistema de respuesta rápida de MODIS.
(http://rapidfire.sci.nasa.gov/status/)

En la Figura 38 se observa un mapa del sistema de Respuesta rápida de MODIS (Julio de


2006) donde se observan puntos calientes y/o incendios en Uruguay, Paraguay y parte de la
Argentina. Nuevamente se observa una gran densidad de puntos calientes en
Paraguay, correspondientes a incendios de campo como los registrados en la Figura 37.

Figura 38 Se observa un mapa del sistema de Respuesta rápida de MODIS


Monitoreo de áreas de desastre.

Las imágenes satelitales constituyen una valiosa herramienta para acceder rápidamente a
aquellas áreas sometidas a desastres ecológicos. Su amplia área de cobertura, su facilidad para
visualizar rápidamente y evaluar la situación de aquellos lugares donde las mismas
consecuencias del desastre impiden o dificultan otros tipos de aproximación son factores
fundamentales en el manejo de las acciones de recuperación posteriores al evento. Incluso en
muchos casos la información satelital permite emitir alertas previos al evento: en efecto,
muchos tipos de desastres, como inundaciones, sequías, huracanes, erupciones volcánicas, etc.
poseen señales precursoras que un satélite pude detectar. El alerta temprano permite reducir
los riesgos potenciales y planificar las acciones a tomar durante y luego del episodio. Cuando
hablamos de desastres ecológicos lo hacemos en un sentido amplio. En efecto, incluimos en
dicho concepto no sólo los desastres naturales sino también los debidos a la acción humana
directa o bien inducidos por la acción humana. Algunos son de rápido desenlace y con
resultados devastadores, otros son de desarrollo lento pero con iguales o más serias
repercusiones en el tiempo.

También podría gustarte