Está en la página 1de 29

SATELITES: ESCALA Y RESOLUCION ESPACIAL

7.5 Escala y resolución espacial. 

Los conceptos de escala y resolución espacial están estrechamente relacionados con el grado de detalle
con que podemos visualizar una dada imagen. Sin embargo difieren en ciertos aspectos que conviene
puntualizar.
7.5.1 Escala. La escala de una imagen o de un mapa hace referencia a la diferencia relativa de tamaño o
distancia entre los objetos de la imagen y los reales terrenos. Esta diferencia se expresa como la relación
entre la distancia sobre la imagen y la real terrena.. Así por ejemplo, una escala de 1: 100000 significa
que 1 cm en el mapa o imagen corresponde a 100000 cm (1 km) sobre el terreno.

Un cálculo similar puede efectuarse para áreas. Así, para una escala 1:10000 un área de 1mm x 1mm en
el mapa o imagen corresponde a 0.01 ha. sobre el terreno. Igualmente, un área de 5cm x 5 cm sobre el
mapa corresponde a un área de 25 ha sobre el terreno. Es común referirse a una escala diciendo que es
mayor o menor que otra escala. Sin embargo, esta manera de expresarse puede llevar a confusiones. En
efecto, una escala de por ejemplo 1:100000 suele llamarse “escala de 100000” y una escala de 1:40000
“escala de 40000”. Sin embargo la primera es menor que la segunda, ya que el número 1/100000 es
menor que el de 1/40000. Lo mejor sería decir que 1:100000 es una escala “gruesa” y 1:40000 una
escala “fina”.
Para calcular la escala desconocida de una imagen o un mapa es necesario comparar la distancia entre
dos puntos sobre una referencia conocida y los mismos dos puntos sobre el mapa o imagen de escala
desconocida. La referencia puede ser otra imagen o mapa de escala conocida o una distancia medida
sobre el terreno. El método de cálculo difiere según la referencia sea una imagen o mapa o bien una
medida sobre el terreno. En el primer caso la fórmula a aplicar es: 

ED = DD / DR * ER 
donde ED: escala desconocida a calcular; DR: distancia entre dos puntos medida sobre la imagen o
mapa de referencia; DD: distancia entre los mismos dos puntos medida sobre la imagen o mapa de
escala desconocida. Ejemplo:

Un mapa topográfico a escala 1:100000 se usará para determinar la escala de una imagen satelital. Se
seleccionan dos puntos que pueden ubicarse fácilmente sobre la imagen y el mapa. La distancia entre
ellos en el mapa topográfico es de 8.3 mm y en la imagen es de 40.0 mm. La escala de la imagen será 

ED = 40.0 / 8.3 * 1/100000 = 1/20750 

En el caso de que la referencia sea una medida sobre el terreno la fórmula a emplear será: 

ED= MD/RD 

donde ED: escala desconocida a calcular; RD: distancia entre dos puntos medida sobre el terreno; MD
distancia entre los mismos dos puntos medidos sobre el mapa o imagen Nota.
Las unidades de RD y MD deben ser las mismas. 

Ejemplo: si la distancia medida sobre el mapa o imagen es de 40.0 mm y la distancia sobre 


el terreno son 415 m (415000 mm) la escala desconocida será 
ED = 40.0 / 415000 = 1/10735 

7.5.2 Escala vs. Resolución Espacial. Ya vimos (Sec. 7.4.1) que la resolución espacial de una imagen es
una indicación del tamaño del pixel expresada en términos de dimensiones sobre el terreno. Usualmente
se presenta por un valor único correspondiente a la longitud de un lado del cuadrado correspondiente a
dicho pixel. Así, una resolución espacial de 30 m significa que el pixel representa un área de 30 m x 30 m
sobre el terreno. Si el pixel fuera rectangular debería ser representado por su largo y ancho, por ejemplo
56 m x 79 m. La resolución espacial es una indicación del potencial de detalle que ofrece una imagen. Si
una imagen de satélite de 1 m de resolución se imprime a una escala de 1/500000 se perdería el
potencial de detalle que ofrece dicha imagen. La inversa también es cierta: si se imprime una imagen de
baja resolución espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles individuales.
Cuando efectuamos “zoom” repetido sobre una imagen digital (es decir, cuando vamos “afinando” la
escala) llega un momento en que comienzan a visualizarse los pixeles, y a partir de ese punto aunque
sigamos afinando la escala no se aumentará su nivel de detalle llegando a dificultarse su interpretación.

>Página siguiente: 8. ESTRUCTURA DE LAS IMÁGENES DIGITALES

Página principal

< Página anterior: SATELITES - RESOLUCION TEMPORAL


Email ThisBlogThis!Share to TwitterShare to Facebook

SATELITES - RESOLUCION TEMPORAL


7.4.4 Resolución temporal. La Resolución Temporal es una medida de la frecuencia con la que un
satélite es capaz de obtener imágenes de una determinada área. También se denomina intervalo de
revisita. Altas resoluciones temporales son importantes en el monitoreo de eventos que cambian en
períodos relativamente cortos, como inundaciones, incendios, calidad del agua en el caso de
contaminaciones, desarrollo de cosechas, etc. Asimismo, en áreas con cubiertas nubosas casi
constantes como por ejemplo las selvas tropicales, períodos cortos de visita, es decir altas resoluciones
temporales, aumentan la probabilidad de obtener imágenes satisfactorias. Si consideramos un satélite de
la familia LANDSAT, ( 5 o 7), su resolución temporal es relativamente baja. En efecto, como sólo registra
imágenes en el nadir para volver a registrar una dada área habrá que esperar que vuelva a recorrer la
misma órbita, lo cual ocurre cada 16 días. Esto puede apreciarse en las Figs. 39 y 40: 

En la Fig. 39 vemos que las características orbitales del LANDSAT hacen que la distancia entre el
trazado terrestre de dos órbitas consecutivas sea de 2752 km en el ecuador. En la Fig. 40 se observan
las órbitas recorridas en días sucesivos. El intervalo de tiempo entre órbitas adyacentes es de 7 días. De
todos modos como LANDSAT-5 y LANDSAT-7 están defasados 8 días, cuando ambos satélites se
encuentran operativos puede lograrse para una dada región una cobertura LANDSAT cada 8 días. 
Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden orientarse según
diferentes ángulos, con lo cual pueden registrar imágenes no sólo en el nadir sino también a través de
enfoques laterales, frontales o traseros. Esto permite lograr períodos de revisita mucho más cortos,
incluso de dos o tres días. Otro ejemplo de satélites con alta resolución temporal lo constituyen los de la
serie NOAA con sus sensores AVHRR.
Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria global diurna y
nocturna. Sin embargo, debe tenerse en cuenta que la resolución espacial de éstos es de 1 km, es decir
mucho menor que la de los satélites anteriormente mencionados. De todos modos, su elevada resolución
temporal, los hace sumamente útiles en monitoreos ambientales o agrometeorológicos sobre áreas muy
extensas. Estas características son compartidas con el instrumento MODIS a bordo de los satélites
TERRA y ACQUA sobre áreas muy extensas. Estas características son compartidas con el instrumento
MODIS a bordo de los satélites TERRA y ACQUA.

>Página siguiente: SATELITES: ESCALA Y RESOLUCION ESPACIAL

Página principal

< Página anterior: SATELITES - RESOLUCION RADIOMETRICA


Email ThisBlogThis!Share to TwitterShare to Facebook

SATELITES - RESOLUCION RADIOMETRICA


7.4.3 Resolución radiométrica. Resolución o sensibilidad radiométrica hace referencia al número de
niveles digitales utilizados para expresar los datos recogidos por el sensor. En general, cuando mayor es
el número de niveles mayor es el detalle con que se podrá expresar dicha información. En las Figs. 37 y
38 se representan dos casos bien diferenciados. Ambos representan el área de Rincón del Bonete en
Uruguay, visualizándose la ciudad de Paso de los Toros. En la Fig.37 los niveles digitales son muy pocos
y la imagen aparece prácticamente en blanco y negro. En la Fig. 38 , con muchos más niveles digitales,
el grado de detalle es muy superior, visualizándose la ruta 5 , las calles de la ciudad el puente sobre el
Río Negro etc. El puente también se llega a distinguir en la Fig. 37 dado el elevado contraste con el agua
del río.

En la Sec. 7.1 ya mencionamos los números digitales (DN) asociados a cada píxel en las imágenes
digitales y que generan lo que llamamos escala de grises que en realidad es la escala de niveles
digitales disponibles para representar los detalles de la imagen. El número de niveles de grises se
expresa comúnmente en términos de dígitos binarios (bits) necesarios para almacenar el valor del nivel
de gris máximo para el caso considerado.
Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores 1y 0. Usando un
arreglo de bits puede representarse un número cualquiera dentro de los límites de “longitud de palabra”
de la computadora. Para lograr una imagen de pantalla con variaciones de brillo prácticamente continuas
desde el punto de vista visual se necesitan 5 o 6 bits por píxel.
El número de valores que pueden ser representados por una serie dígitos es xn , donde x es el número
de valores que cada dígito puede representar y n es el número de dígitos usados. En una base binaria el
número de valores será 2n . Por ejemplo, para 5 bits tendremos 32 valores, para 8 bits 256 valores, para
11 bits 2048, etc. En el caso del Landsat y el HRVI se tienen 8 bits, es decir, la escala de grises se
extiende de 0 a 255, totalizando 256 valores.

>Página siguiente: SATELITES - RESOLUCION TEMPORAL

Página principal

< Página anterior: SATELITES - RESOLUCION ESPECTRAL


Email ThisBlogThis!Share to TwitterShare to Facebook

SATELITES - RESOLUCION ESPECTRAL


7.4.2 Resolución espectral. Ya vimos cómo los sistemas de percepción remota están usualmente
diseñados para captar imágenes en determinados rangos de longitudes de onda denominados bandas o
canales. Dependiendo de la aplicación pueden seleccionarse sensores con bandas relativamente
estrechas o anchas. La resolución espectral se refiere al número y ancho de las bandas espectrales
registradas por un sensor. Cuanto más estrechas sean estas bandas mayor será la resolución espectral.
Ya nos hemos referido brevemente a este tema en la Sec. 7.1. cuando hablamos de espectrómetros y
espectroradiómetros. Para referirse a la multiplicidad y 
anchos espectrales de las bandas de los sensores de percepción remota suele distinguirse entre los
sistemas multiespectrales y los hiperespectrales. El LANDSAT y el SPOT son sistemas multiespectrales,
que se caracterizan por un número no muy elevado de bandas espectrales (V. tabla en Sec. 7.3). El
sensor ASTER en el satélite TERRA de la NASA posee 14 bandas en las regiones visible, infrarroja y
térmica del espectro. Los sistemas hiperespectrales (imaging spectrometers) se caracterizan por registrar
imágenes en cientos de bandas espectrales muy estrechas. Una limitación al número de bandas consiste
en que cuanto más estrecha es la banda menor es la energía que transmite al detector. Las figuras 35 y
36 permiten visualizar la diferencia en los perfiles espectrales de una dada región de la imagen según se
analice con un sensor multiespectral o hiperespectral.
El primero es similar al del LANDSAT 7, y el segundo es el sensor HYPERION del satélite EO-1 de la
NASA. La Fig. 35 corresponde a un área agrícola próxima al río Cuareim en Artigas, y la segunda
corresponde a un muestreo del Cuareim. Si bien los dos espectros poseen abscisas expresadas en
diferentes sistemas, las líneas roja, azul y verde en ambos perfiles corresponden a las mismas longitudes
de onda. Se sugiere comparar estas gráficas con las de la Fig. 11.
>Página siguiente: SATELITES - RESOLUCION RADIOMETRICA

Página principal

< Página anterior: 7. RESOLUCION


Email ThisBlogThis!Share to TwitterShare to Facebook

7. RESOLUCION
7.4 Resolución. Los sistemas de percepción remota difieren en la resolución, es decir, el nivel de detalle
con que pueden capturar las imágenes, su frecuencia temporal, “finura espectral”, etc.. Desde este punto
de vista podemos considerar cuatro diferentes tipos de resolución: espacial, espectral, radiométrica y
temporal.

7.4.1 Resolución espacial. La resolución espacial se refiere a la finura de detalles visibles en una imagen:
cuanto menor es el área terrestre representada por cada píxel en una imagen digital mayores son los
detalles que pueden ser captados y mayor es la resolución espacial. En las Figs. 34 a, b y c se observan
imágenes de una misma región a tres diferentes resoluciones espaciales (baja, 
mediana y alta, correspondiendo respectivamente al MODIS 1.1 km , LANDSAT-5, 30m y QUICKBIRD,
0.60m. Existen diferentes factores que influyen en la resolución espacial: además de los obviamente
asociados al sensor, como ser el poder resolutivo del sistema óptico, debemos considerar las influencias
atmosféricas, presencia de humo, neblina, bajos niveles de iluminación, etc.
También existen factores asociados a las características del objeto a detectar y de su entorno: un buen
contraste y bordes nítidos del objeto son favorecen la detección. La selección de la resolución espacial
necesaria para un dado proyecto debe analizarse cuidadosamente. En efecto, pretender resoluciones
mayores que la necesaria encarece el costo de las imágenes y la carga de proceso.
>Página siguiente: SATELITES - RESOLUCION ESPECTRAL

Página principal

< Página anterior: SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR


Email ThisBlogThis!Share to TwitterShare to Facebook

SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT


HRVIR
7.3 Bandas Espectrales de LANDSAT TM y SPOT HRVIR. En la Tabla siguiente se presentan los rangos
de longitudes de onda abarcados por las bandas espectrales de estos satélites:

TM Rango espectral (µm) HRVIR Rango espectral (µm) 

Banda 1 0.45-0.52 Banda 1 0.50-0.59 


Banda 2 0.52-0.60 Banda 2 0.61-0.68 
Banda 3 0.63-0.69 Banda 3 0.79-0.89 
Banda 4 0.76-0.90 Banda 4 1.58-1.75 
Banda 5 1.55-1.75 
Banda 6 10.4-12.5 
Banda 7 2.08-2.35 

IFOV Nadir 30x30m (b. 1-5,7) IFOV Nadir 20x20m 


120x120m (b. 6) 
Barrido 180 km Barrido 60 km (c/instrumento)

Las principales aplicaciones de las bandas del LANDSAT TM (y por similitud de rangos espectrales
también las del SPOT) son las siguientes: 

Banda 1 (0.45-0.52µm)(azul): buena penetración en cuerpos de agua. Diferenciación de suelos y


vegetación y de coníferas con vegetación de hojas caducas. 

Banda 2 (0.52-0.60µm)(verde): reflectancia en el verde para vegetación en buenas condiciones.


Banda 3 (0.63-0.69µm) (rojo): absorción de la clorofila.. Diferenciación de especies 
vegetales.

Banda 4 (0.76-0.90µm) (infrarrojo cercano): evaluación de biomasa. Delineación de 


cuerpos de agua.

Banda 5 (1.55-1.75µm) (infrarrojo medio) : estado hídrico en vegetales. Discriminación 


entre nubes, nieve y hielo

Banda 6 (10.4-12.5µm) (infrarrojo térmico): stress térmico en vegetales y mapeados 


térmicos.

Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de zonas con alteraciones
hidrotérmicas en rocas.

>Página siguiente: 7. RESOLUCION

Página principal

< Página anterior: SENSORES: LANDSAT TM y SPOT HRVIR


Email ThisBlogThis!Share to TwitterShare to Facebook

SENSORES: LANDSAT TM y SPOT HRVIR


7.3 Estudio de dos casos: LANDSAT y SPOT. Para profundizar algo el estudio de los mecanismos de
recolección de datos por percepción remota hemos seleccionado como ejemplos típicos los casos de dos
plataformas clásicas cuyas respectivas familias han contribuido y siguen contribuyendo decisivamente a
las aplicaciones prácticas de esta disciplina: LANDSAT y SPOT. El primer caso es un ejemplo típico
whiskbroom y el segundo de pushbroom. En la Fig 30 se representa el esquema óptico del sensor TM
(Thematic Mapper) diseñado para Landsat-4 y Landsat-5. Nota.-Posteriormente se desarrolló el ETM
(Enhanced Thematic Mapper) para el Landsat-6 , que se perdió en el lanzamiento. El actual Landsat-7,
que permanece operativo junto con el Landsat-5, lleva a bordo el ETM+ (Enhanced Thematic Mapper
Plus). Este último, aunque similar, presenta mejoras frente al TM, por ejemplo una banda pancromática
de 15 m de resolución y una mayor resolución de las bandas infrarrojas térmicas. Sin embargo, un
defecto aparentemente irreparable en el sistema óptico ha reducido mucho la eficiencia de sus
aplicaciones.
Este sensor está diseñado para tomar imágenes en el nadir, es decir imágenes de areas terrestres
ubicadas directamente debajo del sensor. El escaneado lo realiza un espejo oscilante bidireccional que
permite un ancho de barrido de 185 km. Un telescopio dirige la radiación hacia un corrector de las líneas
barrido (SLC-scan lines corrector). Este último es necesario para corregir el efecto acumulado del
desplazamiento del satélite en su órbita y el barrido cruzado realizado por el espejo. El SLC es un
sistema de espejos que rota perpendicularmente al espejo de barrido y compensa el efecto orbital.Luego
de la corrección la radiación incide en el plano focal primario donde se encuentran los detectores para
visible e infrarrojo cercano con sus correspondientes filtros espectrales (bandas 1 a 4). Una parte de la
energía es redirigida por un relay óptico al plano focal refrigerado (91ºK) para infrarrojo medio y térmico
donde se encuentran los correspondientes detectores con sus filtros. Los detectores para visible e
infrarrojo cercano son de silicio organizados en 4 líneas de 16 detectores cada uno. Para las bandas 5 y
7 (IR 
medio) los detectores son de antimoniuro de indio organizados cada uno en líneas de 16 detectores. Por
su parte el detector de infrarrojo térmico es un arreglo de cuatro detectores de telururo de cadmio y
mercurio. El IFOV del TM es de 30x30m para las bandas 1-5 y 7, y de 120x120m para la banda infrarroja
térmica. En el ETM+ del Landsat-7 este último valor ha sido mejorado a 60x60m. La familia SPOT está
constituida por 5 satélites (SPOT-1, lanzado en 1986 hasta el SPOT-5 lanzado en el 2002) de los cuales
están operativos los miembros 1,2,4 y 5. Todos se caracterizan por el sistema pushbroom de barrido. Los
sensores de estos satélites HRV (High Resolution Visible) para 1,2 y 3 y HRVIR (High Resolution Visible
Infrared) para 4 y 5 se caracterizan por estar duplicados en cada satélite y por poder ser orientados
independientemente para efectuar observaciones con distintos ángulos. En la Fig. 31 se esquematiza un
SPOT con sus dos instrumentos enfocados al nadir. Cada uno de ellos cubre una línea de barrido de 60
km. En la Fig. 32 se esquematizan las posibilidades de observación de cada sensor.

La radiación reflejada desde el terreno entra al HRV o HRVIR vía un espejo plano y un telescopio la
proyecta sobre dos arreglos CCD de 6000 detectores cada uno dispuestos linealmente (ver Fig. 29).
Cuando los dos instrumentos “miran” directamente el terreno debajo del sensor se pueden disponer de
modo de cubrir franjas adyacentes, con un campo de visión total de 117 km y una sobreposición de 3 km.
Sin embargo, es también posible seleccionar desde la estación operadora terrestre ángulos de
observación fuera de nadir. De esta manera es posible observar desde una posición centrada en la
proyección terrestre de la trayectoria del satélite cualquier región de interés dentro de una franja terrestre
de 950 km. Esto hace que, pese a que el satélite tiene un período de revisita de 26 días, puede observar
una misma área en intervalos de 4 o 5 días en pasajes por órbitas cercanas realizando observación
oblicua. También pueden realizarse observaciones en pasajes en días sucesivos de modo que las dos
imágenes sean adquiridas según ángulos a ambos lados de la vertical (Fig.33). Se obtienen así
imágenes para medidas topográficas.

>Página siguiente: SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR


Página principal

< Página anterior: 7. SENSORES (continuación 2)


Email ThisBlogThis!Share to TwitterShare to Facebook

7. SENSORES (continuación 2)
7.2 Naturaleza de los detectores. En los primeros tiempos de la percepción remota los detectores eran
del tipo de los fotomultiplicadores. Actualmente la mayoría de los detectores son de estado sólido,
constituido por aleaciones o metales semiconductores. Estos poseen una conductividad eléctrica
intermedia entre la de un metal y la de un aislador.
En condiciones normales o no excitados estos semiconductores poseen sus electrones en un nivel de
energía completo (desde el punto de vista de la configuración electrónica del modelo atómico
mecánicocuántico). Bajo ciertas condiciones, como la interacción con fotones, electrones de dicho nivel
son excitados a otro nivel denominado banda de conducción. La resistencia a esta transferencia varía
inversamente al número de fotones incidentes. Diferentes materiales responden de distinta manera a las
diferentes longitudes de onda (es decir, a la energía de los fotones), lo que los hace espectralmente
selectivos. Es así que para la región visible se utilizan fotodiodos de silicio y de PbO (óxido de plomo), en
el infrarrojo cercano PbS (sulfuro de plomo) e In-As (indio-arsénico), en el infrarrojo medio (3-6 µm) InSb
(indioantimonio) y en el infrarrojo térmico (8 –14 µm) Hg-Cd-Te (mercurio-cadmio-teluro). Estos últimos
deben ser enfriados a muy bajas temperaturas para optimizar la eficiencia de la emisión electrónica. Uno
de los dispositivos que en los últimos tiempos ha adquirido gran importancia es el detector de
acoplamiento de carga (charge-coupled device – CCD). 
Un CCD está formado por un material fotosensible embebido en un chip de silicio. Se genera en éste un
foso de potencial que recibe los electrones liberados por los fotones incidentes en el chip posteriormente
a su enfoque y filtración por el sistema óptico. Los componentes fotosensibles del chip pueden llegar a
ser muy pequeños, del orden de 1µ de diámetro. Estos elementos pueden ser interconectados a través
de microcircuitos para formar arreglos lineales o bidimensionales. Puede llegar a prepararse arreglos
lineales que en 2 cm de longitud con hasta 1000 detectores individuales.

La Fig. 28 esquematiza un CCD individual

La Fig. 29 muestra una imagen obtenida con un microscopio electrónico de un fragmento de un arreglo
lineal de CCD´s.

>Página siguiente: SENSORES: LANDSAT TM y SPOT HRVIR


Página principal

< Página anterior: 7. SENSORES (continuación)


Email ThisBlogThis!Share to TwitterShare to Facebook

7. SENSORES (continuación)
Otra característica que conviene distinguir en los sensores remotos es la manera como ellos registran la
información a medida que avanzan según su trayectoria u órbita. En general el área barrida se extiende a
ambos lados de la trayectoria (swath width) y su anchura queda determinada por la óptica del sistema
por ej. por el telescopio que debe llevar el sistema para observaciones desde cientos de kilómetros de
altura y determina el campo de visión (Field of View o FOV) Las dos principales opciones de barrido se
esquematizan en la Fig. 27. El modo cruzado con la trayectoria (cross track o whiskbroom mode)
normalmente utiliza un espejo rotatorio u oscilante, es decir que constituye un sistema óptico-mecánico.
Este barre la escena a lo largo de una línea simple (o múltiple) transversal a la trayectoria. Esta línea es
muy larga (kilómetros) pero muy angosta (metros).

Cada línea se subdivide en una secuencia de elementos espaciales individuales cada una de las cuales
representa una pequeña área de la escena terrestre que se examina.
O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las cuales refleja
radiación y que son sensadas secuencialmente a lo largo de la línea. En el sensor cada una de estas
celdas está asociada a un pixel (o picture element) ligado a un detector microelectrónico y se caracteriza
por un dado valor de radiación que a través del efecto fotoeléctrico genera una corriente electrónica. 
El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a dicho píxel,
queda determinada por el Campo de Visión Instantánea del sensor (Instantaneous Field of View – IFOV).
El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al área terrestre que
está midiendo en cada instante. El IFOV es función de la óptica del sensor, del tamaño del detector, de la
altitud de la plataforma, etc. Los electrones emitidos son recogidos sucesivamente, píxel por píxel,
generando una señal variable que representa la variación espacial de la radiación por el muestreo
progresivo que el sensor va efectuando sobre la escena terrestre estudiada. Esto permite asignar a cada
píxel un valor discreto llamado Número Digital (DN – digital number). Estos números digitales resultan de
convertir las señales analógicas generadas por el detector en valores digitales constituidos por números
enteros que cubren un intervalo finito, por ejemplo 28 cubriendo el intervalo de 0 a 255. Estos valores
digitales permitirán construir la imagen a través de dispositivos adecuados, por ejemplo el monitor de una
computadora. En el modo de barrido en la dirección de la trayectoria (along track pushbroom) no existe
espejo oscilante, sino un arreglo lineal de pequeños detectores cuyas minúsculas dimensiones permiten
que se asocien hasta miles de ellos en dicho arreglo. El sistema de filtros incorporado al arreglo permite
seleccionar las longitudes de onda. Cada detector es un dispositivo de acoplamiento de carga (Charge-
Coupled Device – CCD –ver más adelante). 
En este modo de barrido, los píxeles que constituirán la imagen final corresponden a estos
microdetectores con sus correspondientes filtros incorporados en el arreglo lineal. A medida que la
plataforma avanza en su órbita la radiación proveniente de las celdas terrestres a lo largo del campo de
visión del satélite llega simultáneamente a los correspondientes detectores. La señal generada por cada
detector es removida en milisegundos, siendo el detector reseteado a cero quedando pronto para recibir
la radiación proveniente de la nueva línea del campo de visión.

>Página siguiente: 7. SENSORES (continuación 2)

Página principal

< Página anterior: 7. SENSORES (previo)


Email ThisBlogThis!Share to TwitterShare to Facebook

7. SENSORES
7.1. Consideraciones generales. Hemos visto cómo la radiación electromagnética es portadora de la
información acerca deaquellos materiales u objetos de interés en percepción remota. Pero para adquirir y
luegopoder procesar dicha información son necesarios ciertos dispositivos denominados sensores.
Existen gran número de sensores destinados a numerosas aplicaciones, muchas de las cuales caen
fuera del área específica de nuestro estudio. Aquí nos concentraremos fundamentalmente en los
llamados espectroradiómetros de barrido (scanning radiometers) de particular importancia en sistemas
de percepción remota.En la gran mayoría de estos instrumentos el mecanismo de base es el efecto
fotoeléctrico: cuando un haz de fotones incide sobre una placa negativamente cargada o sobre algún
material fotosensible adecuado se produce una emisión de partículas negativas (electrones). Estos
electrones pueden fluir desde la placa generando una señal electrónica. La magnitud de la corriente
eléctrica producida (número de fotoelectrones por unidad de tiempo) es directamente proporcional a la
intensidad luminosa. La energía cinética de losfotoelectrones emitidos varía con la longitud de onda
asociada a los fotones incidentes. Sinembargo, debe tenerse en cuenta que diferentes materiales que
manifiestan el fenómeno fotoeléctrico liberan fotoelectrones bajo diferentes intervalos de longitudes de
onda: cada uno de ellos presenta un umbral de longitudes de onda para el que el fenómeno se
manifiesta y otro umbral de longitudes de onda para el que el fenómeno cesa. Los sensores que aquí nos
interesan son del tipo pasivo, caracterizados porque la radiación que llega a ellos proviene de una fuente
externa (p.ej. el Sol). Además, los electrones liberados son capaces de inducir la formación de una
imagen cuando son recogidos pordispositivos adecuados de detección (detectores)
Como los sensores son instrumentos capaces de medir cuantitativamente la radiación electromagnética
en determinadas regiones del espectro se denominan radiómetros. Cuando este sensor incluye además
un componente del tipo de un prisma o red de difracción o filtros de interferencia que pueden dispersar la
radiación de una dada región del espectro en longitudes de onda discretas que son dirigidas hacia los
detectores se denomina espectrómetro. Cuando la radiación es dispersada no en longitudes de onda
discretas sino en bandas espectrales más anchas, es decir cubriendo ciertos intervalos de longitudes de
onda el término más conveniente para el sensor es espectroradiómetro. Este es el caso más usual en los
sensores aeroespaciales. Como en general estos sensores se desplazan barriendo la escena estática
que están observando se dice que operan en modo de barrido o escaneado (scanning mode). Podemos
distinguir dos categorías de estos escáneres: los óptico- mecánicos y los óptico-electrónicos. Los
primeros se caracterizan por tener un componente mecánico, p.ej. un espejo rotativo que opera en el
barrido de la escena, mientras que los segundos el mismo sistema óptico enfoca la radiación sobre un
arreglo lineal de detectores.

>Página siguiente: 7. SENSORES (continuación)

Página principal
< Página anterior: RECEPCION Y TRANSMISION DE LA INFORMACION SATELITAL
Email ThisBlogThis!Share to TwitterShare to Facebook

RECEPCION Y TRANSMISION DE LA INFORMACION


SATELITAL
Ya mencionamos que los satélites utilizan sensores diferentes a los de la fotografía convencional. En
general se trata de sensores electrónicos de estado sólido, adecuados a las regiones espectrales para
las que se desea obtener imágenes. Como detallaremos más adelante cada satélite puede registrar las
imágenes terrestres simultáneamente en varias regiones visible e infrarrojo cercano, medio o térmico del
espectro electromagnético. Los sistemas óptico-telescópicos del satelite enfocan las escenas terrestres
sobre arreglos de tales detectores y las señales analógicas generadas por éstos son digitalizadas para
su retransmisión, sea a otros satélites geosincrónicos sea a estaciones rastreadoras terrenas. Estas
posibilidades se esquematizan en la Fig.26.

Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si ésta está en la
línea de visión del satélite (A). 
En caso contrario la información puede ser almacenada a bordo de B para su posterior retransmisión a
una estación terrena. B puede también enviar sus datos a un sistema satelital repetidor que consiste en
una serie de satélites de comunicaciones en órbita geosincrónica. Los datos son enviados de un satélite
repetidor C) a otro hasta alcanzar un estación terrena adecuada.

>Página siguiente: 7. SENSORES

Página principal

< Página anterior: LOS NUEVOS SATELITES PARA LA OBSERVACION DE LA TIERRA


Email ThisBlogThis!Share to TwitterShare to Facebook

LOS NUEVOS SATELITES PARA LA OBSERVACION DE LA


TIERRA
Numerosos satélites orbitan actualmente la Tierra en misiones de observación no sólo de las coberturas
terrestres sino también de su atmósfera, sus océanos,etc., y en general investigando la interacción de los
dinámicos sistemas geofísicos. Estos satélites transportan sofisticados instrumentos para cumplir dichas
misiones.Queda fuera del alcance de nuestro estudio referirnos a la extensa lista de dichas plataformas y
sus instrumentos. De todos modos nos referiremos a dos ejemplos notables de tales plataformas: los
satélites TERRA (y su gemelo AQUA) y ENVISAT. TERRA es un satélite multinacional de investigación
científica de la NASA. Recorre una órbita solar-sicrónica y es la “nave insignia” del Earth Observing
System de la NASA. Fue puesto en órbita en febrero del 2000 y transporta a bordo cinco sensores
remotos destinados a medidas terrestres ambientales y de cambios en el sistema climático. El
ENVISAT , lanzado en el 2002 en órbita solar-sincrónica y operado por la ESA es posiblemente el mayor
satélite de observación construido hasta el momento (8000 kg). Transporta a bordo 10 sofisticados
sensores ópticos y de radar para monitorear permanentemente las cubiertas terrestres y oceánicas, la
atmósfera y los casquetes polares.

>Página siguiente: RECEPCION Y TRANSMISION DE LA INFORMACION SATELITAL

Página principal

< Página anterior: SATELITES METEOROLOGICOS Y AGROMETEOROLOGICOS


Email ThisBlogThis!Share to TwitterShare to Facebook

SATELITES METEOROLOGICOS Y
AGROMETEOROLOGICOS
Existen también otras series de satélites destinados fundamentalmente a misiones meteorológicas,
agrometeorológicas, atmosféricas y oceánicas. Algunos de estos satélites, como los de las series NOAA
(Nacional Oceanic and Atmospheric Administration -USA), SEA STAR (USA) describen órbitas cuasi
polares sincrónico-solares a altitudes del orden de 850 km y resoluciones espaciales de 1km. Otros
satélites, como los de las series GOES (Geostationary Operational Environmental Satellite) y
METEOSAT (Eutmetsat – Europa), etc. Se mantienen en órbitas geoestacionarias a aproximadamente
36000 km y con resoluciones espaciales de 1km. Debe tenerse en cuenta que el período de un satélite,
es decir el tiempo que tarda en completar su órbita aumenta con la altitud: a 36000 km un satélite posee
el mismo período que la Tierra. Así, si se posiciona en el plano ecuatorial permanece estacionario
respecto a la superficie de la Tierra, es decir, observando siempre el mismo hemisferio. La operación de
estos satélites se esquematiza en la Fig. 25

>Página siguiente: LOS NUEVOS SATELITES PARA LA OBSERVACION DE LA TIERRA

Página principal
< Página anterior: 6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES
(continuación)
Email ThisBlogThis!Share to TwitterShare to Facebook

6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS


SATELITALES (continuación)
Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital con el
lanzamiento, por parte de E.E.U.U., del primero de una serie de satélites ópticos especialmente
destinados a monitorear los recursos terrestres. Dicha serie se llamó LANDSAT y actualmente operan
Landsat-5 y Landsat-7, Fig. 17, este último actualmente con serias dificultades en su sistema de barrido
constituyendo un obstáculo para muchas de sus aplicaciones. Por su parte Francia, con la participación
de Suecia y Bélgica, lanzó en 1986 el primer satélite de laserie SPOT (Systeme Pour l'Observation de la
Terre) de la cual operan actualmente los Spot -2, -4 y –5 (Fig. 18).

Actualmente existen muchas otras plataformas satelitales similares a las anteriores y pertenecientes a
distintos países o resultantes de acuerdos entre dichos países (Rusia, Japón, India, Argentina, China,
Brasil, etc.). En general todos estos satélites se caracterizan por órbitas quasi polares y solar –
sincrónicas con parámetros similares a los ejemplificados en la Fig. 19. En una órbita solar-sincrónica la
rotación de la Tierra en torno al sol, la inclinación de la órbita y el período orbital son tales que en cada
órbita el satélite cruza el Ecuador a la misma hora solar local. En el caso del Landsat 5 es a la hora
09:45.
Adelantándonos a un tema que más adelante analizaremos respecto a la resolución espacial de los
satélites, es decir, el tamaño mínimo de los objetos que son capaces de discernir en sus imágenes,
diremos que los satélites que acabamos de mencionar son de resolución espacial moderada, pudiendo
variar entre 5 y 30 m.
En los últimos años se han puesto en órbita satélites comerciales de alta resolución espacial como el
Ikonos (Fig.20), el Quickbird (Fig.21) y el Orbview-3 (Fig.22). Las órbitas de estos satélites son más
bajas(680 y 450 km) y sus resoluciones espaciales alcanzan a 1 m y 0.6m. La Fig. 23 permite apreciar
visualmente en imágenes de un cultivo agrícola el efecto de la resolución espacial.

Como una posibilidad ofrecida por los últimos desarrollos espaciales debemos mencionar la adquisición
de imágenes desde la Estación Espacial Internacional (ISS) (Fig. 24) que vino a sustituir a la estación
rusa MIR, que debió ser destruida al cabo de su vida útil.

>Página siguiente: SATELITES METEOROLOGICOS Y AGROMETEOROLOGICOS

Página principal

< Página anterior: 6. LAS PLATAFORMAS SATELITALES - LA ADQUISICION DE DATOS (previo)


Email ThisBlogThis!Share to TwitterShare to Facebook
6. LAS PLATAFORMAS SATELITALES - LA ADQUISICION DE
DATOS
Hemos visto cómo las radiaciones electromagnéticas, fundamentalmente emitidas por el sol y reflejadas
por los objetos terrestres, o incluso emitidas por dichos objetos (p.ej. en el infrarrojo térmico), todas más
o menos afectadas por efectos atmosféricos, se combinan generando “señales” de las cuales es posible
extraer información acerca de dichos objetos y de las coberturas terrestres. La detección de tales
señales electromagnéticas puede efectuarse por medios fotográficos o electrónicos. Históricamente
fueron la placa o el film fotográfico, usualmente sobre plataformas aéreas, los sensores remotos por
excelencia. Estos, a partir de las últimas décadas, debieron convivir con los sensores electrónicos, más
adecuados para las exigencias a que son sometidos sobre plataformas suborbitales y satelitales. De
todos modos la detección sobre plataformas aéreas, sea con sensores fotográficos o electrónicos sigue
constituyendo una valiosa fuente de información en un amplio rango de aplicaciones, y la decisión final
sobre el uso de tal o cual tipo de plataforma debe ser cuidadosamente analizada, particularmente cuando
la relación costo/beneficio gravita sensiblemente sobre el presupuesto de un proyecto. Fue a partir de la
década del 60 que comenzó el desarrollo vertiginoso de la percepción remota desde plataformas
satelitales. Distintos factores han condicionado este comportamiento que ha ido llevando a la percepción
remota satelital a una etapa esencialmente comercial. El más importante de dichos factores fue
seguramente la liberación para aplicaciones civiles al fin de la Guerra Fría de tecnología reservada hasta
entonces para uso militar. Hasta 1946 la observación terrestre por percepción remota se efectuaba
desde aviones o globos. En 1946 se adquirieron las primeras fotografías desde cohetes V2 capturados a
los alemanes, siendo estas experiencias decisivas para ilustrar el potencial de la fotografía desde alturas
orbitales. Este potencial se volvió más evidente con las misiones orbitales y espaciales a partir de la
década del 60: uno de ellos fue el proyecto CORONA de espionaje militar. Un número no determinado de
estos satélites de corta vida (1 a 16 días) orbitando a unos 130 km de altura y utilizando cámaras
fotográficas de alta resolución realizó misiones de espionaje entre los años 1960 y 1972. El caudal
fotográfico así obtenido fue desclasificado en 1995. En la Fig. 16 se observa una imagen de las ciudades
de Artigas y Quarai obtenida en el año 1965 por un Satélite Corona.

Un zoom sobre dicha imagen permite detectar objetos de10m. Entre las misiones espaciales citemos las
misiones Mercury, Gemini y Apolo. En particular el Apolo IX realizó la primera experiencia controlada de
fotografía orbital multiespectral. Estas experiencias fueron continuadas en posteriores misiones
(Skylab,Apolo-Soyuz, etc.)

>Página siguiente: 6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES


(continuación)

Página principal
< Página anterior: 5. INTERACCIONES ATMOSFERICAS
Email ThisBlogThis!Share to TwitterShare to Facebook

5. INTERACCIONES ATMOSFERICAS
La radiación registrada por sensores remotos debe realizar una trayectoria a través de la atmósfera, a
consecuencia de la cual sufre variados efectos. La entidad de éstos depende del trayecto recorrido, de
las condiciones atmosféricas presentes y de la longitud de onda de la radiación. En general intervienen
dos mecanismos principales: dispersión y absorción.
DISPERSION: Es una difusión de la radiación producida por partículas de la atmósfera y podemos
considerar tres mecanismos principales: dispersión de Rayleigh, dispersión de Mie y dispersión no
selectiva. La dispersión de Rayleigh es consecuencia de la interacción de la radiación con moléculas de
los gases atmosféricos y con otras partículas pequeñas de diámetro mucho menor que la longitud de
onda de la radiación con la que interaccionan. Este efecto es inversamente proporcional a la 4ta potencia
de la longitud de onda, tal como se representa en la Fig14.

En consecuencia existirá mayor tendencia a dispersar las longitudes de onda más cortas. El “azul del
cielo” se debe a este efecto: en ausencia de él el cielo aparecería negro, pero como la atmósfera
dispersa sobretodo las cortas longitudes de onda (como el azul en el rango de espectro visible) el cielo
nos aparece azul. La dispersión de Rayleigh es una de las causas primarias de nebulosidad en muchas
imágenes que ven así reducida su nitidez o contraste. La dispersión de Mie se produce cuando los
diámetros de las partículas atmosféricas son esencialmente iguales a la longitud de onda de la radiación
(vapor de agua, polvo fino, etc.) y tiende a influenciar la radiación de longitudes de onda mayores que las
afectadas por la dispersión de Rayleigh. 
La dispersión no selectiva constituye un fenómeno mucho más molesto que los anteriores y se produce
cuando los diámetros de las partículas que producen la dispersión son mucho mayores que las
longitudes de onda con que interaccionan. Un ejemplo típico lo constituyen pequeñas gotas de agua con
diámetros comprendidos entre 5 y 100 mm que dispersan en igual forma todas las radiaciones en las
regiones visible e IR cercano y medio. Al ser su dispersión no selectiva respecto a la longitud de onda
ocurrirá que en el espectro visible se dispersan en igual proporción las radiaciones azules, verde y rojas,
con la consecuencia de que las nubes y la niebla aparecen blancas.

ABSORCION

Contrariamente a lo que ocurre en la dispersión, en la absorción se produce una transferencia de energía


de la radiación a los constituyentes atmosféricos. Este mecanismo implica absorción de energía de
determinada o determinadas longitudes de onda. Desde este punto de vista los absorbentes más
eficaces de radiación solar son las moléculas de agua, de dióxido de carbono y ozono. La absorción
selectiva de ciertas longitudes de onda por estas moléculas hace que la atmósfera constituya un medio
opaco para ciertos rangos espectrales, mientras que ofrezca ventanas libres de absorción para otros
rangos. A través de dichas ventanas deben mirar los satélites de observación. En la Fig.15 se observan
los efectos combinados que diversos componentes atmosféricos ejercen sobre la radiación
electromagnética solar en el rango de 0.1 a 3mm a través de la absorción, dispersión y eventual reflexión
en nubes.

>Página siguiente: 6. LAS PLATAFORMAS SATELITALES - LA ADQUISICION DE DATOS

Página principal

< Página anterior: LA REFLECTANCIA EN EL AGUA


Email ThisBlogThis!Share to TwitterShare to Facebook

LA REFLECTANCIA EN EL AGUA
Aborbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región como cuerpos
oscuros, facilitando su observación y delineamiento. Para longitudes de onda visibles hay factores que
complican la interpretación. En efecto, la reflectancia de un cuerpo de agua puede generarse por
interacción con la superficie (reflexión especular), con material en suspensión o con el fondo mismo del
cuerpo de agua. El agua clara absorbe poca energía con longitudes de onda por debajo de 0.6 µm, pero
a medida que aumenta la turbidez la reflectancia en el visible aumenta rápidamente. Igualmente la
presencia de clorofila (algas, fitoplancton) modifica la reflectancia del agua, efecto que se aplica al
monitoreo por percepción remota de concentraciones de algas. La Fig. 13 es una imagen MODIS que
permite observar los sedimentos en el Río de la Plata provenientes de los ríos Paraná y Uruguay y que
se extienden hasta aproximadamente Atlántida.
LA REFLECTANCIA EN LOS SUELOS

La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores
que afectan la reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia
de materia orgánica y contenido de óxido de hierro, en particular, el contenido de humedad está
estrechamente ligado a la textura: los suelos arenosos, de partículas grandes, usualmente están bien
drenados, resultando con baja humedad y relativamente alta reflectancia. La inversa ocurre con los
suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hierro disminuyen la
reflectancia del suelo, a lo menos en la región visible.

>Página siguiente: 5. INTERACCIONES ATMOSFERICAS

Página principal

< Página anterior: LA REFLECTANCIA EN LOS VEGETALES


Email ThisBlogThis!Share to TwitterShare to Facebook

LA REFLECTANCIA EN LOS VEGETALES


La reflectancia de los vegetales es usualmente relativamente baja en la región visible, con un máximo a
aproximadamente 0.53 µm, es decir en el verde. Aumenta bruscamente en el infrarrojo (IR) para luego
caer a valores muy bajos a 2.5 µm. La baja reflectancia en el visible se atribuye a la elevada absorción
de los pigmentos vegetales, principalmente clorofila. Estos pigmentos, sin embargo, son altamente
transparentes a la radiación IR, y la elevada reflectancia en dicha región estaría determinada por la
estructura interna de la hoja. 
Los mínimos de reflexión a 1.45, 1.95 y 2.5 µm corresponden a la elevada absorción de las moléculas de
agua presentes en la hoja. La Fig. 12 representa un corte transversal de una hoja, mostrando su
estructura interna: Las superficies interna y externa están tapizadas por una simple capa de células
epidérmicas
carentes de clorofila y recubiertas por una delgada película de ceras. El tejido mesodérmico entre las dos
epidermis está formado por dos capas. La superior contiene células oblongas dispuestas en forma
regular y ordenada (tejido en empalizada). Estas células son ricas en las clorofilas a y b que están
contenidas en cuerpos subcelulares denominados cloroplastos, componentes predominantes del grupo
de cromoplastos que también contienen pigmentos como xantofilas y carotenos (las clorofilas reflejan el
verde, las xantofilas el amarillo, verde y rojo y los carotenos el rojo). La parte inferior del tejido
mesodérmico es esponjoso, formado por células de forma irregular, flojamente empaquetadas, dejando
entre ellas numerosos espacios intercelulares y cavidades de aire. En la misma Fig. 12 se indican
posibles trayectorias para la radiación que atraviesa la hoja. Generalmente sólo una pequeña fracción de
la radiación incidente es reflejada directamente por la superficie externa.pues la cutícula y la epidermis
son casi transparentes al visible y al IR cercano. Otra fracción de radiación puede ser transmitida
directamente a través de la hoja. Finalmente, el resto de la radiación sufre interacciones con la estructura
interna de la hoja. Parte de ella puede ser absorbida por los pigmentos de la hoja ,pero una fracción
importante sufre reflexiones y refracciones múltiples en el tejido esponjoso debido a la sensible diferencia
de índices de refracción entre el aire (n=1.0) y las paredes de las células hidratadas (n=1.3).
Como consecuencia de tales reflexiones parte de la radiación vuelve hacia atrás, pudiendo emerger
como radiación reflejada. Como la clorofila es transparente al IR cercano la hoja refleja intensamente
dicho rango espectral (en dicha región típicamente es reflejado un 40-50% de la radiación incidente en la
hoja). Resumiendo, podemos decir que las características espectrales de la radiación reflejada por una
hoja en la región visible depende fundamentalmente de la absorción de radiación por parte de los
pigmentos de la hoja, mientras que en el IR cercano, en la región de 0.7 a 1.3 µm, es consecuencia
primaria de la estructura interna de la hoja. Para valores superiores a 1.3 µm aparecen mínimos de
reflectancia a 1.4, 1.9 y 2.7 µm asociados a las bandas de absorción del agua. SUELOS. 
La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores
que afectan la reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia
de materia orgánica y contenido de óxido de hierro.. en particular, el contenido de humedad está
estrechamente ligado a la textura: los suelos arenosos, de partículas grandes, usualmente están bien
drenados, resultando con baja humedad y relativamente alta reflectancia. La inversa ocurre con los
suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hierro disminuyen la
reflectancia del suelo, a lo menos en la región visible.

>Página siguiente: LA REFLECTANCIA EN EL AGUA

Página principal

< Página anterior: 4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE
TERRESTRE (continuación)
Email ThisBlogThis!Share to TwitterShare to Facebook

4. INTERACCION DE LAS RADIACIONES CON LOS


OBJETOS DE LA SUPERFICIE TERRESTRE (continuación)
Dada su simplicidad y claridad el concepto de superficie lambertiana se utiliza usualmente como una
aproximación del comportamiento óptico de los objetos observados por percepción remota. Sin embargo,
esta es una aproximación que pocas veces se cumple para las superficies naturales, particularmente
cuando el sensor opera fuera del nadir, es decir, en observaciones laterales. En efecto, las propiedades
de reflectancia de un objeto pueden variar, no sólo con la longitud de onda sino también con los ángulos
de irradiación y de observación. Se define así una Función de Distribución de Reflectancia Bidireccional
(BRDF: bidirectional reflectance distribution function) que no es sino la reflectancia espectral de un objeto
en función delas geometrías de iluminación y observación que se le apliquen. La función BRDF es
necesaria en muchas aplicaciones de percepción remota para efectuar correcciones en mosaicos de
imágenes, para clasificaciones de coberturas terrestres, para detección de nubes, correcciones
atmosfércas etc. y se han desarrollado modelos matemáticos para representarla. Si bien no entraremos
en mayores detalles sobre este tema debemos señalar que esta función, matemáticamente compleja,
simplemente describe algo que nosotros observamos día a día: que los objetos lucen diferentes cuando
los observamos desde diferentes ángulos o cuando los iluminamos desde diferentes direcciones. Así por
ejemplo, el campo de soja de la Fig. 10 cuando el observador está de espaldas al sol (a) o cuando está
de frente a él (b). En este último caso se observa la reflexión especular de muchas hojas.

Dada la importancia de la reflectancia espectral en Percepción Remota creemos interesante analizar


aquí las características espectrales de algunos objetos que aparecen muy frecuentemente en las
aplicaciones de esta tecnología: vegetación, suelo y agua. En la Fig. 11 se representan las
correspondientes curvas de reflectancia espectral.
>Página siguiente: LA REFLECTANCIA EN LOS VEGETALES

Página principal

< Página anterior: INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE


TERRESTRE (anterior)
Email ThisBlogThis!Share to TwitterShare to Facebook

4. INTERACCION DE LAS RADIACIONES CON LOS


OBJETOS DE LA SUPERFICIE TERRESTRE
Cuando la radiación incide sobre un dado objeto de la superficie terrestre pueden considerarse los tres
tipos fundamentales de interacciones que se representan en la Fig.8 con el correspondiente balance
energético según la ley de la conservación de la energía

Es decir que la energía incidente se fracciona en varios componentes: energía reflejada, absorbida y/o
transmitida, siendo todos estos componentes dependientes de la longitud de onda. Conviene aquí
destacar dos puntos:

• La proporción de energía reflejada, absorbida o transmitida variará con los diferentes objetos,
dependiendo del tipo de material que compone dichos 
objetos así como de su condición.Esto permite identificar diferentes objetos en una imagen.

• La dependencia con la longitud de onda determina que la proporción de energía reflejada, absorbida
y/o transmitida varíe para las diferentes longitudes de onda. Esto hace que dos objetos que pueden ser
indistinguibles entre sí en un dado rango espectral puedan ser perfectamente diferenciados en otro
rango. Es conocido el uso de película infrarroja en lugar de la pancromática común para detectar, por
ejemplo, equipos bélicos camouflados. La manera como un objeto refleja la energía que incide sobre él
afecta sensiblemente las características de la energía que detecta un sensor que esté observando dicho
objeto. En efecto, el tipo de reflexión que se produce quedará determinado por la textura o grado de
rugosidad de la superficie del objeto así como del ángulo de incidencia de la energía radiante sobre el
objeto. La reflexión especular se produce cuando la radiación incide sobre una superficie relativamente
lisa (esto ocurre cuando el tamaño de las partículas de la superficie es menor que la longitud de onda de
la radiación incidente). En este caso los ángulos de incidencia y reflexión son iguales, siguiendo las leyes
de la óptica geométrica. La reflexión difusa o lambertiana ocurre en el caso inverso, es decir cuando la
superficie es más rugosa y la longitud de onda de la radiación incidente es menor que el tamaño de las
partículas de la superficie. En este caso la radiación es reflejada en todas direcciones. Ver Fig. 9.

Entre estos dos casos caben todas las posibilidades intermedias.


Como puede observarse (a) (b) también en la Fig. 9 (c) en el caso de la reflexión difusa la radiación
penetra hasta cierta profundidad en el material y tiene oportunidad de interaccionar con los componentes
químicos de éste. La radiación reflejada en forma difusa posee pues más información que la especular
acerca del objeto irradiado. Obviamente, en Percepción Remota será pues particularmente importante
medir las propiedades de la reflectancia difusa de los objetos terrestres. Las características del fenómeno
de reflexión por parte de un objeto sobre la superficie terrestre puede ser cuantificada midiendo la
porción de energía incidente sobre el objeto que es reflejada por éste. Podemos entonces definir la
Reflectancia Espectral como

>Página siguiente: INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE


TERRESTRE (continuación)

Página principal

< Página anterior: INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE LOS


ESPECTROS.
Email ThisBlogThis!Share to TwitterShare to Facebook

3. INTERACCION DE LA RADIACION CON LA MATERIA Y


ORIGEN DE LOS ESPECTROS.
Los objetos físicos se hallan constituidos por sistemas atómico-moleculares. El contenido energético total
de tales sistemas puede considerarse, en una primera aproximación, como la suma de varios aportes
energéticos: energía translacional, energía vibracional, asociada a las vibraciones de los átomos en torno
a sus posiciones de equilibrio en las moléculas, energía rotacional, asociada a las rotaciones de la
molécula en torno a ciertos ejes y energía electrónica, asociada a los electrones contenidos en la
molécula: algunos de tales electrones participan decisivamente en los enlaces químicos
intramoleculares. Salvo la energía translacional las demás formas de energía están sujetas a severas
restricciones impuestas por la Mecánica Cuántica, no pudiendo adoptar sino ciertos valores discretos de
energía que se denominan niveles energéticos. La Fig. 6 esquematiza una distribución de niveles
energéticos para una molécula hipotética.

Con A y B representamos dos niveles electrónicos, que son los que involucran un mayor diferencial de
energía. Cada uno de ellos posee sus propios niveles vibracionales v y a su vez éstos poseen una
estructura “fina” rotacional r. En la misma figura se representa una transición entre los dos niveles
electrónicos., Esta puede iniciarse y terminar en diversos niveles vibracionales o rotacionales de ambos
niveles electrónicos, siempre que ciertas reglas de selección de la Mecánica Cuántica autoricen tal
transición. Para nosotros el hecho más importante a destacar es que los patrones de niveles energéticos
como el representado en la Fig 6 son específicos de cada especie atómico-molecular. 
En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares suelen encontrarse
en sus niveles energéticos más bajos, pero por el aporte de diversas formas de energía (eléctrica,
térmica, electromagnética, etc.) pueden ser excitados a niveles energéticos superiores. Si la energía
suministrada al sistema es suficiente podrá provocar transiciones entre niveles electrónicos, usualmente
acompañadas, como ya vimos, por cambios vibracionales y rotacionales. Si las energías aportadas son
menores las transiciones sólo se producirán entre niveles vibracionales e incluso sólo rotacionales.
Consideremos la excitación de las moléculas por aporte de energía radiante mediante un haz de
radiación que posea un rango continuo de longitudes de onda (o, lo que es equivalente, por un haz de
fotones cuyas energías cubren un amplio rango continuo de valores): este es el caso típico de la
radiación emitida por el sol o por cuerpos incandescentes. Este tipo de radiación suele llamarse continua
o de espectro continuo. El objeto o sistema irradiado absorberá aquellos fotones que poseen la energía
justamente necesaria para producir las transiciones que le son permitidas. Es así que en el haz
transmitido o reflejado luego de interaccionar con el sistema el número de fotones de ciertas longitudes
de onda se verá reducido, o dicho de otro modo, la intensidad de las radiaciones de determinadas
longitudes de onda se verá reducida.

Este efecto se representa en el caso hipotético de la Fig. 7: un haz incidente de composición espectral
dada por la curva A ve modificada dicha composición espectral de acuerdo a la curva B, que puede ser
considerada la curva espectral del objeto irradiado. La forma de dicha curva depende del patrón de
niveles energéticos del objeto irradiado y siendo dicho patrón altamente específico para el sistema
atómico molecular del objeto irradiado, es decir de su estructura química, la curva espectral de éste
constituye algo así como una impresión digital o firma espectral del objeto en cuestión permitiendo su
identificación.

>Página siguiente: INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE


TERRESTRE

Página principal

< Página anterior: NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS


Email ThisBlogThis!Share to TwitterShare to Facebook

2. NATURALEZA DE LAS RADIACIONES


ELECTROMAGNÉTICAS
Dada la importancia de las radiaciones electromagnéticas en la adquisición de información por
Percepción Remota se justifica estudiar su naturaleza con mayor detalle. La energía electromagnética o
energía radiante es una entidad física que se manifiesta bajo dos aspectos complementarios entre sí: el
ondulatorio y el corpuscular. La concepción ondulatoria que permite explicar ciertos fenómenos como los
de difracción e interferencia interpreta la radiación como un campo eléctrico y uno magnético oscilando
en planos perpendiculares (Fig. 3). El fenómeno ondulatorio posee una doble periodicidad: en el espacio
y en el tiempo. La periodicidad espacial determina la longitud de onda que es la distancia entre dos
puntos consecutivos de igual amplitud del campo eléctrico o magnético. El intervalo de tiempo
transcurrido entre dos instantes consecutivos en que uno u otro campo alcanza igual valor se denomina
período t. Se define la frecuencia de la radiación como la relación 1/t que se expresa en ciclos por
segundo

La concepción corpuscular permite explicar ciertos hechos experimentales como el efecto fotoeléctrico y
la absorción de radiación por las moléculas y consiste en concebir la radiación como un haz de
corpúsculos llamados cuantos de radiación o fotones que se desplazan en la dirección del haz con la
velocidad de la luz. 
Las concepciones ondulatoria y corpuscular de la radiación se concilian en la relación de PLANCK: 

La relación de Planck permite que un haz de radiación de determinada frecuencia (o longitud de onda)
sea interpretado como un flujo de cuantos de determinada energía. 
En la Fig. 5 se representa el espectro electromagnético. Obsérvese que la región visible del espectro
electromagnético rePercepción Remotaesenta sólo una pequeña 
fracción de éste. Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la
región espectral considerada. En nuestro estudio,que se centrará fundamentalmente en las regiones
conocidas como visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm)o
a los nanometros (1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros.
Obsérvese que la región visible del espectro electromagnético representa sólo una pequeña fracción de
éste. 
Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la región espectral
considerada. En nuestro estudio, que se centrará fundamentalmente en las regiones conocidas como
visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm) oalos nanometros
(1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros.

>Página siguiente:INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE LOS


ESPECTROS

Página principal

< Página anterior: INTRODUCCION A LA PERCEPCION REMOTA SATELITAL


Email ThisBlogThis!Share to TwitterShare to Facebook

INTRODUCCION A LA PERCEPCION REMOTA SATELITAL


CONTENIDO

1. DEFINICION Y CONCEPTOS FUNDAMENTALES.

2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNETICAS.

3. INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE


LOS ESPECTROS.

4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA


SUPERFICIE TERRESTRE.

5. INTERACCIONES ATMOSFERICAS.

6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES.

7. SENSORES.

8. ESTRUCTURA DE LAS IMÁGENES DIGITALES.

9. PROCESAMIENTO DE LAS IMÁGENES DIGITALES.


10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA.

APENDICE I: NOCIONES BASICAS SOBRE SENSORES DE RADAR.

APENDICE II: BANDAS ESPECTRALES DE ALGUNOS SATELITES ACTUALES.

APENDICE III: BIBLIOGRAFIA SUGERIDA.

1. DEFINICIONES Y CONCEPTOS FUNDAMENTALES.

Percepcion remota es la ciencia y arte de obtener informacion de un objeto, area o fenomeno a traves del
analisis de los datos adquiridos mediante algún dispositivo que no esta en contacto fisico con el objeto,
area o fenomeno investigados.

Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los cambios que los
objetos imponen a los campos que los envuelven, según sean éstos electromagnéticos, acústicos,
gravimétricos o magnéticos: bastará poseer el sensor adecuado para cada caso. Desde un punto de
vista práctico, más acorde a nuestros fines, podemos restringir la generalidad de este concepto
limitándonos a utilizar el término “percepción remota” (o “teledetección”) en conexión con técnicas
electromagnéticas de adquisición de información. Si quisiéramos historiar la evolución de la percepción
remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones años cuando alguna
forma inferior de vida comenzó a diferenciar algunas de sus células volviéndolas fotosensibles, proceso
que evolucionó también durante millones de años hasta convertirlas en un sensor altamente sofisticado
como el ojo humano. Si bien éste fue y sigue siendo el sensor utilizado en muchas aplicaciones
cotidianas de la percepción remota, ya desde el siglo XIX comenzó a ser sustituído por un mecanismo
que lo imitaba ofreciendo algunas ventajas como el del registro permanente de lasobservaciones: la
cámara fotográfica. Esta fue montada en plataformas tan dispares como palomas y globos aerostáticos
en un principio, luego en aviones y en épocas más recientes en las primeras plataformas orbitales. El
vertiginoso desarrollo de estas últimas, acompañadas por los avances tecnológicos paralelos llevaron a
la situación actual en que innumerables plataformas orbitan la Tierra observándola con sofisticados
sensores como escáneres multiespectrales, sensores térmicos infrarrojos, sistemas de radar y laser, etc.

La Percepción Remota involucra dos procesos básicos:

· Adquisición de datos desde plataformas con sensores adecuados


· Análisis de los datos mediante dispositivos visuales o digitales Muchas veces la información así
adquirida se complementa con datos de referencia ya existentes de la región en estudio (mapas de
suelos, estadísticas de cosechas, planos catastrales, etc.) Toda esta información es usualmente
combinada en forma de capas de información en lo que usualmente se denomina un SIG (Sistema de
Información Geográfico) o GIS de acuerdo a sus siglas en inglés.

>Página siguiente: NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS

También podría gustarte