Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los conceptos de escala y resolución espacial están estrechamente relacionados con el grado de detalle
con que podemos visualizar una dada imagen. Sin embargo difieren en ciertos aspectos que conviene
puntualizar.
7.5.1 Escala. La escala de una imagen o de un mapa hace referencia a la diferencia relativa de tamaño o
distancia entre los objetos de la imagen y los reales terrenos. Esta diferencia se expresa como la relación
entre la distancia sobre la imagen y la real terrena.. Así por ejemplo, una escala de 1: 100000 significa
que 1 cm en el mapa o imagen corresponde a 100000 cm (1 km) sobre el terreno.
Un cálculo similar puede efectuarse para áreas. Así, para una escala 1:10000 un área de 1mm x 1mm en
el mapa o imagen corresponde a 0.01 ha. sobre el terreno. Igualmente, un área de 5cm x 5 cm sobre el
mapa corresponde a un área de 25 ha sobre el terreno. Es común referirse a una escala diciendo que es
mayor o menor que otra escala. Sin embargo, esta manera de expresarse puede llevar a confusiones. En
efecto, una escala de por ejemplo 1:100000 suele llamarse “escala de 100000” y una escala de 1:40000
“escala de 40000”. Sin embargo la primera es menor que la segunda, ya que el número 1/100000 es
menor que el de 1/40000. Lo mejor sería decir que 1:100000 es una escala “gruesa” y 1:40000 una
escala “fina”.
Para calcular la escala desconocida de una imagen o un mapa es necesario comparar la distancia entre
dos puntos sobre una referencia conocida y los mismos dos puntos sobre el mapa o imagen de escala
desconocida. La referencia puede ser otra imagen o mapa de escala conocida o una distancia medida
sobre el terreno. El método de cálculo difiere según la referencia sea una imagen o mapa o bien una
medida sobre el terreno. En el primer caso la fórmula a aplicar es:
ED = DD / DR * ER
donde ED: escala desconocida a calcular; DR: distancia entre dos puntos medida sobre la imagen o
mapa de referencia; DD: distancia entre los mismos dos puntos medida sobre la imagen o mapa de
escala desconocida. Ejemplo:
Un mapa topográfico a escala 1:100000 se usará para determinar la escala de una imagen satelital. Se
seleccionan dos puntos que pueden ubicarse fácilmente sobre la imagen y el mapa. La distancia entre
ellos en el mapa topográfico es de 8.3 mm y en la imagen es de 40.0 mm. La escala de la imagen será
En el caso de que la referencia sea una medida sobre el terreno la fórmula a emplear será:
ED= MD/RD
donde ED: escala desconocida a calcular; RD: distancia entre dos puntos medida sobre el terreno; MD
distancia entre los mismos dos puntos medidos sobre el mapa o imagen Nota.
Las unidades de RD y MD deben ser las mismas.
7.5.2 Escala vs. Resolución Espacial. Ya vimos (Sec. 7.4.1) que la resolución espacial de una imagen es
una indicación del tamaño del pixel expresada en términos de dimensiones sobre el terreno. Usualmente
se presenta por un valor único correspondiente a la longitud de un lado del cuadrado correspondiente a
dicho pixel. Así, una resolución espacial de 30 m significa que el pixel representa un área de 30 m x 30 m
sobre el terreno. Si el pixel fuera rectangular debería ser representado por su largo y ancho, por ejemplo
56 m x 79 m. La resolución espacial es una indicación del potencial de detalle que ofrece una imagen. Si
una imagen de satélite de 1 m de resolución se imprime a una escala de 1/500000 se perdería el
potencial de detalle que ofrece dicha imagen. La inversa también es cierta: si se imprime una imagen de
baja resolución espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles individuales.
Cuando efectuamos “zoom” repetido sobre una imagen digital (es decir, cuando vamos “afinando” la
escala) llega un momento en que comienzan a visualizarse los pixeles, y a partir de ese punto aunque
sigamos afinando la escala no se aumentará su nivel de detalle llegando a dificultarse su interpretación.
Página principal
En la Fig. 39 vemos que las características orbitales del LANDSAT hacen que la distancia entre el
trazado terrestre de dos órbitas consecutivas sea de 2752 km en el ecuador. En la Fig. 40 se observan
las órbitas recorridas en días sucesivos. El intervalo de tiempo entre órbitas adyacentes es de 7 días. De
todos modos como LANDSAT-5 y LANDSAT-7 están defasados 8 días, cuando ambos satélites se
encuentran operativos puede lograrse para una dada región una cobertura LANDSAT cada 8 días.
Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden orientarse según
diferentes ángulos, con lo cual pueden registrar imágenes no sólo en el nadir sino también a través de
enfoques laterales, frontales o traseros. Esto permite lograr períodos de revisita mucho más cortos,
incluso de dos o tres días. Otro ejemplo de satélites con alta resolución temporal lo constituyen los de la
serie NOAA con sus sensores AVHRR.
Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria global diurna y
nocturna. Sin embargo, debe tenerse en cuenta que la resolución espacial de éstos es de 1 km, es decir
mucho menor que la de los satélites anteriormente mencionados. De todos modos, su elevada resolución
temporal, los hace sumamente útiles en monitoreos ambientales o agrometeorológicos sobre áreas muy
extensas. Estas características son compartidas con el instrumento MODIS a bordo de los satélites
TERRA y ACQUA sobre áreas muy extensas. Estas características son compartidas con el instrumento
MODIS a bordo de los satélites TERRA y ACQUA.
Página principal
En la Sec. 7.1 ya mencionamos los números digitales (DN) asociados a cada píxel en las imágenes
digitales y que generan lo que llamamos escala de grises que en realidad es la escala de niveles
digitales disponibles para representar los detalles de la imagen. El número de niveles de grises se
expresa comúnmente en términos de dígitos binarios (bits) necesarios para almacenar el valor del nivel
de gris máximo para el caso considerado.
Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores 1y 0. Usando un
arreglo de bits puede representarse un número cualquiera dentro de los límites de “longitud de palabra”
de la computadora. Para lograr una imagen de pantalla con variaciones de brillo prácticamente continuas
desde el punto de vista visual se necesitan 5 o 6 bits por píxel.
El número de valores que pueden ser representados por una serie dígitos es xn , donde x es el número
de valores que cada dígito puede representar y n es el número de dígitos usados. En una base binaria el
número de valores será 2n . Por ejemplo, para 5 bits tendremos 32 valores, para 8 bits 256 valores, para
11 bits 2048, etc. En el caso del Landsat y el HRVI se tienen 8 bits, es decir, la escala de grises se
extiende de 0 a 255, totalizando 256 valores.
Página principal
Página principal
7. RESOLUCION
7.4 Resolución. Los sistemas de percepción remota difieren en la resolución, es decir, el nivel de detalle
con que pueden capturar las imágenes, su frecuencia temporal, “finura espectral”, etc.. Desde este punto
de vista podemos considerar cuatro diferentes tipos de resolución: espacial, espectral, radiométrica y
temporal.
7.4.1 Resolución espacial. La resolución espacial se refiere a la finura de detalles visibles en una imagen:
cuanto menor es el área terrestre representada por cada píxel en una imagen digital mayores son los
detalles que pueden ser captados y mayor es la resolución espacial. En las Figs. 34 a, b y c se observan
imágenes de una misma región a tres diferentes resoluciones espaciales (baja,
mediana y alta, correspondiendo respectivamente al MODIS 1.1 km , LANDSAT-5, 30m y QUICKBIRD,
0.60m. Existen diferentes factores que influyen en la resolución espacial: además de los obviamente
asociados al sensor, como ser el poder resolutivo del sistema óptico, debemos considerar las influencias
atmosféricas, presencia de humo, neblina, bajos niveles de iluminación, etc.
También existen factores asociados a las características del objeto a detectar y de su entorno: un buen
contraste y bordes nítidos del objeto son favorecen la detección. La selección de la resolución espacial
necesaria para un dado proyecto debe analizarse cuidadosamente. En efecto, pretender resoluciones
mayores que la necesaria encarece el costo de las imágenes y la carga de proceso.
>Página siguiente: SATELITES - RESOLUCION ESPECTRAL
Página principal
Las principales aplicaciones de las bandas del LANDSAT TM (y por similitud de rangos espectrales
también las del SPOT) son las siguientes:
Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de zonas con alteraciones
hidrotérmicas en rocas.
Página principal
La radiación reflejada desde el terreno entra al HRV o HRVIR vía un espejo plano y un telescopio la
proyecta sobre dos arreglos CCD de 6000 detectores cada uno dispuestos linealmente (ver Fig. 29).
Cuando los dos instrumentos “miran” directamente el terreno debajo del sensor se pueden disponer de
modo de cubrir franjas adyacentes, con un campo de visión total de 117 km y una sobreposición de 3 km.
Sin embargo, es también posible seleccionar desde la estación operadora terrestre ángulos de
observación fuera de nadir. De esta manera es posible observar desde una posición centrada en la
proyección terrestre de la trayectoria del satélite cualquier región de interés dentro de una franja terrestre
de 950 km. Esto hace que, pese a que el satélite tiene un período de revisita de 26 días, puede observar
una misma área en intervalos de 4 o 5 días en pasajes por órbitas cercanas realizando observación
oblicua. También pueden realizarse observaciones en pasajes en días sucesivos de modo que las dos
imágenes sean adquiridas según ángulos a ambos lados de la vertical (Fig.33). Se obtienen así
imágenes para medidas topográficas.
7. SENSORES (continuación 2)
7.2 Naturaleza de los detectores. En los primeros tiempos de la percepción remota los detectores eran
del tipo de los fotomultiplicadores. Actualmente la mayoría de los detectores son de estado sólido,
constituido por aleaciones o metales semiconductores. Estos poseen una conductividad eléctrica
intermedia entre la de un metal y la de un aislador.
En condiciones normales o no excitados estos semiconductores poseen sus electrones en un nivel de
energía completo (desde el punto de vista de la configuración electrónica del modelo atómico
mecánicocuántico). Bajo ciertas condiciones, como la interacción con fotones, electrones de dicho nivel
son excitados a otro nivel denominado banda de conducción. La resistencia a esta transferencia varía
inversamente al número de fotones incidentes. Diferentes materiales responden de distinta manera a las
diferentes longitudes de onda (es decir, a la energía de los fotones), lo que los hace espectralmente
selectivos. Es así que para la región visible se utilizan fotodiodos de silicio y de PbO (óxido de plomo), en
el infrarrojo cercano PbS (sulfuro de plomo) e In-As (indio-arsénico), en el infrarrojo medio (3-6 µm) InSb
(indioantimonio) y en el infrarrojo térmico (8 –14 µm) Hg-Cd-Te (mercurio-cadmio-teluro). Estos últimos
deben ser enfriados a muy bajas temperaturas para optimizar la eficiencia de la emisión electrónica. Uno
de los dispositivos que en los últimos tiempos ha adquirido gran importancia es el detector de
acoplamiento de carga (charge-coupled device – CCD).
Un CCD está formado por un material fotosensible embebido en un chip de silicio. Se genera en éste un
foso de potencial que recibe los electrones liberados por los fotones incidentes en el chip posteriormente
a su enfoque y filtración por el sistema óptico. Los componentes fotosensibles del chip pueden llegar a
ser muy pequeños, del orden de 1µ de diámetro. Estos elementos pueden ser interconectados a través
de microcircuitos para formar arreglos lineales o bidimensionales. Puede llegar a prepararse arreglos
lineales que en 2 cm de longitud con hasta 1000 detectores individuales.
La Fig. 29 muestra una imagen obtenida con un microscopio electrónico de un fragmento de un arreglo
lineal de CCD´s.
7. SENSORES (continuación)
Otra característica que conviene distinguir en los sensores remotos es la manera como ellos registran la
información a medida que avanzan según su trayectoria u órbita. En general el área barrida se extiende a
ambos lados de la trayectoria (swath width) y su anchura queda determinada por la óptica del sistema
por ej. por el telescopio que debe llevar el sistema para observaciones desde cientos de kilómetros de
altura y determina el campo de visión (Field of View o FOV) Las dos principales opciones de barrido se
esquematizan en la Fig. 27. El modo cruzado con la trayectoria (cross track o whiskbroom mode)
normalmente utiliza un espejo rotatorio u oscilante, es decir que constituye un sistema óptico-mecánico.
Este barre la escena a lo largo de una línea simple (o múltiple) transversal a la trayectoria. Esta línea es
muy larga (kilómetros) pero muy angosta (metros).
Cada línea se subdivide en una secuencia de elementos espaciales individuales cada una de las cuales
representa una pequeña área de la escena terrestre que se examina.
O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las cuales refleja
radiación y que son sensadas secuencialmente a lo largo de la línea. En el sensor cada una de estas
celdas está asociada a un pixel (o picture element) ligado a un detector microelectrónico y se caracteriza
por un dado valor de radiación que a través del efecto fotoeléctrico genera una corriente electrónica.
El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a dicho píxel,
queda determinada por el Campo de Visión Instantánea del sensor (Instantaneous Field of View – IFOV).
El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al área terrestre que
está midiendo en cada instante. El IFOV es función de la óptica del sensor, del tamaño del detector, de la
altitud de la plataforma, etc. Los electrones emitidos son recogidos sucesivamente, píxel por píxel,
generando una señal variable que representa la variación espacial de la radiación por el muestreo
progresivo que el sensor va efectuando sobre la escena terrestre estudiada. Esto permite asignar a cada
píxel un valor discreto llamado Número Digital (DN – digital number). Estos números digitales resultan de
convertir las señales analógicas generadas por el detector en valores digitales constituidos por números
enteros que cubren un intervalo finito, por ejemplo 28 cubriendo el intervalo de 0 a 255. Estos valores
digitales permitirán construir la imagen a través de dispositivos adecuados, por ejemplo el monitor de una
computadora. En el modo de barrido en la dirección de la trayectoria (along track pushbroom) no existe
espejo oscilante, sino un arreglo lineal de pequeños detectores cuyas minúsculas dimensiones permiten
que se asocien hasta miles de ellos en dicho arreglo. El sistema de filtros incorporado al arreglo permite
seleccionar las longitudes de onda. Cada detector es un dispositivo de acoplamiento de carga (Charge-
Coupled Device – CCD –ver más adelante).
En este modo de barrido, los píxeles que constituirán la imagen final corresponden a estos
microdetectores con sus correspondientes filtros incorporados en el arreglo lineal. A medida que la
plataforma avanza en su órbita la radiación proveniente de las celdas terrestres a lo largo del campo de
visión del satélite llega simultáneamente a los correspondientes detectores. La señal generada por cada
detector es removida en milisegundos, siendo el detector reseteado a cero quedando pronto para recibir
la radiación proveniente de la nueva línea del campo de visión.
Página principal
7. SENSORES
7.1. Consideraciones generales. Hemos visto cómo la radiación electromagnética es portadora de la
información acerca deaquellos materiales u objetos de interés en percepción remota. Pero para adquirir y
luegopoder procesar dicha información son necesarios ciertos dispositivos denominados sensores.
Existen gran número de sensores destinados a numerosas aplicaciones, muchas de las cuales caen
fuera del área específica de nuestro estudio. Aquí nos concentraremos fundamentalmente en los
llamados espectroradiómetros de barrido (scanning radiometers) de particular importancia en sistemas
de percepción remota.En la gran mayoría de estos instrumentos el mecanismo de base es el efecto
fotoeléctrico: cuando un haz de fotones incide sobre una placa negativamente cargada o sobre algún
material fotosensible adecuado se produce una emisión de partículas negativas (electrones). Estos
electrones pueden fluir desde la placa generando una señal electrónica. La magnitud de la corriente
eléctrica producida (número de fotoelectrones por unidad de tiempo) es directamente proporcional a la
intensidad luminosa. La energía cinética de losfotoelectrones emitidos varía con la longitud de onda
asociada a los fotones incidentes. Sinembargo, debe tenerse en cuenta que diferentes materiales que
manifiestan el fenómeno fotoeléctrico liberan fotoelectrones bajo diferentes intervalos de longitudes de
onda: cada uno de ellos presenta un umbral de longitudes de onda para el que el fenómeno se
manifiesta y otro umbral de longitudes de onda para el que el fenómeno cesa. Los sensores que aquí nos
interesan son del tipo pasivo, caracterizados porque la radiación que llega a ellos proviene de una fuente
externa (p.ej. el Sol). Además, los electrones liberados son capaces de inducir la formación de una
imagen cuando son recogidos pordispositivos adecuados de detección (detectores)
Como los sensores son instrumentos capaces de medir cuantitativamente la radiación electromagnética
en determinadas regiones del espectro se denominan radiómetros. Cuando este sensor incluye además
un componente del tipo de un prisma o red de difracción o filtros de interferencia que pueden dispersar la
radiación de una dada región del espectro en longitudes de onda discretas que son dirigidas hacia los
detectores se denomina espectrómetro. Cuando la radiación es dispersada no en longitudes de onda
discretas sino en bandas espectrales más anchas, es decir cubriendo ciertos intervalos de longitudes de
onda el término más conveniente para el sensor es espectroradiómetro. Este es el caso más usual en los
sensores aeroespaciales. Como en general estos sensores se desplazan barriendo la escena estática
que están observando se dice que operan en modo de barrido o escaneado (scanning mode). Podemos
distinguir dos categorías de estos escáneres: los óptico- mecánicos y los óptico-electrónicos. Los
primeros se caracterizan por tener un componente mecánico, p.ej. un espejo rotativo que opera en el
barrido de la escena, mientras que los segundos el mismo sistema óptico enfoca la radiación sobre un
arreglo lineal de detectores.
Página principal
< Página anterior: RECEPCION Y TRANSMISION DE LA INFORMACION SATELITAL
Email ThisBlogThis!Share to TwitterShare to Facebook
Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si ésta está en la
línea de visión del satélite (A).
En caso contrario la información puede ser almacenada a bordo de B para su posterior retransmisión a
una estación terrena. B puede también enviar sus datos a un sistema satelital repetidor que consiste en
una serie de satélites de comunicaciones en órbita geosincrónica. Los datos son enviados de un satélite
repetidor C) a otro hasta alcanzar un estación terrena adecuada.
Página principal
Página principal
SATELITES METEOROLOGICOS Y
AGROMETEOROLOGICOS
Existen también otras series de satélites destinados fundamentalmente a misiones meteorológicas,
agrometeorológicas, atmosféricas y oceánicas. Algunos de estos satélites, como los de las series NOAA
(Nacional Oceanic and Atmospheric Administration -USA), SEA STAR (USA) describen órbitas cuasi
polares sincrónico-solares a altitudes del orden de 850 km y resoluciones espaciales de 1km. Otros
satélites, como los de las series GOES (Geostationary Operational Environmental Satellite) y
METEOSAT (Eutmetsat – Europa), etc. Se mantienen en órbitas geoestacionarias a aproximadamente
36000 km y con resoluciones espaciales de 1km. Debe tenerse en cuenta que el período de un satélite,
es decir el tiempo que tarda en completar su órbita aumenta con la altitud: a 36000 km un satélite posee
el mismo período que la Tierra. Así, si se posiciona en el plano ecuatorial permanece estacionario
respecto a la superficie de la Tierra, es decir, observando siempre el mismo hemisferio. La operación de
estos satélites se esquematiza en la Fig. 25
Página principal
< Página anterior: 6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES
(continuación)
Email ThisBlogThis!Share to TwitterShare to Facebook
Actualmente existen muchas otras plataformas satelitales similares a las anteriores y pertenecientes a
distintos países o resultantes de acuerdos entre dichos países (Rusia, Japón, India, Argentina, China,
Brasil, etc.). En general todos estos satélites se caracterizan por órbitas quasi polares y solar –
sincrónicas con parámetros similares a los ejemplificados en la Fig. 19. En una órbita solar-sincrónica la
rotación de la Tierra en torno al sol, la inclinación de la órbita y el período orbital son tales que en cada
órbita el satélite cruza el Ecuador a la misma hora solar local. En el caso del Landsat 5 es a la hora
09:45.
Adelantándonos a un tema que más adelante analizaremos respecto a la resolución espacial de los
satélites, es decir, el tamaño mínimo de los objetos que son capaces de discernir en sus imágenes,
diremos que los satélites que acabamos de mencionar son de resolución espacial moderada, pudiendo
variar entre 5 y 30 m.
En los últimos años se han puesto en órbita satélites comerciales de alta resolución espacial como el
Ikonos (Fig.20), el Quickbird (Fig.21) y el Orbview-3 (Fig.22). Las órbitas de estos satélites son más
bajas(680 y 450 km) y sus resoluciones espaciales alcanzan a 1 m y 0.6m. La Fig. 23 permite apreciar
visualmente en imágenes de un cultivo agrícola el efecto de la resolución espacial.
Como una posibilidad ofrecida por los últimos desarrollos espaciales debemos mencionar la adquisición
de imágenes desde la Estación Espacial Internacional (ISS) (Fig. 24) que vino a sustituir a la estación
rusa MIR, que debió ser destruida al cabo de su vida útil.
Página principal
Un zoom sobre dicha imagen permite detectar objetos de10m. Entre las misiones espaciales citemos las
misiones Mercury, Gemini y Apolo. En particular el Apolo IX realizó la primera experiencia controlada de
fotografía orbital multiespectral. Estas experiencias fueron continuadas en posteriores misiones
(Skylab,Apolo-Soyuz, etc.)
Página principal
< Página anterior: 5. INTERACCIONES ATMOSFERICAS
Email ThisBlogThis!Share to TwitterShare to Facebook
5. INTERACCIONES ATMOSFERICAS
La radiación registrada por sensores remotos debe realizar una trayectoria a través de la atmósfera, a
consecuencia de la cual sufre variados efectos. La entidad de éstos depende del trayecto recorrido, de
las condiciones atmosféricas presentes y de la longitud de onda de la radiación. En general intervienen
dos mecanismos principales: dispersión y absorción.
DISPERSION: Es una difusión de la radiación producida por partículas de la atmósfera y podemos
considerar tres mecanismos principales: dispersión de Rayleigh, dispersión de Mie y dispersión no
selectiva. La dispersión de Rayleigh es consecuencia de la interacción de la radiación con moléculas de
los gases atmosféricos y con otras partículas pequeñas de diámetro mucho menor que la longitud de
onda de la radiación con la que interaccionan. Este efecto es inversamente proporcional a la 4ta potencia
de la longitud de onda, tal como se representa en la Fig14.
En consecuencia existirá mayor tendencia a dispersar las longitudes de onda más cortas. El “azul del
cielo” se debe a este efecto: en ausencia de él el cielo aparecería negro, pero como la atmósfera
dispersa sobretodo las cortas longitudes de onda (como el azul en el rango de espectro visible) el cielo
nos aparece azul. La dispersión de Rayleigh es una de las causas primarias de nebulosidad en muchas
imágenes que ven así reducida su nitidez o contraste. La dispersión de Mie se produce cuando los
diámetros de las partículas atmosféricas son esencialmente iguales a la longitud de onda de la radiación
(vapor de agua, polvo fino, etc.) y tiende a influenciar la radiación de longitudes de onda mayores que las
afectadas por la dispersión de Rayleigh.
La dispersión no selectiva constituye un fenómeno mucho más molesto que los anteriores y se produce
cuando los diámetros de las partículas que producen la dispersión son mucho mayores que las
longitudes de onda con que interaccionan. Un ejemplo típico lo constituyen pequeñas gotas de agua con
diámetros comprendidos entre 5 y 100 mm que dispersan en igual forma todas las radiaciones en las
regiones visible e IR cercano y medio. Al ser su dispersión no selectiva respecto a la longitud de onda
ocurrirá que en el espectro visible se dispersan en igual proporción las radiaciones azules, verde y rojas,
con la consecuencia de que las nubes y la niebla aparecen blancas.
ABSORCION
Página principal
LA REFLECTANCIA EN EL AGUA
Aborbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región como cuerpos
oscuros, facilitando su observación y delineamiento. Para longitudes de onda visibles hay factores que
complican la interpretación. En efecto, la reflectancia de un cuerpo de agua puede generarse por
interacción con la superficie (reflexión especular), con material en suspensión o con el fondo mismo del
cuerpo de agua. El agua clara absorbe poca energía con longitudes de onda por debajo de 0.6 µm, pero
a medida que aumenta la turbidez la reflectancia en el visible aumenta rápidamente. Igualmente la
presencia de clorofila (algas, fitoplancton) modifica la reflectancia del agua, efecto que se aplica al
monitoreo por percepción remota de concentraciones de algas. La Fig. 13 es una imagen MODIS que
permite observar los sedimentos en el Río de la Plata provenientes de los ríos Paraná y Uruguay y que
se extienden hasta aproximadamente Atlántida.
LA REFLECTANCIA EN LOS SUELOS
La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores
que afectan la reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia
de materia orgánica y contenido de óxido de hierro, en particular, el contenido de humedad está
estrechamente ligado a la textura: los suelos arenosos, de partículas grandes, usualmente están bien
drenados, resultando con baja humedad y relativamente alta reflectancia. La inversa ocurre con los
suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hierro disminuyen la
reflectancia del suelo, a lo menos en la región visible.
Página principal
Página principal
< Página anterior: 4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE
TERRESTRE (continuación)
Email ThisBlogThis!Share to TwitterShare to Facebook
Página principal
Es decir que la energía incidente se fracciona en varios componentes: energía reflejada, absorbida y/o
transmitida, siendo todos estos componentes dependientes de la longitud de onda. Conviene aquí
destacar dos puntos:
• La proporción de energía reflejada, absorbida o transmitida variará con los diferentes objetos,
dependiendo del tipo de material que compone dichos
objetos así como de su condición.Esto permite identificar diferentes objetos en una imagen.
• La dependencia con la longitud de onda determina que la proporción de energía reflejada, absorbida
y/o transmitida varíe para las diferentes longitudes de onda. Esto hace que dos objetos que pueden ser
indistinguibles entre sí en un dado rango espectral puedan ser perfectamente diferenciados en otro
rango. Es conocido el uso de película infrarroja en lugar de la pancromática común para detectar, por
ejemplo, equipos bélicos camouflados. La manera como un objeto refleja la energía que incide sobre él
afecta sensiblemente las características de la energía que detecta un sensor que esté observando dicho
objeto. En efecto, el tipo de reflexión que se produce quedará determinado por la textura o grado de
rugosidad de la superficie del objeto así como del ángulo de incidencia de la energía radiante sobre el
objeto. La reflexión especular se produce cuando la radiación incide sobre una superficie relativamente
lisa (esto ocurre cuando el tamaño de las partículas de la superficie es menor que la longitud de onda de
la radiación incidente). En este caso los ángulos de incidencia y reflexión son iguales, siguiendo las leyes
de la óptica geométrica. La reflexión difusa o lambertiana ocurre en el caso inverso, es decir cuando la
superficie es más rugosa y la longitud de onda de la radiación incidente es menor que el tamaño de las
partículas de la superficie. En este caso la radiación es reflejada en todas direcciones. Ver Fig. 9.
Página principal
Con A y B representamos dos niveles electrónicos, que son los que involucran un mayor diferencial de
energía. Cada uno de ellos posee sus propios niveles vibracionales v y a su vez éstos poseen una
estructura “fina” rotacional r. En la misma figura se representa una transición entre los dos niveles
electrónicos., Esta puede iniciarse y terminar en diversos niveles vibracionales o rotacionales de ambos
niveles electrónicos, siempre que ciertas reglas de selección de la Mecánica Cuántica autoricen tal
transición. Para nosotros el hecho más importante a destacar es que los patrones de niveles energéticos
como el representado en la Fig 6 son específicos de cada especie atómico-molecular.
En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares suelen encontrarse
en sus niveles energéticos más bajos, pero por el aporte de diversas formas de energía (eléctrica,
térmica, electromagnética, etc.) pueden ser excitados a niveles energéticos superiores. Si la energía
suministrada al sistema es suficiente podrá provocar transiciones entre niveles electrónicos, usualmente
acompañadas, como ya vimos, por cambios vibracionales y rotacionales. Si las energías aportadas son
menores las transiciones sólo se producirán entre niveles vibracionales e incluso sólo rotacionales.
Consideremos la excitación de las moléculas por aporte de energía radiante mediante un haz de
radiación que posea un rango continuo de longitudes de onda (o, lo que es equivalente, por un haz de
fotones cuyas energías cubren un amplio rango continuo de valores): este es el caso típico de la
radiación emitida por el sol o por cuerpos incandescentes. Este tipo de radiación suele llamarse continua
o de espectro continuo. El objeto o sistema irradiado absorberá aquellos fotones que poseen la energía
justamente necesaria para producir las transiciones que le son permitidas. Es así que en el haz
transmitido o reflejado luego de interaccionar con el sistema el número de fotones de ciertas longitudes
de onda se verá reducido, o dicho de otro modo, la intensidad de las radiaciones de determinadas
longitudes de onda se verá reducida.
Este efecto se representa en el caso hipotético de la Fig. 7: un haz incidente de composición espectral
dada por la curva A ve modificada dicha composición espectral de acuerdo a la curva B, que puede ser
considerada la curva espectral del objeto irradiado. La forma de dicha curva depende del patrón de
niveles energéticos del objeto irradiado y siendo dicho patrón altamente específico para el sistema
atómico molecular del objeto irradiado, es decir de su estructura química, la curva espectral de éste
constituye algo así como una impresión digital o firma espectral del objeto en cuestión permitiendo su
identificación.
Página principal
La concepción corpuscular permite explicar ciertos hechos experimentales como el efecto fotoeléctrico y
la absorción de radiación por las moléculas y consiste en concebir la radiación como un haz de
corpúsculos llamados cuantos de radiación o fotones que se desplazan en la dirección del haz con la
velocidad de la luz.
Las concepciones ondulatoria y corpuscular de la radiación se concilian en la relación de PLANCK:
La relación de Planck permite que un haz de radiación de determinada frecuencia (o longitud de onda)
sea interpretado como un flujo de cuantos de determinada energía.
En la Fig. 5 se representa el espectro electromagnético. Obsérvese que la región visible del espectro
electromagnético rePercepción Remotaesenta sólo una pequeña
fracción de éste. Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la
región espectral considerada. En nuestro estudio,que se centrará fundamentalmente en las regiones
conocidas como visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm)o
a los nanometros (1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros.
Obsérvese que la región visible del espectro electromagnético representa sólo una pequeña fracción de
éste.
Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la región espectral
considerada. En nuestro estudio, que se centrará fundamentalmente en las regiones conocidas como
visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1 µm= 10-4 cm) oalos nanometros
(1 nm = 10-3 µm). Para las regiones de radar convendrá referirse a centímetros.
Página principal
5. INTERACCIONES ATMOSFERICAS.
7. SENSORES.
Percepcion remota es la ciencia y arte de obtener informacion de un objeto, area o fenomeno a traves del
analisis de los datos adquiridos mediante algún dispositivo que no esta en contacto fisico con el objeto,
area o fenomeno investigados.
Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los cambios que los
objetos imponen a los campos que los envuelven, según sean éstos electromagnéticos, acústicos,
gravimétricos o magnéticos: bastará poseer el sensor adecuado para cada caso. Desde un punto de
vista práctico, más acorde a nuestros fines, podemos restringir la generalidad de este concepto
limitándonos a utilizar el término “percepción remota” (o “teledetección”) en conexión con técnicas
electromagnéticas de adquisición de información. Si quisiéramos historiar la evolución de la percepción
remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones años cuando alguna
forma inferior de vida comenzó a diferenciar algunas de sus células volviéndolas fotosensibles, proceso
que evolucionó también durante millones de años hasta convertirlas en un sensor altamente sofisticado
como el ojo humano. Si bien éste fue y sigue siendo el sensor utilizado en muchas aplicaciones
cotidianas de la percepción remota, ya desde el siglo XIX comenzó a ser sustituído por un mecanismo
que lo imitaba ofreciendo algunas ventajas como el del registro permanente de lasobservaciones: la
cámara fotográfica. Esta fue montada en plataformas tan dispares como palomas y globos aerostáticos
en un principio, luego en aviones y en épocas más recientes en las primeras plataformas orbitales. El
vertiginoso desarrollo de estas últimas, acompañadas por los avances tecnológicos paralelos llevaron a
la situación actual en que innumerables plataformas orbitan la Tierra observándola con sofisticados
sensores como escáneres multiespectrales, sensores térmicos infrarrojos, sistemas de radar y laser, etc.