Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DE INTER
COMENTARIO PREVIO
Galería d
Este texto fue preparado por el Ing.Quím. Tomás Bense como aporte a las Sextas Jornadas de imágene
Educación en Percepción Remota en el Ambito del Mercosur y Primeras Uruguayas sobre el mismo
tema, evento organizado por SELPER, Capítulo Uruguay en Noviembre de 2007. Plataform
observac
Aeropue
del mund
INTRODUCCION A LA PERCEPCION REMOTA.
CONTENIDO Imágene
satelitale
seguros
¿Qué es
10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA. percepció
remota?
APENDICE I: NOCIONES BASICAS SOBRE SENSORES DE RADAR.
¿Qué es
APENDICE II: BANDAS ESPECTRALES DE ALGUNOS SATELITES ACTUALES. imagen
satelital?
APENDICE III: BIBLIOGRAFIA SUGERIDA.
Uso del G
FIG 2
2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS OTROS IT
DE INTER
Forestació
Estudios d
viabilidad
Mercados
futuros
Cultivo de
arroz
Nuestra m
Nuestros
servicios
¿Qué es la
percepció
remota?
.
¿Qué es u
imagen
La concepción corpuscular permite explicar ciertos hechos experimentales como el efecto satelital?
fotoeléctrico y la absorción de radiación por las moléculas y consiste en concebir la radiación
como un haz de corpúsculos llamados cuantos de radiación o fotones que se desplazan en la Uso del G
dirección del haz con la velocidad de la luz.
Las concepciones ondulatoria y corpuscular de la radiación se concilian en la relación de Estación
rastreador
PLANCK:
Pasturas
Monitoreo
incendios
Sequías
Recursos
naturales
La relación de Planck permite que un haz de radiación de determinada frecuencia (o longitud
de onda) sea interpretado como un flujo de cuantos de determinada energía. Cultivo de
En la Fig. 5 se representa el espectro electromagnético. Obsérvese que la región visible del tabaco
espectro electromagnético representa sólo una pequeña
fracción de éste. Por razones de practicidad se utilizan diferentes
unidades de longitud de onda según la región espectral considerada. En nuestro estudio,que se
centrará fundamentalmente en las regiones conocidas como visible e infrarrojo nos bastará con
recurrir a los micrómetros o micras (1 µm= 10-4 cm)o a los nanometros (1 nm = 10-3 µm).
Para las regiones de radar convendrá referirse a centímetros.
Obsérvese que la región visible del espectro electromagnético representa sólo una pequeña
fracción de éste.
Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la región
espectral considerada. En nuestro estudio, que se centrará fundamentalmente en las regiones
conocidas como visible e infrarrojo nos bastará con recurrir a los micrómetros o micras (1
µm= 10-4 cm) oalos nanometros (1 nm = 10-3 µm). Para las regiones de radar convendrá
referirse a centímetros.
INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE
LOS ESPECTROS.
energía rotacional, asociada a las rotaciones de la molécula en torno a ciertos ejes y energía
electrónica, asociada a los electrones contenidos en la molécula: algunos de tales electrones
participan decisivamente en los enlaces químicos intramoleculares. Salvo la energía
translacional las demás formas de energía están sujetas a severas restricciones impuestas por la
Mecánica Cuántica,
no pudiendo adoptar sino ciertos valores discretos de energía que se denominan niveles
energéticos. La Fig. 6 esquematiza una distribución de niveles energéticos para una molécula
hipotética.
Con A y B representamos dos niveles electrónicos, que son los que involucran un mayor
diferencial de energía. Cada uno de ellos posee sus propios niveles vibracionales v y a su vez
éstos poseen una estructura “fina” rotacional r.
En la misma figura se representa una transición entre los dos niveles electrónicos., Esta puede
iniciarse y terminar en diversos niveles vibracionales o rotacionales de ambos niveles
electrónicos, siempre que ciertas reglas de selección de la Mecánica Cuántica autoricen tal
transición. Para nosotros el hecho más importante a destacar es que los patrones de niveles
energéticos como el representado en la Fig 6 son específicos de cada especie atómico-
molecular.
En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares suelen
encontrarse en sus niveles energéticos más bajos, pero por el aporte de diversas formas de
energía (eléctrica, térmica, electromagnética, etc.) pueden ser excitados a niveles energéticos
superiores. Si la energía suministrada al sistema es suficiente podrá provocar transiciones entre
niveles electrónicos, usualmente
La forma de dicha curva depende del patrón de niveles energéticos del objeto irradiado y
siendo dicho patrón altamente específico para el sistema atómico molecular del objeto
irradiado, es decir de su estructura química, la curva espectral de éste constituye algo así
como una impresión digital o firma espectral del objeto en cuestión permitiendo su
identificación.
INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA
SUPERFICIE TERRESTRE.
Cuando la radiación incide sobre un dado objeto de la superficie terrestre pueden considerarse
los tres tipos fundamentales de interacciones que se representan en la Fig.8 con el
correspondiente balance energético según la ley de la conservación de la energía
Es decir que la energía incidente se fracciona en varios componentes: energía reflejada,
absorbida y/o transmitida, siendo todos estos componentes dependientes de la longitud de
onda. Conviene aquí destacar dos puntos:
• La proporción de energía reflejada, absorbida o transmitida variará con los diferentes objetos,
dependiendo del tipo de material que compone dichos
objetos así como de su condición.Esto permite identificar diferentes objetos en una imagen.
Como puede observarse (a) (b) también en la Fig. 9 (c) en el caso de la reflexión difusa la
radiación penetra hasta cierta profundidad en el material y tiene oportunidad de interaccionar
con los componentes químicos de éste. La radiación reflejada en forma difusa posee pues más
información que la especular acerca
del objeto irradiado. Obviamente, en Percepción Remota será pues particularmente importante
medir las propiedades de la reflectancia difusa de los objetos terrestres. Las características del
fenómeno de reflexión por parte de un objeto sobre la superficie terrestre puede ser
cuantificada midiendo la porción de energía incidente sobre el objeto que es reflejada por éste.
Podemos entonces definir la Reflectancia Espectral como
Dada su simplicidad y claridad el concepto de superficie lambertiana se utiliza usualmente como una apro
comportamiento óptico de los objetos observados por percepción remota. Sin embargo, esta es una aproxi
veces se cumple para las superficies naturales, particularmente cuando el sensor opera fuera del nadir,
es decir, en observaciones laterales. En
efecto, las propiedades de reflectancia de un
objeto pueden variar, no sólo con la longitud VER TAMBIEN
de onda sino también con los ángulos de
irradiación y de observación. Se define así Galería de imágenes satelitales
una Función de Distribución de Reflectancia
¿Qué es la resolución espacial?
Bidireccional (BRDF: bidirectional
reflectance distribution function) que no es Aplicaciones en Mercados de futuros
sino la reflectancia espectral de un objeto
Monitoreo de incendios en pozos de petróle
Dada la importancia de la reflectancia espectral en Percepción Remota creemos interesante analizar aquí la
espectrales de algunos objetos que aparecen muy frecuentemente en las aplicaciones de esta tecnología: ve
agua. En la Fig. 11 se representan las correspondientes curvas de reflectancia espectral.
LA REFLECTANCIA EN LOS VEGETALES
La reflectancia de los vegetales es usualmente relativamente baja en la región visible, con un máximo a ap
0.53 µm, es decir en el verde. Aumenta bruscamente en el infrarrojo (IR) para luego caer a valores muy b
baja reflectancia en el visible se atribuye a la elevada absorción de los pigmentos vegetales, principalmen
pigmentos, sin embargo, son altamente transparentes a la radiación IR, y la
elevada reflectancia en dicha región estaría determinada por la estructura interna de la hoja.
Los mínimos de reflexión a 1.45, 1.95 y 2.5 µm corresponden a la elevada absorción de las moléculas de a
la hoja. La Fig. 12 representa un corte transversal de una hoja, mostrando su estructura interna: Las superf
externa están tapizadas por una simple capa de células epidérmicas
carentes de clorofila y recubiertas por una delgada película de ceras. El tejido mesodérmico
entre las dos epidermis está formado por dos capas. La superior contiene células oblongas
dispuestas en forma regular y ordenada (tejido en empalizada). Estas células son ricas en las clorofilas a y
contenidas en cuerpos subcelulares denominados cloroplastos, componentes predominantes del grupo de
también contienen pigmentos como xantofilas y carotenos (las clorofilas reflejan el verde, las xantofilas el
rojo y los carotenos el rojo). La parte inferior del tejido mesodérmico es esponjoso, formado por células de
flojamente empaquetadas, dejando entre ellas numerosos espacios intercelulares y cavidades de aire. En la
indican posibles trayectorias para la radiación que atraviesa la hoja. Generalmente sólo una pequeña fracci
incidente es reflejada directamente por la superficie externa.pues la cutícula y la epidermis son casi transp
y al IR cercano. Otra fracción de radiación puede ser transmitida directamente a través de la hoja. Finalme
radiación sufre interacciones con la estructura interna de la hoja. Parte de ella puede ser absorbida por los
hoja ,pero una fracción importante sufre reflexiones y refracciones múltiples en el tejido esponjoso debido
diferencia de índices de refracción entre el aire (n=1.0) y las paredes de las células hidratadas (n=1.3).
Como consecuencia de tales reflexiones parte de la radiación vuelve hacia atrás, pudiendo emerger como r
reflejada. Como la clorofila es transparente al IR cercano la hoja refleja intensamente dicho rango espectra
típicamente es reflejado un 40-50% de la radiación incidente en la hoja). Resumiendo, podemos decir que
espectrales de la radiación reflejada por una hoja
en la región visible depende fundamentalmente de la absorción de radiación por parte de los pigmentos de
que en el IR cercano, en la región de 0.7 a 1.3 µm, es consecuencia primaria de la estructura interna de la h
superiores a 1.3 µm aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 µm asociados a las bandas de absorc
SUELOS.
La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores q
reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia de materia orgán
de óxido de hierro.. en particular, el contenido de humedad está estrechamente ligado a la textura: los sue
partículas grandes, usualmente están bien drenados, resultando con baja humedad y relativamente alta ref
inversa ocurre con los suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hier
reflectancia del suelo, a lo menos en la región visible.
LA REFLECTANCIA EN EL AGUA
Aborbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región como cuerpos oscu
observación y delineamiento. Para longitudes de onda visibles hay factores que complican la interpretació
reflectancia de un cuerpo
de agua puede generarse por interacción con la superficie (reflexión especular), con material en suspensión
mismo del cuerpo de agua. El agua clara absorbe poca energía con longitudes de onda por debajo de 0.6 µ
que aumenta la turbidez la reflectancia en el visible aumenta rápidamente. Igualmente la presencia de clor
fitoplancton) modifica la reflectancia del agua, efecto que se aplica al monitoreo por percepción remota de
de algas. La Fig. 13 es una imagen MODIS que permite observar los sedimentos en el Río de la Plata prov
ríos Paraná y Uruguay y que se extienden hasta aproximadamente Atlántida.
LA REFLECTANCIA EN LOS SUELOS
La curva de reflectancia espectral de suelos es más monótona que la de la vegetación. Entre los factores q
reflectancia del suelo citemos su contenido de humedad, su textura, rugosidad, presencia de materia orgán
de óxido de hierro, en particular, el contenido de humedad está estrechamente ligado a la textura: los suel
partículas grandes, usualmente están bien drenados, resultando con baja humedad y relativamente alta refl
inversa ocurre con los suelos mal drenados. La rugosidad y la materia orgánica, así como el óxido de hier
reflectancia del suelo, a lo menos en la región visible.
5. INTERACCIONES ATMOSFERICAS
La radiación registrada por sensores remotos debe realizar una trayectoria a través de la atmósfera, a cons
cual sufre variados efectos. La entidad de éstos depende del trayecto recorrido, de las condiciones atmosfé
de la longitud de onda de la radiación. En general intervienen dos mecanismos principales: dispersión y ab
En consecuencia existirá mayor tendencia a dispersar las longitudes de onda más cortas. El “azul del cielo
ausencia de él el cielo aparecería negro, pero como la atmósfera dispersa sobretodo las cortas longitudes d
de espectro visible) el cielo nos aparece azul. La dispersión de Rayleigh es una de las causas primarias de
imágenes que ven así reducida su nitidez o contraste. La dispersión de Mie se produce cuando los diámetr
son esencialmente iguales a la longitud de onda de la radiación (vapor de agua, polvo fino, etc.) y tiende a
longitudes de onda mayores que las afectadas por la dispersión de Rayleigh.
La dispersión no selectiva constituye un fenómeno mucho más molesto que los anteriores y se produce cua
partículas que producen la dispersión son mucho mayores que las longitudes de onda con que interacciona
constituyen pequeñas gotas de agua con diámetros comprendidos entre 5 y 100 mm que dispersan en igual
las regiones visible e IR cercano y medio. Al ser su dispersión no selectiva respecto a la longitud de onda
visible se dispersan en igual proporción las radiaciones azules, verde y rojas, con la consecuencia de que l
blancas.
ABSORCION
Hemos visto cómo las radiaciones electromagnéticas, fundamentalmente emitidas por el sol y reflejadas p
incluso emitidas por dichos objetos (p.ej. en el infrarrojo térmico), todas más o menos afectadas por efect
combinan generando “señales” de las cuales es posible extraer información acerca de dichos objetos
y de las coberturas terrestres. La detección
de tales señales electromagnéticas puede
efectuarse por medios fotográficos o VER TAMBIEN
electrónicos. Históricamente fueron la placa
o el film fotográfico, usualmente sobre Galería de imágenes satelitales
plataformas aéreas, los sensores remotos por
¿Qué es la resolución espacial?
excelencia. Estos, a partir de las últimas
décadas, debieron convivir con los sensores
Aplicaciones en Mercados de futuros
electrónicos, más adecuados para las
exigencias a que son Monitoreo de incendios en pozos de petróleo
sometidos sobre plataformas suborbitales y satelitales. De todos modos la detección sobre plataformas aér
sensores fotográficos o electrónicos sigue constituyendo una valiosa fuente de información en un amplio r
aplicaciones, y la decisión final sobre el uso de tal o cual tipo de plataforma debe ser cuidadosamente anal
particularmente cuando la relación costo/beneficio gravita sensiblemente sobre el presupuesto de un proye
partir de la década del 60 que comenzó el desarrollo vertiginoso de la percepción remota desde plataforma
satelitales. Distintos factores han condicionado este comportamiento que ha ido llevando a la percepción r
satelital a una etapa esencialmente comercial. El más importante de dichos factores fue seguramente la li
para aplicaciones civiles al fin de la Guerra Fría de tecnología reservada hasta entonces para uso militar. H
la observación terrestre por percepción remota se
efectuaba desde aviones o globos. En 1946 se adquirieron las primeras fotografías desde cohetes V2 captu
alemanes, siendo estas experiencias decisivas para ilustrar el potencial de la fotografía desde alturas orbita
potencial se volvió más evidente con las misiones orbitales y espaciales a partir de la década del 60: uno d
el proyecto CORONA de espionaje militar. Un número no
determinado de estos satélites de corta vida (1 a 16 días) orbitando a unos 130 km de altura y utilizando c
fotográficas de alta resolución realizó misiones de espionaje entre los años 1960 y 1972. El caudal fotográ
obtenido fue desclasificado en 1995. En la Fig. 16 se observa una imagen de las ciudades de Artigas y Qu
obtenida en el año 1965 por un Satélite Corona.
Un zoom sobre dicha imagen permite detectar objetos de10m. Entre las misiones espaciales citemos las m
Mercury, Gemini y Apolo. En particular el Apolo IX realizó la primera experiencia controlada de fotograf
multiespectral. Estas experiencias fueron continuadas en posteriores misiones (Skylab,Apolo-Soyuz, etc.)
Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital con el lanzamiento,
de E.E.U.U., del primero de una serie de satélites ópticos especialmente destinados a monitorear los recurs
terrestres. Dicha serie se llamó LANDSAT y actualmente operan Landsat-5 y Landsat-7, Fig. 17, este últim
actualmente
con serias dificultades en su sistema de barrido constituyendo un obstáculo para muchas de sus aplicacione
parte
Francia, con la participación de Suecia y Bélgica, lanzó en 1986 el primer satélite de laserie SPOT (System
l'Observation de la Terre) de la cual operan actualmente los
En los últimos años se han puesto en órbita satélites comerciales de alta resolución espacial como el Ikono
el Quickbird (Fig.21) y el Orbview-3 (Fig.22). Las órbitas de estos satélites son más bajas(680 y 450 km)
resoluciones espaciales alcanzan a 1 m y 0.6m. La Fig. 23 permite apreciar visualmente en imágenes de u
agrícola el efecto de la resolución espacial.
Como una posibilidad ofrecida por los últimos desarrollos espaciales debemos mencionar la adquisición d
desde la Estación Espacial Internacional (ISS) (Fig. 24) que vino a sustituir a la estación rusa MIR, que de
destruida al cabo de su vida útil.
SATELITES METEOROLOGICOS Y AGROMETEOROLOGICOS
Numerosos satélites orbitan actualmente la Tierra en misiones de observación no sólo de las coberturas te
atmósfera, sus océanos,etc., y en general investigando la interacción de los dinámicos sistemas geofísicos
sofisticados instrumentos para cumplir
dichas misiones.Queda fuera del alcance
de nuestro estudio referirnos a la extensa VER TAMBIEN
lista de dichas plataformas y sus
instrumentos. De todos modos nos Galería de imágenes satelitales
referiremos a dos ejemplos notables de
¿Qué es la resolución espacial?
tales plataformas: los satélites TERRA (y
su gemelo AQUA) y ENVISAT. TERRA Aplicaciones en Mercados de futuros
es un satélite multinacional de
investigación científica de la NASA. Monitoreo de incendios en pozos de petróleo
Recorre una órbita solar-sicrónica y es
Imágenes satelitales y seguros
la “nave insignia” del Earth Observing System de la NASA. Fue puesto en órbita en febrero del 2000 y tra
bordo cinco sensores remotos destinados a medidas terrestres ambientales y de cambios en el sistema clim
ENVISAT , lanzado en el 2002 en órbita solar-sincrónica y operado por la ESA es posiblemente el mayor
observación construido hasta el momento (8000 kg). Transporta a bordo 10 sofisticados sensores ópticos y
para monitorear permanentemente las cubiertas terrestres y oceánicas, la atmósfera y los casquetes polares
regiones visible e infrarrojo cercano, medio o térmico del espectro electromagnético. Los sistemas óptico-
del satelite enfocan las escenas terrestres sobre arreglos de tales detectores y las señales analógicas genera
éstos son digitalizadas para su retransmisión, sea a otros satélites geosincrónicos sea a estaciones rastread
terrenas. Estas posibilidades se esquematizan en la Fig.26.
Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si ésta está en la línea
del satélite (A).
En caso contrario la información puede ser almacenada a bordo de B para su posterior retransmisión a una
terrena. B puede también enviar sus datos a un sistema satelital repetidor que consiste en una serie de saté
comunicaciones en órbita geosincrónica. Los datos son enviados de un satélite repetidor C) a otro hasta al
estación terrena adecuada.
7. SENSORES
7.1. Consideraciones generales. Hemos visto cómo la radiación electromagnética es portadora de la inform
acerca deaquellos materiales u objetos de interés en percepción remota. Pero para adquirir y luegopoder pr
dicha información son necesarios ciertos dispositivos denominados sensores. Existen gran número de sens
destinados a numerosas aplicaciones, muchas de las cuales caen fuera del área específica de nuestro
de partículas negativas (electrones). Estos electrones pueden fluir desde la placa generando una señal elect
magnitud de la corriente eléctrica producida (número de fotoelectrones por unidad de tiempo) es directame
proporcional a la intensidad luminosa. La energía cinética de losfotoelectrones emitidos varía con la longit
asociada a los fotones incidentes. Sinembargo, debe tenerse en cuenta que diferentes materiales que manif
fenómeno fotoeléctrico liberan fotoelectrones bajo diferentes intervalos de longitudes de onda: cada uno d
presenta un umbral de longitudes de onda para el que el fenómeno se manifiesta y otro umbral de longitud
para el que el fenómeno cesa. Los sensores que aquí nos interesan son del tipo pasivo, caracterizados porq
radiación que llega a ellos proviene de una fuente externa (p.ej. el Sol). Además, los electrones liberados s
de inducir la formación de una imagen cuando son recogidos pordispositivos adecuados de detección (dete
Como los sensores son instrumentos capaces de medir cuantitativamente la radiación electromagnética en
determinadas regiones del espectro se denominan radiómetros. Cuando este sensor incluye además un com
del tipo de un prisma o red de difracción o filtros de interferencia que pueden dispersar la radiación de una
región del espectro en longitudes de onda discretas que
son dirigidas hacia los detectores se denomina espectrómetro. Cuando la radiación es dispersada no en lon
onda discretas sino en bandas espectrales más anchas, es decir cubriendo ciertos intervalos de longitudes d
término más conveniente para el sensor es espectroradiómetro. Este es el caso más usual en los sensores
aeroespaciales. Como en general estos sensores se desplazan barriendo la escena estática que están observ
que operan en modo de barrido o escaneado (scanning mode). Podemos distinguir dos categorías de estos
los óptico- mecánicos y los óptico-electrónicos. Los primeros se caracterizan por tener un componente me
un espejo rotativo que opera en el barrido de la escena, mientras que los segundos el mismo sistema óptico
radiación sobre un arreglo lineal de detectores.
7. SENSORES (continuación)
Otra característica que conviene distinguir en los sensores remotos es la manera como ellos
registran la información a medida que avanzan según su trayectoria u órbita. En general el
área barrida se extiende a ambos lados de la trayectoria (swath width) y su anchura queda
determinada por la óptica del sistema por ej. por el telescopio que debe llevar el sistema
para observaciones desde cientos de kilómetros de altura y determina el campo de visión (Field of View o
dos principales opciones de barrido se esquematizan en la Fig. 27. El modo cruzado con la trayectoria (cro
whiskbroom mode) normalmente utiliza un espejo rotatorio u oscilante, es decir que constituye un sistema
óptico-mecánico. Este barre la escena a lo largo de una línea simple (o múltiple) transversal a la trayectori
es muy larga (kilómetros) pero muy angosta (metros).
Cada línea se subdivide en una secuencia de elementos espaciales individuales cada una de las cuales repr
pequeña área de la escena terrestre que se examina.
O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las cuales refleja radiaci
son sensadas secuencialmente a lo largo de la línea. En el sensor cada una de estas celdas está asociada a u
picture element) ligado a un detector microelectrónico y se caracteriza por un dado valor de radiación que
efecto fotoeléctrico genera una corriente electrónica.
El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a dicho píxel, queda d
por el Campo de Visión Instantánea del sensor (Instantaneous Field of View – IFOV).
El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al área terrestre que e
midiendo en cada instante. El IFOV es función de la óptica del sensor, del tamaño del detector, de la altitu
plataforma, etc. Los electrones emitidos son recogidos sucesivamente, píxel por píxel, generando una señ
que representa la variación espacial de la radiación
por el muestreo progresivo que el sensor va efectuando sobre la escena terrestre estudiada. Esto permite as
cada píxel un valor discreto llamado Número Digital (DN – digital number). Estos números digitales resul
convertir las señales analógicas generadas por el detector en valores digitales constituidos por números en
cubren un intervalo finito, por ejemplo 28 cubriendo el intervalo de 0 a 255. Estos valores digitales permit
construir la imagen a través de dispositivos adecuados, por ejemplo el monitor de una computadora. En el
barrido en la dirección de la trayectoria (along track pushbroom) no existe espejo oscilante, sino un arreglo
pequeños detectores cuyas minúsculas dimensiones permiten que se asocien hasta miles de ellos en dicho
sistema de filtros incorporado al arreglo permite seleccionar las longitudes de onda. Cada detector es un di
de acoplamiento de carga (Charge-Coupled Device – CCD –ver más adelante).
En este modo de barrido, los píxeles que constituirán la imagen final corresponden a estos microdetectore
correspondientes filtros incorporados en el arreglo lineal. A medida que la plataforma avanza en su órbita
radiación proveniente de las celdas terrestres a lo largo del campo de visión del satélite llega simultáneam
correspondientes detectores. La señal generada por cada detector es removida en milisegundos, siendo el
reseteado a cero quedando pronto para recibir la radiación proveniente de la nueva línea del campo de visi
7. SENSORES (continuación)
7.2 Naturaleza de los detectores. En los primeros tiempos de la percepción remota los detectores eran del t
fotomultiplicadores. Actualmente la mayoría de los detectores son de estado sólido, constituido por aleacio
metales semiconductores. Estos poseen una conductividad eléctrica intermedia entre la de un metal y la de
aislador.
En condiciones normales o no
excitados estos semiconductores poseen sus
electrones en un nivel de energía VER TAMBIEN
completo (desde el punto de vista de la
configuración electrónica del modelo Galería de imágenes satelital
atómico mecánicocuántico). Bajo ciertas
¿Qué es la resolución espacia
condiciones, como la interacción con
fotones, electrones de dicho nivel son
Aplicaciones en Mercados de fu
excitados a otro nivel denominado banda de
conducción. La resistencia a esta Monitoreo de incendios en pozos de
transferencia varía
Imágenes satelitales y seguro
inversamente al número de fotones incidentes. Diferentes materiales responden de distinta manera a las di
decir, a la energía de los fotones), lo que los hace espectralmente selectivos. Es así que para la región visib
silicio y de PbO (óxido de plomo), en el infrarrojo cercano PbS (sulfuro de plomo) e In-As (indio-arsénic
µm) InSb (indioantimonio) y en el infrarrojo térmico (8 –14 µm) Hg-Cd-Te (mercurio-cadmio-teluro). Est
muy bajas temperaturas para optimizar la eficiencia de la emisión electrónica. Uno de los dispositivos que
adquirido gran importancia es el detector de acoplamiento de carga (charge-coupled device – CCD).
Un CCD está formado por un material fotosensible embebido en un chip de silicio. Se genera en éste un fo
electrones liberados por los fotones incidentes en el chip posteriormente a su enfoque y filtración por el si
fotosensibles del chip pueden llegar a ser muy pequeños, del orden de 1µ de diámetro. Estos elementos pu
a través de microcircuitos para formar arreglos lineales o bidimensionales. Puede llegar a prepararse arreg
longitud con hasta 1000 detectores individuales.
La Fig. 29 muestra una imagen obtenida con un microscopio electrónico de un fragmento de un arreglo lin
<< PAGINA ANTERIOR - IN
SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR
7.3 Estudio de dos casos: LANDSAT y SPOT. Para profundizar algo el estudio de los mecanismos de re
datos por percepción remota hemos seleccionado como ejemplos típicos los casos de dos plataformas clási
respectivas familias han
contribuido y siguen contribuyendo
decisivamente a las aplicaciones prácticas de
esta disciplina: LANDSAT y SPOT. El VER TAMBIEN
primer caso es un ejemplo típico
whiskbroom y el segundo de pushbroom. En Galería de imágenes satelitales
la Fig 30 se representa el esquema óptico del
¿Qué es la resolución espacial?
sensor TM (Thematic Mapper) diseñado para
Landsat-4 y Landsat-5. Nota.- Aplicaciones en Mercados de futuros
Posteriormente se desarrolló el ETM
(Enhanced Thematic Mapper) para el Monitoreo de incendios en pozos de petróle
Landsat-6 , que se perdió en el
Imágenes satelitales y seguros
lanzamiento. El actual Landsat-7, que permanece operativo junto con el Landsat-5, lleva a bordo el ETM+
Thematic Mapper Plus). Este último, aunque similar, presenta mejoras frente al TM, por ejemplo una band
de 15 m de resolución y una mayor resolución de las bandas infrarrojas térmicas. Sin embargo, un defecto
irreparable en el sistema óptico ha reducido mucho la eficiencia de sus aplicaciones.
<FALTA FIGURA 30
Este sensor está diseñado para tomar imágenes en el nadir, es decir imágenes de areas terrestres ubicadas
debajo del sensor. El escaneado lo realiza un espejo oscilante bidireccional que permite un ancho de barri
telescopio dirige la radiación hacia un corrector de las líneas barrido (SLC-scan lines corrector). Este últim
para corregir el efecto acumulado del desplazamiento del satélite en su órbita y el barrido cruzado realizad
El SLC es un sistema de espejos que rota perpendicularmente al espejo de barrido y compensa el efecto or
corrección la radiación incide en el plano focal primario donde se encuentran los detectores para visible e
con sus correspondientes filtros espectrales (bandas 1 a 4). Una parte de la energía es redirigida por un rela
plano focal refrigerado (91ºK) para infrarrojo medio y térmico donde se encuentran los correspondientes d
sus filtros. Los detectores para visible e infrarrojo cercano son de silicio organizados en 4 líneas de 16 det
Para las bandas 5 y 7 (IR
medio) los detectores son de antimoniuro de indio organizados cada uno en líneas de 16 detectores. Por su
de infrarrojo térmico es un arreglo de cuatro detectores de telururo de cadmio y mercurio. El IFOV del TM
para las
bandas 1-5 y 7, y de 120x120m para la banda infrarroja térmica. En el ETM+ del Landsat-7 este último va
mejorado a 60x60m. La familia SPOT está constituida por 5 satélites (SPOT-1, lanzado en 1986 hasta el S
en el 2002) de los cuales están operativos los miembros 1,2,4 y 5. Todos se caracterizan por el sistema pus
barrido. Los sensores de estos satélites HRV (High Resolution Visible) para 1,2 y 3 y HRVIR (High Reso
Infrared) para 4 y 5 se caracterizan por estar duplicados en cada satélite y por poder ser orientados indepen
efectuar observaciones con distintos ángulos. En la Fig. 31 se esquematiza un SPOT con sus dos instrumen
nadir. Cada uno de ellos cubre una línea de barrido de 60 km. En la Fig. 32 se esquematizan las posibilida
observación de cada sensor.
La radiación reflejada desde el terreno entra al HRV o HRVIR vía un espejo plano y un telescopio la proy
arreglos CCD de 6000 detectores cada uno dispuestos linealmente (ver Fig. 29). Cuando los dos instrume
directamente el terreno
debajo del sensor se pueden disponer de modo de cubrir fra
de visión total de 117 km y una sobreposición de 3 km. Sin
seleccionar desde la estación operadora terrestre ángulos de
esta manera es posible observar desde una posición centrad
la trayectoria del satélite cualquier región de interés dentro
franja terrestre de 950 km. Esto hace que, pese a que el saté
de 26 días, puede observar una misma área en intervalos de
cercanas realizando observación oblicua. También pueden r
pasajes en días sucesivos de modo que las dos imágenes sea
ambos lados de la vertical (Fig.33). Se obtienen así imágene
SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HRVIR
7.3 Bandas Espectrales de LANDSAT TM y SPOT HRVIR. En la Tabla siguiente se presentan los rangos
longitudes de onda abarcados por las bandas espectrales de estos satélites:
Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de zonas con alteraciones
hidrotérmicas en rocas.
7. RESOLUCION
7.4 Resolución. Los sistemas de percepción remota difieren en la resolución, es decir, el nivel de detalle co
pueden capturar las imágenes, su frecuencia temporal, “finura espectral”, etc.. Desde este punto de vista po
considerar cuatro diferentes tipos de resolución: espacial, espectral, radiométrica y temporal.
7.4.1 Resolución espacial. La resolución
espacial se refiere a la finura de detalles
visibles en una imagen: cuanto menor es el VER TAMBIEN
área terrestre representada por cada píxel en
una imagen digital mayores son los detalles Galería de imágenes satelitales
que pueden ser captados y mayor es la
¿Qué es la resolución espacial?
resolución espacial. En las Figs. 26 a, b y c
se observan imágenes de una misma región a Aplicaciones en Mercados de futuros
tres diferentes resoluciones espaciales (baja,
mediana y alta, Monitoreo de incendios en pozos de petróle
7.4.2 Resolución espectral. Ya vimos cómo los sistemas de percepción remota están usualmente diseña
imágenes en determinados rangos de longitudes de onda denominados bandas o canales. Dependiendo d
pueden seleccionarse sensores con bandas relativamente estrechas o anchas. La resolución espectra
7.4.3 Resolución radiométrica. Resolución o sensibilidad radiométrica hace referencia al número de nivele
utilizados para expresar los datos recogidos por el sensor. En general, cuando mayor es el número de nivel
detalle con que se podrá expresar dicha información. En las Figs. 37 y 38 se representan dos casos bien
etc. El puente también se llega a distinguir en la Fig. 37 dado el elevado contraste con el agua del río.
En la Sec. 7.1 ya mencionamos los números digitales (DN) asociados a cada píxel en las imágenes digital
lo que llamamos escala de grises que en realidad es la escala de niveles digitales disponibles para represen
la imagen. El número de niveles de grises se expresa comúnmente en términos de dígitos binarios (bits) n
almacenar el valor del nivel de gris máximo para el caso considerado.
Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores 1y 0. Usando un a
puede representarse un número cualquiera dentro de los límites de “longitud de palabra” de la computador
imagen de pantalla con variaciones de brillo prácticamente continuas desde el punto de vista visual se nec
por píxel.
El número de valores que pueden ser representados por una serie dígitos es xn , donde x es el número de v
dígito puede representar y n es el número de dígitos usados. En una base binaria el número de valores será
para 5 bits tendremos 32 valores, para 8 bits 256 valores, para 11 bits 2048, etc. En el caso del Landsat y e
8 bits, es decir, la escala de grises se extiende de 0 a 255, totalizando 256 valores.
SATELITES - RESOLUCION TEMPORAL
7.4.4 Resolución temporal. La Resolución Temporal es una medida de la frecuencia con la que un satélite
obtener imágenes de una determinada área. También se denomina intervalo de revisita. Altas resoluciones
importantes en el monitoreo de eventos que cambian en períodos relativamente cortos, como inundaciones
relativamente baja. En efecto, como sólo registra imágenes en el nadir para volver a registrar una dada áre
esperar que vuelva a recorrer la misma órbita, lo cual ocurre cada 16 días. Esto puede apreciarse en las Fig
En la Fig. 39 vemos que las características orbitales del LANDSAT hacen que la distancia entre el trazado
órbitas consecutivas sea de 2752 km en el ecuador. En la Fig. 40 se observan las órbitas recorridas en días
intervalo de tiempo entre órbitas adyacentes es de 7 días. De todos modos como LANDSAT-5 y LANDSA
están defasados 8 días, cuando ambos satélites se encuentran operativos puede lograrse para una dada reg
LANDSAT cada 8 días.
Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden orientarse según difer
con lo cual pueden registrar imágenes no sólo en el nadir sino también a través de enfoques laterales, front
Esto permite lograr períodos de revisita mucho más cortos, incluso de dos o tres días. Otro ejemplo de sa
resolución temporal lo constituyen los de la serie NOAA con sus sensores AVHRR.
Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria global diurna y noctur
debe tenerse en cuenta que la resolución espacial de éstos es de 1 km, es decir mucho menor que la de los
anteriormente mencionados. De todos modos, su elevada resolución temporal, los hace sumamente útiles e
ambientales o agrometeorológicos sobre áreas muy extensas. Estas características son compartidas con el i
MODIS a bordo de los satélites TERRA y ACQUA sobre áreas muy extensas. Estas características son co
instrumento MODIS a bordo de los satélites TERRA y ACQUA.
SATELITES: ESCALA Y RESOLUCION ESPACIAL
Los conceptos de escala y resolución espacial están estrechamente relacionados con el grado de detalle co
visualizar una dada imagen. Sin embargo difieren en ciertos aspectos que conviene puntualizar.
7.5.1 Escala. La escala de una imagen o de
un mapa hace referencia a la diferencia
relativa de tamaño o distancia entre los VER TAMBIEN
objetos de la imagen y los reales terrenos.
Esta diferencia se expresa como la relación Galería de imágenes satelitales
entre la distancia sobre la imagen y la real
¿Qué es la resolución espacial?
terrena.. Así por ejemplo, una escala de 1:
100000 significa que 1 cm en el mapa o
Aplicaciones en Mercados de futuros
imagen corresponde a 100000 cm (1 km)
sobre el terreno. Monitoreo de incendios en pozos de petróle
Los siguientes son ejemplos de escalas y las correspondientes distancias terrenas para tres distancias medi
mapa o imagen:
Un cálculo similar puede efectuarse para áreas. Así, para una escala 1:10000 un área de 1mm x 1mm en e
corresponde a 0.01 ha. sobre el terreno. Igualmente, un área de 5cm x 5 cm sobre el mapa corresponde a u
sobre el terreno. Es común referirse a una escala diciendo que es mayor o menor que otra escala. Sin emb
de expresarse puede llevar a confusiones. En efecto, una escala de por ejemplo 1:100000 suele llamarse “
y una escala de 1:40000 “escala de 40000”. Sin embargo la primera es menor que la segunda, ya que el nú
es menor que el de 1/40000. Lo mejor sería decir que 1:100000 es una escala “gruesa” y 1:40000 una esc
Para calcular la escala desconocida de una imagen o un mapa es necesario comparar la distancia entre dos
referencia conocida y los mismos dos puntos sobre el mapa o imagen de escala desconocida. La referenci
imagen o mapa de escala conocida o una distancia medida sobre el terreno. El método de cálculo difiere se
sea una imagen o mapa o bien una
medida sobre el terreno. En el primer caso la fórmula a aplicar es:
ED = DD / DR * ER
donde ED: escala desconocida a calcular; DR: distancia entre dos puntos medida sobre la imagen o mapa
DD: distancia entre los mismos dos puntos medida sobre la imagen o mapa de escala desconocida. Ejemp
Un mapa topográfico a escala 1:100000 se usará para determinar la escala de una imagen
satelital. Se seleccionan dos puntos que pueden ubicarse fácilmente sobre la imagen y el
mapa. La distancia entre ellos en el mapa topográfico es de 8.3 mm y en la imagen es de
40.0 mm. La escala de la imagen será
ED= MD/RD
donde ED: escala desconocida a calcular; RD: distancia entre dos puntos medida sobre el
terreno; MD distancia entre los mismos dos puntos medidos sobre el mapa o imagen Nota.
Las unidades de RD y MD deben ser las mismas.
7.5.2 Escala vs. Resolución Espacial. Ya vimos (Sec. 7.4.1) que la resolución espacial de una imagen es
del tamaño del pixel expresada en términos de dimensiones sobre el terreno. Usualmente se presenta por
correspondiente a la longitud de un lado del cuadrado correspondiente a dicho pixel. Así, una resolución e
significa que el pixel representa un área de 30 m x 30 m sobre el terreno. Si el pixel fuera rectangular deb
ser representado por su largo y ancho, por ejemplo 56 m x 79 m. La resolución espacial es una indicación
detalle que ofrece una imagen. Si una imagen de satélite de 1 m de resolución se imprime a una escala de
perdería el potencial de detalle que ofrece dicha imagen. La inversa también es cierta: si se imprime una im
resolución espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles individuales. Cuando e
“zoom” repetido sobre una imagen digital (es decir, cuando vamos “afinando” la escala) llega un moment
comienzan a visualizarse los pixeles, y a partir de ese punto aunque sigamos afinando la escala no se aum
nivel de detalle llegando a dificultarse su interpretación.
8. ESTRUCTURA DE LAS IMÁGENES DIGITALES
Antes de encarar el procesamiento de las imágenes satelitales entendemos conveniente resumir aquí una s
básicos ya considerados previamente acerca de las imágenes digitales, así como ampliarlos con otros que
posteriores etapas de este estudio.
Estos valores pueden ser modulados para producir en la pantalla de una computadora un escala de grises q
negro (DN=0) hasta el blanco (DN=255). O sea que para cada pixel en una escena que consta de k bandas
asociados k niveles de grises. Estos definen un espacio espectral k dimensional en el que cada pixel es rep
vector que constituye su firma espectral y que permitirá, a través de operaciones de clasificación basadas e
matemático-estadísticos, asignar dicho pixel a clases temáticas definidas. El área terrestre representada po
determinada por la altura del sensor y los parámetros de diseño de éste, particularmente el campo de visión
(IFOV). Obviamente al reducirse dicha área más detalles de la imagen serán aparentes, es decir que aumen
espacial.
En esta rápida revisión no ha aparecido nada esencialmente nuevo acerca de los conceptos que ya se había
previamente. Sin embargo, vamos ahora a profundizar algo más acerca de la estructura espectral de un pix
lo que hemos visto, un pixel es una unidad espacial arbitraria cuyas propiedades básicas (tamaño, forma, u
principalmente definidas
por variables dependientes del sensor y no directamente por las propiedades del terreno. Sin embargo, deb
que de acuerdo a las características del terreno (textura, coberturas, etc.) el área abarcada por un pixel pued
un tipo de objetos o clases temáticas, por ej. arbustos, pasturas, suelo descubierto, agua, etc. Evidentement
reflejada correspondiente a dicho pixel que llega al detector estará compuesta por las contribuciones de las
espectrales de las clases temáticas que incluye, tal como se esquematiza en la Fig. 42:
8. ESTRUCTURA DE LAS IMAGENES DIGITALES (continuación)
O sea que desde el punto de vista espectral se trata de un pixel mezclado. Conociendo los espectros puros
clase que incluye el pixel (obtenido de bibliotecas adecuadas o de ensayos de laboratorio previos), a travé
desmezclado se puede efectuar un análisis subpixel para estimar la proporción de las diferentes clases
Este desmezclado espectral suele basarse en la suposición de que la respuesta espectral xp de un pixel p es
ponderada de las respuestas espectrales de sus clases componentes. Matemáticamente esto se expresa a tra
ecuación
donde E es una matriz de k por c en la que k es el número de bandas espectrales del sensor y c el número d
vector de longitud c que expresa la cobertura proporcional de clases en el área representada por el pixel y e
residual. Las columnas de la matriz E son las respuestas espectrales de las clases . Así definido el modelo
ser utilizado para estimar la composición por clases del pixel, representada por f, a través de su respuesta e
restricciones del modelo son
También relacionado con la composición espectral del pixel existe un problema significante
aunque usualmente ignorado. En efecto, se demuestra que una proporción importante de la
señal que aparentemente proviene del área de terreno representada por un dado pixel
proviene de los pixeles vecinos, tal como se esquematiza en la Fig. 43. Aunque los pixeles de una imagen
aparecen cuadrados, la radiación que se ha
registrado y que define la composición espectral de dichos pixeles proviene de un área
circular (o elíptica si el sensor no observa directamente el nadir) aproximadamente doble del
área cubierta por la proyección del pixel.
A pesar de que los detectores del sensor son más sensibles en el centro del FOV del detector (lo que hace q
parte de la radiación capturada provenga del área cubierta por el pixel) la radiación proveniente de los pix
una contribución significante al valor del pixel. Este efecto es consecuencia de muchos factores, incluyen
instrumento, del detector, de la electrónica asociada así como incluso de efectos atmosféricos.
Los efectos atmosféricos, particularmente en el caso de que la atmósfera presente niebla, se debe a que las
ésta desvían los fotones de su trayectoria recta.
Esto hace queel sensor registre energía proveniente de objetos que no están ubicados en el campo de visió
detectores del sensor.
9. PROCESAMIENTO DE LAS IMÁGENES SATELITALES
· Preprocesamiento
· Realce
· Clasificación.
9.1 Preprocesamiento. Consiste en el procesamiento inicial de los datos crudos para corregir las distorsion
geométricas de la imagen y eliminar el ruido. Las distorsiones radiométricas obedecen a mecanismos que
valores de brillo de los pixeles y se deben fundamentalmente a interferencias atmosféricas y a efectos aso
condiciones en que se registró la escena. Esta información es muy difícil de obtener y podemos decir que l
aplicación rutinaria de estos modelos actualmente no es posible. Una aproximación sencilla y práctica a la
del efecto atmosférico se basa en la consideración de los histogramas de las imágenes espectrales. Un hist
un gráfico o tabla que muestra el número de pixeles f(DN) de una imagen que poseen un valor DN. En la
observan los histogramas para las bandas 1 a 4 del LANDSAT.
<<FALTA FIGURA 44
Como era de esperar de acuerdo a lo que vimos acerca de la relación entre longitud de onda y efectos de d
atmosféricos los valores más bajos de los histogramas corresponden a las mayores longitudes de onda: en
banda infrarroja cercana
es la que posee el valor más bajo. En esta banda los cuerpos de agua clara y las sombras topográficas pose
valor de reflectancia de cero o muy próximo a cero si no fuera por el efecto dispersivo. Se admite que el
desplazamiento del extremos inferior de los histogramas es debido fundamentalmente al componente disp
interferencia atmosférica. En efecto, suponemos que las demás bandas, particularmente cubriendo áreas ge
extensas deben poseer algunos pixeles (por ejemplo sombras topográficas o de nubes, cuerpos de agua cla
profunda, etc.) que si no fuera por el efecto atmosférico tendrían valor cero. Para apoyar esta suposición o
cómo en una escena lunar, Fig. 45, la ausencia de atmósfera hace aparecer las sombras totalmente negras.
correcciones que habría pues que hacer a las bandas 1 a 4 es restarle respectivamente los valores 42, 37, 2
Los efectos instrumentales se asocian principalmente a desajustes en las equivalencias de las curvas de re
los diferentes detectores de un instrumento (ej. diferentes valores en la “corriente oscura” y en la ganancia
curvas de respuesta). Se puede efectuar una corrección adoptando un sensor como standard y ajustando el
todos los pixeles registrados por los demás detectores de modo que los brillos promedio y desviaciones st
emparejen con los del detector de referencia.
PROCESAMIENTO DE LAS IMAGENES SATELITALES (continuación)
Las distorsiones geométricas responden a muy diversas causas y pueden clasificarse en
gsistemáticas y no sistemáticas. Las principales causas de distorsiones geométricas
sistemáticas son las siguientes:
La línea de barrido sobre el terreno no es normal a la proyección de la trayectoria sino que resulta ligerame
oblicua, produciendo una distorsión geométrica cruzada con la trayectoria.
• Velocidad del espejo de escaneado. La velocidad de éste usualmente no es constante durante un dado cic
produciendo una distorsión geométrica a lo largo del escaneado.
• Efecto panorámico y curvatura terrestre. El efecto panorámico deriva del hecho de que como para los sen
plataformas satelitales el IFOV angular es constante, el tamaño del pixel sobre el terreno será mayor en lo
de la oscilación que en el nadir. También la curvatura terrestre conduce a un efecto similar, aunque para sa
barrido poco extenso, como el LANDSAT (185 km) o el SPOT (120 km) el efecto es despreciable, a difer
que ocurre con los NOAA, con 2700 km de FOV.
ROLL YAW PITCH: Estos movimientos se definen como: balanceo (roll), cabeceo (pitch) y desvío (yaw)
obviamente. causa de distorsiones geométricas.
Algunas de las distorsiones geométricas que hemos mencionado previamente (debidas a rotación de la Tie
panorámico y curvatura terrestre, sesgo de escaneado) son bien comprendidas y pueden ser modeladas co
matemáticas que permitan su evaluación y corrección. Las restantes distorsiones geométricas pueden ser
minimizadas estableciendo una relación matemática
entre las coordenadas de los píxeles en la imagen y los correspondientes puntos sobre el terreno. Esto pued
independientemente del conocimiento que el analista pueda tener de la fuente y tipo de distorsión. Esta téc
corrección de imagen requiere la identificación de una serie de características existentes tanto en la imagen
un mapa de referencia. Estas características se denominan usualmente puntos de control de tierra (GCP, G
Control Points). Estos son usualmente detalles de la escena bien definidos y espacialmente pequeños: curv
detalles costeros, cruce de caminos o de pistas de aeropuertos, etc. Una vez que se estableció la relación m
ésta es aplicada para rectificar o reubicar cada pixel de la imagen original en su posición geométrica más c
la imagen corregida. En cuanto al ruido en las imágenes se trata de señales espúreas provenientes de diver
potenciales, desde derivas periódicas o funcionamiento defectuoso de un detector a interferencias electrón
componentes del sensor e interrupciones en las transmisión y registro de datos.
Hemos visto en esta sección que las correcciones radiométricas y geométricas constituyen un tema compl
preprocesamiento de las imágenes satelitales. Sin embargo, para tranquilidad del potencial usuario debem
que las estaciones receptoras y distribuidoras de imágenes de satélite realizan en base a la información
telemétrica recibida del mismo satélite, las correcciones radiométricas y geométricas pertinentes a dichas
PROCESAMIENTO DE LAS IMAGENES SATELITALES: EL REALCE
9.2 Realces Son procedimientos que tienden a mejorar la interpretabilidad visual de una imagen, aunque n
aumentan la cantidad de información contenida en ella. El rango de opciones de que dispone el analista pa
de imagen es virtualmente ilimitado, aunque la mayoría de estas técnicas pueden ubicarse en dos grupos:
de punto, que modifican
independientemente el brillo de cada pixel y
operaciones locales, que modifican el valor
de cada pixel basadas en el valor de los VER TAMBIEN
pixeles vecinos. Dentro de las primeras
citaremos algunas como estiramiento de Galería de imágenes satelitales
contraste y manipulaciones espectrales, y
¿Qué es la resolución espacial?
entre las segundas el filtrado espacial.
Aplicaciones en Mercados de futuros
9.2.1 Estiramiento de contraste.
Monitoreo de incendios en pozos de petróle
Este procedimiento involucra un cambio de forma del histograma reasignando los valores de los pixeles. E
a,b,c,d vemos un ejemplo de cómo, a través de una función de tranferencia lineal se puede efectuar dicha
El caso de nuestro ejemplo es el de un estiramiento de contraste lineal, donde vemos cómo el rango de va
los pixeles (20 a 127) es expandido hasta obtener el rango máximo de 0 a 255. Al expandir la escala de gr
realzar detalles sutiles de la imagen, difíciles de discriminar con la compresión inicial. El caso de contrast
que hemos descrito es el más sencillo, y puede también ser descrito por el algoritmo:
9.2.2 Filtrado espacial. Las operaciones de contraste descritas en la sección previa no alteran los datos
simplemente modifican su visualización. En el filtrado espacial, en cambio, los datos de la imagen son m
efecto, el valor de un pixel en una dada ubicación es cambiado en función de los valores de los pixe
En percepción remota las imágenes se
caracterizan por un parámetro denominado
frecuencia espacial. Esta puede definirse VER TAMBIEN
como el número de cambios que ocurren en
el valor del pixel (o brillo) por unidad de Galería de imágenes satelitales
distancia para alguna región particular de la
imagen. Si sobre una dada área de la imagen ¿Qué es la resolución espacial?
ocurren pocos cambios de brillo se considera
como un área de baja frecuencia (ej. grandes Aplicaciones en Mercados de futuros
extensiones agrícolas, cuerpos de agua
Monitoreo de incendios en pozos de petróle
extensos, etc.)
Imágenes satelitales y seguros
Si, por otra parte, los cambios de brillo son numerosos y notorios tendremos un área de alta frecuencia (ca
zonas urbanas, parcelas agrícolas pequeñas,etc.). En las imágenes de percepción remota la frecuencia espa
realzarse o deprimirse según la conveniencia del analista utilizando el filtrado espacial.
Este no es sino una aplicación de la operación general de procesamiento de imágenes denominada convolu
implica el siguiente procedimiento:
1. Se define una ventana móvil que contiene un arreglo de coeficientes o factores ponderales.Estos arreglo
como operadores o kernels, cuyo tamaño es normalmente el de un número impar de pixeles (3x3, 5x5, 7x
2. Dicho kernel se mueve a través de la imagen original, y el valor del pixel central del kernel en la image
obtiene multiplicando cada coeficiente del kernel por el correspondiente valor del pixel en la imagen orig
resultado de todos los productos resultantes . La operación se repite para cada pixel de la imagen original.
Este filtro suele ser útil para reducir ciertos patrones de ruido, como por ejemplo los efectos de ¨salt-and-p
algunas imágenes. Los filtros de alta frecuencia deprimen los componentes de baja frecuencia reteniendo
frecuencia (variaciones locales). Pueden ser utilizados para realzar bordes entre distintos objetos de una im
para hacer ésta más nítida. Una importante aplicación es en la identificación y mapeos de características g
incluyendo fallas, fracturas, monoclinas, que poseen diferentes rangos de frecuencias espaciales. Un kerne
alta frecuencia puede ser el siguiente:
Los filtros de mediana sustituyen cada pixel de la imagen por la mediana de los pixeles
vecinos. Ejemplo:
En orden crecientes los valores de los pixeles cubiertos por la ventana móvil son
Este consiste en filtrar la imagen en dos direcciones ortogonales, por ej. horizontal y vertical. Los filtros d
utilizados son:
Componente horizontal Componente vertical
Además de los filtros que hemos mencionado como ejemplos típicos se han descrito muchos otros que esc
de esta Introducción. Citemos por ejemplo los filtros gaussianos, laplacianos, de transformada de Fourier,
ANALISIS POR COMPONENTES PRINCIPALES
9.2.3 Análisis por Componentes Principales. Un problema frecuente en el análisis de imágenes multiespe
correlación existente entre ellas, es decir que contienen mucha información redundante. Esta no aporta
aumenta enormemente la carga computacional cuando dichas imágenes son sometidas a procesos mat
podemos apreciarlo en la Fig. 56, en la que se observan los dispersogramas típicos de los pares de ban
TM2/TM3 y TM3/TM4 del LANDSAT. Sólo las bandas 3 y 4 presentan baja correlación
La técnica de Análisis por Componentes Principales (PCA, Principal Components Analysis) es una tran
permite reducir esta redundancia y puede ser aplicada previamente a un análisis visual o a un proceso m
clasificación a través de algoritmos matemático-estadísticos.
donde d'1 y d'2 representan los valores del pixel luego de la transformación. Esta puede ser representada g
en las Figs. 57 a y b
Los componentes principales del conjunto de dos bandas está constituido por el sistema de combinacio
dichas bandas, que con una adecuada selección de los coeficientes aij resultarán independientes y no corr
sí. Esto se ilustra en las Figs. 57 a y b. En (a) los valores de los pixeles graficados en el espacio bidime
están notoriamente correlacionados. En (b) se observa cómo, luego de una adecuada combinación lineal
removida.
Vemos que la transformación no es sino una VER TAMBIEN
rotación en el espacio bidimensional de los
valores de los pixeles, y el ángulo de rotación Galería de imágenes satelitales
quedará determinado por la correlación entre
los valores de d1 y d2.El eje d'1 define la ¿Qué es la resolución espacial?
dirección del primer componente principal, y
el eje d'2 la dirección del segundo Aplicaciones en Mercados de futuros
componente principal. Puede observarse que
los datos a lo largo del primer componente Monitoreo de incendios en pozos de petróle
principal
Imágenes satelitales y seguros
poseen una varianza o rango
dinámico mayor que el correspondiente a cualesquiera de los dos ejes originales. Por su parte los datos a lo
segundo componente principal (eje d'2) poseen una varianza considerablemente menor que la correspondie
decir que hemos volcado la mayor parte de la información al primer componente principal. El tratamiento
generalizarlo para un sistema de N bandas, representándolo en forma matricial:
donde d es un vector columna conteniendo los N valores originales de los pixeles de d1 a dN, d' es el corr
vector luego de la transformación y A es la matriz de los coeficiente aij. . Obviamente la clave de una tran
exitosa radica en la optimización de los coeficientes aij, lo cual puede hacerse por una transformación en
principales (PCT) también conocida como transformación de Karhunen-Loeve o de Hotelling, cuyos detal
alcance de esta Introducción. En general los softwares para tratamiento de imágenes ofrecen módulos para
de transformación. En el caso de imágenes de más de tres bandas usualmente ocurre que el primer compon
incluirá cerca de 90% de la varianza total de la imagen, mientras que los sucesivos PC2, PC3,...,PCN pose
decrecientes. En general PCN será mayormente ruido.
<<FALTA FIGURA 58
COMBINACIONES DE COLORES
9.2.4 Combinaciones de color. Vimos que las imágenes satelitales suelen ser multiespectrales, es decir que
registradas simultáneamente en varias regiones del espectro electromagnético. Estas imágenes pueden ser
individualmente en escalas de grises o en imágenes coloreadas obtenidas a partir de las primeras. Estas últ
según el modelo de color RGB
( del inglés Red, Green, Blue). Este hace referencia a la composición del color en términos de la intensidad
primarios con los que se forma: el rojo, el verdey el azul. Es un modelo de color basado en la síntesis aditi
basado en la mezcla por adición de dichos primarios. Para indicar en qué proporción se mezcla cada color
valor a cada uno de los colores primarios. Así por ejemplo, para un display de
computadora de 8 bits por pixel el rango de valores posibles (o sea de DN) para cada componente de colo
En consecuencia existirán 2563 = 16.777.216 combinaciones posibles de rojo, verde y azul, y a cada pixel
combinación de color corresponderá un punto dentro del cubo de color representado en las Figs. 61 y 62 (a
extrajo un sector para mejor visualización interior).
Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del azul (0,0,255). La ausenci
decir el negro corresponde al punto (0,0,0). La combinación de dos colores a nivel 255 con un tercero a n
tres colores intermedios: el amarillo (255,255,0), el cyan (0,255,255) y el magenta (255,0,255). El blanco
tres colores primarios a su máximo nivel (255,255,255).
La escala de grises es la diagonal que une el blanco y el negro. Concretando, para preparar una combinaci
seleccionan tres bandas de interés de la escena multiespectral y computadora mediante se le asigna a cada
de los tres colores primarios.
El display nos entregará una combinación RGB correspondiente a las bandas seleccionadas y a la asignaci
bandas a seleccionar quedarán condicionadas, aparte de las posibilidades ofrecidas por el sensor del satéli
rasgos de la escena que se desea realzar, y la asignación de colores además de ser condicionada por dicho
corresponder a un criterio profesional o heurístico
del analista. De todos modos, existen ciertas combinaciones que demostraron ser de particular interés, sob
a temas ambientales y agronómicos. Dichas combinaciones son:
RGB 3,2,1
Esta combinación suele llamarse “color natural” pues involucra a las tres bandas .,visibles y se le asigna a
su verdadero color, resultando una combinación que se aproxima a los colores naturales de la escena. La v
aparece en diversos tonos de verde y los suelos en colores marrones o tostados. Además, las bandas visibl
buena penetración en los cuerpos de agua y esta combinación permite observar detalles en agua poco prof
corrientes, batimetría, plumas de sedimentos, etc.).
RGB 5,4,3
RGB 4,3,2
Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes en la imagen son sim
fotografías obtenidas con film infrarrojo color. Al asignar el rojo a la bandas 4 (NIR) resultará que todos l
desde el rojo muy oscuro al rosado pálido corresponden a vegetación: los tonos más oscuros se relacionan
de vegetación arbórea densa, como bosques, montes, etc., pudiéndose identificar algunas especies como p
Rojos claros indican cultivos y praderas vigorosas. Los rosados corresponden a vegetación poco densa co
naturales. El celeste corresponde a suelo desnudo, seco o áreas rocosas. El azul-celeste puede correspond
urbanas. El azul oscuro a negro se relaciona con agua clara en cursos o cuerpos de agua. Si éstos presentan
suspensión aparecerán con tonalidades azul-verdosas (cian). Los colores verde a verde azulado correspon
aradas o suelos descubiertos con mayor o menor contenido de humedad.
RGB 4,5,3
Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas similitudes con la c
RGB 4,3,2 . Sin embargo, al dar más peso a la región infrarroja (bandas 4 y 5) se ve realzada la diferencia
suelos y vegetales. Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá éste.
En las Figs. 63 y 64 , se presenta una imagen LANDSAT de una forestación en Paysandú. A efectos comp
imagen fue sometida a las combinaciones de color arriba mencionadas.
COMBINACIONES DE COLORES (continuación)
Las combinaciones de color que acabamos de ver (pag. anteror) hacen referencia a las bandas del LANDS
criterios son aplicables a otros satélites teniendo en cuenta las características espectrales de sus bandas. No
imágenes satelitales presentan la diversidad de bandas del LANDSAT, y en tales casos algunas de las com
La combinación de color utilizada en este caso es RGB 3,2,1 (infrarrojo medio, infrarrojo cercano, rojo). L
infrarrojas que son intensamente absorbidas por el agua permiten destacar nítidamente los contornos de lo
negro), algunos de los cuales en este período estaban desbordados, así como las zonas anegadas al oeste d
Merim (colores oscuros). Las áreas forestadas aparecen con color verdoso más intenso(Rivera, Paysandú)
el caso del ASTER (instrumento a bordo del satélite TERRA) que en el modo de resolución espacial de 20
una banda en el verde, otra en el rojo y una tercera en el infrarrojo cercano. En este caso es posible la com
3,2,1 (i.r. cercano, rojo, verde) como se aprecia en la Fig. 66, captada sobre Rincón del Bonete.
diversidad de las bandas del LANDSAT,y en tales casos algunas de las combinaciones antes referidas no p
con las escenas de dichos satélites, no obstante lo cual el analista puede intentarotras combinaciones que p
características de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-17 captada sobre e
Mayo de 2007, en un período de intensas inundaciones.
Este satélite solo posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y dos en el infrarro
combinación de color utilizada en este caso es RGB 3.2,1 (infrarrojo medio, infrarrojo cercano, rojo). Las
que son intensamente absorbidas por el agua permiten destacar nítidamente los contornos de los ríos (colo
de los cuales en este período estaban desbordados, así como las zonas anegadas al oeste de la laguna Merí
oscuros). Las áreas forestadas aparecen con color verdoso más intenso /Rivera, Paysandú). Otro ejemplo e
ASTER (instrumento a bordo del satélite TERRA) que en el modo de resolución espacial de 20 m solo pos
el verde, otra en el rojo y una tercera en el infrarrojo cercano. En este caso es posible la combinación RGB
cercano, rojo, verde) como se aprecia en la Fig. 66, captada sobre Rincón del Bonete.
9.3 Clasificación. En las etapas de procesamiento de imágenes que acabamos de discutir se busca sea corre
geométricas y realizar correcciones radiométricas eliminando formas de ruido presentes en los datos, sea a
manipulaciones de realce para mejorar la interpretación visual de la imagen. Con la clasificación llegamo
operaciones
O sea que no bastará un solo vector para representar una clase sino que caracterizarán por vectores próxim
cuyas puntas determinarán un cluster, tal como se aprecia en el
diagrama de dispersión tridimensional de la Fig. 69, en la que se han representado sólo los extremos de lo
Hasta aquí nuestro ejemplo ha sido un poco simplista en el sentido de que no hemos planteado una situaci
corrientemente y es la superposición parcial de los clusters. En estos casos se presentan dificultades para a
pixel a una u otra de las clases cuyos clusters se solapan. Este problema obliga a recurrir a soluciones de
recurriendo a procedimientos de clasificación que pasaremos a considerar. Concretando, el proceso de cla
categorizar todos los pixeles de una imagen digital asignándolos a una o más clases de coberturas terrestre
temáticas. Esta clasificación de carácter multiespectral no es sino un proceso de extracción de informació
firma espectral de los pixeles y los asigna a clases basadas en firmas similares. Para lograr la mencionada
los pixeles se recurre a clasificadores que pueden ser considerados como ciertos programas de computado
implementan estrategias específicas para la clasificación de la imagen. En el curso del tiempo se han dise
tales estrategias, y entre éstas el analista debe resolver cuál de ellas se adapta mejor a las necesidades de s
Actualmente no es posible decidir qué clasificador es el mejor para todas las situaciones dada la gran vari
y circunstancias que los trabajos de percepción remota enfrentan. En tal sentido será conveniente referirn
estrategias alternativas para la clasificación de imágenes.
IMAGENES SATELITALES - CLASIFICACION (continuación)
Cada pixel de la escena es entonces comparado con el código de cada categoría asignándole el nombre de
categoría a la que más se asimila. O sea que en el enfoque supervisado el analista define sus categorías de
examina su separabilidad espectral, mientras que en el no supervisado primero determina las clases espect
separables y luego define las clases temáticas de interés. La preferencia por uno u otro enfoque va a depen
naturaleza del problema en estudio. En los casos en que la definición de las áreas de entrenamiento y la
correspondiente codificación de las clases de interés sea satisfactoriamente realizable, el método supervisa
superior al no supervisado y será el preferido. En el caso de áreas de terreno complejas, en cambio, el méto
supervisado resultará superior al supervisado. En efecto, en este caso el analista tendrá dificultades para de
áreas de entrenamiento dada la variabilidad de la respuestra espectral dentro de cada clase. Además, el enf
supervisado es subjetivo en el sentido de que el analista intenta definir clases temáticas compuestas a vece
clases espectrales, lo que no ocurre en el método no supervisado que revela clases espectralmente distingu
de las condicionantes impuestas al algoritmo de agrupamiento (o “clusterificación”). Además, el método n
supervisado posee el potencial para revelar clases temáticas no previstas previamente.
IMAGENES SATELITALES - CLASIFICACION SUPERVISADA
9.4.1 Clasificación supervisada. Podemos definir esta clasificación como un proceso en que pixeles de id
ubicados dentro de las áreas de entrenamiento, se utilizan para clasificar pixeles de identidad desconocida.
supervisada involucra las siguientes etapas:
· Etapa de entrenamiento.
· Selección del algoritmo de clasificación adecuado y clasificación.
· Operaciones de post clasificación.
En la etapa de entrenamiento el analista selecciona áreas de identidad conocida de la cubierta terrestre de
forestaciones, suelos, etc.) delineándolas sobre la imagen digital bajo formas de rectángulos o polígonos c
numéricos quedan archivados en la computadora como regiones de interés constituyendo los “datos de en
Para realizar la selección el analista debe tener un conocimiento previo del área de estudio, sea por recono
campo,
Así por ejemplo el punto b en la Fig. 70 clasificador lo adjudicaría a clase 3, aunque la mayor variabilidad
hace pensar que tal vez sería más realista adjudicarlo a ésta.. Por tal motivo este clasificador no es muy ap
aquellos casos en que las clases espectrales están muy próximas entre sí en el espacio de medida y a la vez
varianzas.
Este clasificador es rápido y fácil de implementar. Tiene sin embargo fuentes de error asociadas al relativ
solapamiento de los paralelepípedos: un pixel puede caer dentro de más de un paralelepípedo si éstos se s
darse también el caso de que no caiga en ninguno. Estos factores quitan robustez al clasificador.
CLASIFICADOR POR MAXIMA PROBABILIDAD: MAXIMUM LIKELIHOOD
9.4.1.3 Clasificador por máxima probabilidad (maximum likelihood). Es un algoritmo paramétrico que, a d
anteriormente considerados (no paramétricos) asume alguna distribución estadística particular para las cla
El clasificador de
En las Figs. 74 a,b y c , a través de la escena de un sector de forestación se observan los Galería d
resultados de un clasificador supervisado aplicando el método de máxima probabilidad. En (a) imágenes
se observa en una combinación de color RGB 4,5,3 la imagen a clasificar. En (b) se indican,
Plataform
sobre la banda TM 3 las áreas de entrenamiento. Dichas áreas
corresponden a eucaliptus, pinos observac
y varias cubiertas de vegetación
natural y áreas taladas o suelo VER TAMBIEN Aeropuer
del mund
descubierto. En (c) se observa la
imagen clasificada a la cual se Galería de imágenes satelitales
Imágenes
aplicaron algunas operaciones satelitale
¿Qué es la resolución espacial?
cosméticas de post clasificación. seguros
En la Fig. 75 se observan los
Aplicaciones en Mercados de futuros
perfiles espectrales de las clases ¿Qué es
seleccionadas y en la Fig.76 un resolució
Monitoreo de incendios en pozos de petróleo
dispersograma en el plano
Petróleo
espectral de las bandas TM 3 y Imágenes satelitales y seguros
4. En los perfiles espectrales de
Forestac
la Fig. 75 las líneas verticales
azul y roja indican la posición de Estudios
las bandas 3 y 4. viabilidad
Las porciones de espectros comprendidas entre las dos líneas mencionadas pueden servir para
interpretar la posición de los clústeres en el diagrama de dispersión. Particularmente obsérvese Mercado
que los espectros de las clases C4 y C5 son muy similares entre sí, lo que hace que a los menos futuros
en el dispersograma de las bandas TM3 -TM4 no exista una buena discriminación entre los
clústeres de dichas clases. Cultivo d
arroz
Nuestra m
Nuestros
servicios
¿Qué es l
percepció
remota?
¿Qué es u
imagen
satelital?
Uso del G
Estación
rastreado
Pasturas
Monitore
incendios
Sequías
Recursos
naturales
Cultivo d
tabaco
máxima probabilidad es uno de los más
empleados en la clasificación supervisada y
utiliza un modelo probabilístico, VER TAMBIEN
comúnmente la distribución gaussiana
para formular sus reglas de decisión en la Galería de imágenes satelitales
categorización de los pixeles.
¿Qué es la resolución espacial?
Los parámetros necesarios para el modelo, Aplicaciones en Mercados de futuros
como la media y la matriz de covariancia se
obtienen de los datos de las áreas de Monitoreo de incendios en pozos de petróle
entrenamiento. Veamos los fundamentos de
este clasificador. Imágenes satelitales y seguros
Supongamos que una imagen posee un total de M clases espectrales que representaremos
como
El vector posición x es un vector columna de valores de brillo para el pixel. O sea que describe al pixel co
un espacio multiespectral con coordenadas definidas por el brillo. El término p(Ci | x) da la probabilidad d
correcta para un pixel en la posición x sea Ci. La clasificación se llevará a cabo según la regla:
Nuestro problema es que los p(Ci | x ) en la [1] son desconocidos. Ahora bien, si tenemos suficientes dato
entrenamiento podremos estimar una distribución de probabilidad p(x| Ci ) que describe la chance de de en
de una clase Ci en la posición x. Obviamente habrán tantas p(x | Ci ) como cubiertas o clases terrestres pr
Más tarde veremos cuál puede ser la forma de esta función de distribución. Concretando, para un pixel en
un espacio mutiespectral existirá un conjunto de probabilidades relativas de que el pixel pertenezca a cada
clases. Esta probabilidad podremos estimarla a partir de los datos de entrenamiento. Tenemos ahora una
probabilidad desconocida, p(Ci | x ), que es la que nos interesa, y una conocida p(x | Ci ) obtenible a
partir de los datos de entrenamiento. Ambas están relacionadas por el teorema de Bayes:
donde p(Ci) es la probabilidad de que la clase Ci esté presente en la imagen. Si, por ejemplo 15% de los pi
imagen pertenecen a la clase Ci entonces p(Ci) valdrá 0.15. Esta probabilidad se denomina a priori pues de
antes de la clasificación. Esta estimación usualmente es difícil de obtener, ya que el analista debe recurrir a
como reconocimiento del terreno, mapas, datos históricos, etc. Por tal motivo en la mayoría de los casos se
misma para todas las clases. En cuanto a p(x) es la probabilidad de encontrar un pixel de cualesquiera dela
posición x. Aunque para lo que sigue p(x) no va a ser importante podemos notar que
En la [3] se eliminó p(x) al ser factor común. Por conveniencia matemática definiremos funciones discrim
como
La proyección de
superficies en campana sobre el plano espectral genera dispersogramas cuyos contornos de
equiprobabilidad elipsoidales son los que se representan en la figura.
9.3.2 Clasificación no supervisada. Como ya hemos mencionado, el método no supervisado crea agrupami
clusters y el analista debe intentar asociar una clase temática a cada uno de dichos grupos. Se han propuest
algoritmos para crear estos clusters. Como ejemplo nosotros nos referiremos al conocido como ISODATA
Organizing Data Analysis Technique).
Se trata de un método iterativo
que requiere relativamente poca
intervención humana, siendo VER TAMBIEN
usual que el analista deba
especificar: Galería de imágenes satelitales
• Número mínimo de miembros en un cluster. Si un cluster contiene menos de dicho mínimo es eliminado
miembros son asignados a un cluster alternativo.
• Máxima desviación standard. Cuando la desviación standard para un cluster excede el máximo especific
número de miembros que contiene es más que el doble del mínimo especificado, el cluster se divide en otr
clusters.
• Suele también fijarse valores mínimos para las distancias entre los centros de los clusters. Cuando la dist
resulta inferior a dichos valores los clusters se fusionan.
Para ilustrar cómo procede el algoritmo ISODATA consideremos un caso bidimensional: un típico diagra
dispersión entre bandas 3 (rojo) y 4 (infrarrojo cercano) del LANDSAT.
La forma de la nube de puntos responde a la ya mencionada baja correlación entre dichas bandas. Para de
región en el espacio de dispersión utilizaremos la media, µk yla desviación standard sk de las bandas cons
Consideremos un caso hipotético de 5 vectores. Los 5 vectores se distribuirán desde la ubicación µ3-s3, µ
µ3+ s3, µ4+ s4 y constituyen los centros de los clusters iniciales. Se crea así el paralelepípedo de la Fig.
no cubre completamente la nube de puntos del diagrama de dispersión. En la primera iteración cada pixel
de datos se compara con la media de cada cluster y se asigna a aquél cuya distancia euclidiana al pixel es
Luego de esta primera iteración se calcula una nueva media para cada cluster. El proceso iterativo se
repite nuevamente para cada pixel tomando ahora como referencia las medias de los nuevos clusters. El p
continúa hasta que se cumple alguna de las condicionantes planteadas al comienzo: se alcanza el umbral d
estipulado o se alcanza el máximo número de iteraciones establecido.
Veamos ahora un caso sencillo de aplicación, para lo cual podemos volver a utilizar la imagen la Fig. 78 q
utilizamos en el caso de aplicación del método de máxima probabilidad en la clasificación supervisada. En
sin embargo, no definiremos áreas de entrenamiento sino que aplicaremos el módulo ISODATA del softw
Nuestra especificación fue la siguiente:
10 clusters, máximo 20 iteraciones, umbral de cambio: 5%, máxima desviación standard por clase:1, dista
mínima entre medias de las clases: 3 (DN), máximo número de pares de clases a fusionarse: 2.
El resultado se ve en la Fig. 79 donde se han indicado la clases identificadas como eucaliptus 1 (C.1), euc
(C.2), pinos (C.3), 2 clases de vegetación natural (C.4,5) y áreas taladas o totalmente descubiertas (C 6).
ESTIMACION DE LA EXACTITUD DE UNA CLASIFICACION - MATRIZ DE CONFUSION
9.3.3 Estimación de la exactitud de una clasificación: Matriz de confusión. En un sentido estricto ninguna
clasificación puede considerarse completa hasta que su grado de exactitud sea evaluado. Este puede defini
grado de concordancia entre las clases asignadas por el clasificador y sus ubicaciones correctas según dato
recolectados por el usuario y considerados como datos de referencia.
a tomar como referencia el conjunto de datos de entrenamiento, aunque obviamente este procedimiento co
sobreestimar la exactitud de la clasificación. Este procedimiento constituiría en realidad sólo una evaluaci
calidad de selección de las áreas de entrenamiento. También podría recurrirse a una validación cruzada ba
comparaciones con los resultados de otros clasificadores.
El instrumento más usual para evaluar la exactitud de una clasificación es la matriz de confusión, también
matriz de error o de contingencia. Esta es una matriz cuadrada de n x n, donde n es el número de clases. D
muestra la relación entre dos series de medidas correspondientes al área en estudio. La primera serie corre
datos de referencia adquiridos de observaciones de campo, inspección de estadísticas agrícolas, interpreta
fotos aéreas y otras fuentes similares. La segunda corresponde a la categorización de los pixeles realizada
clasificador para las clases de interés. En una matriz de confusión las columnas corresponden a los datos d
referencia, mientras que las filas corresponden a las asignaciones del clasificador.
A partir de una matriz de confusión pueden deducirse varios índices relativos a la exactitud de la clasifica
definir y comentar dichos índices calcularemos, computadora y software mediante, la matriz de confusión
escena LANDSAT de la Fig.80 a.
Dicha escena corresponde a un área pequeña al norte de la ciudad de San Pedro, Jujuy, Rep. Arg. registrad
noviembre de 2005. Clasificamos la imagen por el método supervisado utilizando el algoritmo de las míni
distancias. Las áreas de entrenamiento para coberturas terrestres de interés las definimos en base al exame
combinaciones RGB color natural y falso infrarrojo apoyados por el análisis de los perfiles espectrales. La
entrenamiento corresponden a las siguientes regiones:
1. Forestación
2. Cerros sin vegetación
3. Cultivos
4. Areas no cultivadas
Puesto que no teníamos suficiente información terrestre para ser empleada como referencia
en la evaluación de la exactitud de dicha clasificación,
efectuamos paralelamente una clasificación supervisada utilizando el algoritmo de máxima probabilidad y
declarándola (a efectos del presente ejercicio) nuestra fuente de datos de referencia, es decir nuestra verda
Las imágenes clasificadas por ambos métodos se presentan en las Figs. 80 b y c.
Calculada la matriz los resultados se exponen en la Fig. 81.
Fig. 81 – Tabla de valores de la matriz de confusión
STIMACION DE LA EXACTITUD DE UNA CLASIFICACION - MATRIZ DE CONFUSION (continu
Tenemos dos versiones equivalentes de la matriz: una cuyas entradas se expresan en pixeles
y otra en que se expresan como porcentajes. Obsérvese que además de las cuatro clasesde interés se introd
columna y fila correspondiente a los pixeles que no pudieron ser clasificados. Los elementos en rojo de la
indican los pixeles que
fueron correctamente
clasificados. Todos los
elementos fuera de la diagonal
VER TAMBIEN
indican errores de omisión o de
comisión. Los errores de Galería de imágenes satelitales
omisión corresponden a los
elementos no diagonales de las ¿Qué es la resolución espacial?
columnas (ej.: un total de 4105
pixeles que debieran haber sido Aplicaciones en Mercados de futuros
clasificados como “forestación”
se asignaron a varias otras Monitoreo de incendios en pozos de petróleo
clases). Los errores de comisión
corresponden a los elementos no Imágenes satelitales y seguros
diagonales de las filas
(ej.: 2440 pixeles no clasificados, 8 de forestación, 993 de cerros sin vegetación y 630 de cultivos se
incluyeronerróneamente en la clase “áreas no cultivadas”.
A partir de la matriz de confusión podemos calcular varias otras medidas de interés desde el
punto de vista de la exactitud:
Se calcula dividiendo el número total de pixeles correctamente clasificados por el número total de pixeles
referencia y expresándolo como porcentaje. En nuestro caso,
Este índice es global y no nos indica cómo la exactitud se reparte entre las diversas categorías individuale
veces las categorías individuales presentan exactitudes drásticamente diferentes pero se combinan de mod
no se refleja en la exactitud global. Examinando la matriz de confusión vemos que podemos utilizar dos m
para evaluar la exactitud de las categorías individuales:
Se calcula dividiendo el número de pixeles correctamente clasificados en cada categoría por el número to
pixeles que fueron clasificados en dicha categoría (total de la fila). Como ejemplo en nuestro caso tenemo
forestación
Se justifica este índice en el sentido de que el usuario está especialmente interesado en el porcentaje de ca
que ha sido correctamente clasificado.
Resulta de dividir el número de pixeles correctamente clasificados en cada categoría por el número de pix
referencia utilizados para dicha categoría (total de la columna). En nuestro caso tendremos para la categor
forestación,
Las medidas de exactitud que acabamos de considerar, aunque simples de usar están basadas sea en la diag
principal, sea en las filas y columnas de la matriz de confusión solamente. Estas medidas no aprovechan la
información contenida en dicha matriz considerada en conjunto. Más aún, puede ocurrir que una distribuc
totalmente aleatoria de los pixeles en las clases pueda conducir a resultados aparentemente correctos en la
confusión.
Buscando superar estos inconvenientes se ha propuesto un índice denominado coeficiente kappa. Este est
una medida de la diferencia entre la exactitud lograda en la clasificación con un clasificador automático y
de lograr una clasificación correcta con un clasificador aleatorio.
La definición conceptual del coeficiente kappa es la siguiente:
OTROS METODOS DE CLASIFICACION
9.3.4 Otros métodos de clasificación. En las secciones anteriores hemos considerado algunos de los métod
usuales de clasificación y que podríamos llamar clásicos. Existen sin embargo muchos otros métodos, tant
paramétricos (es decir que asumen alguna clase particular de distribución estadística, usualmente la distrib
normal) como no paramétricos (es decir que no hacen suposiciones acerca de la distribución de probabilid
de los datos que procesan). Aunque el alcance de este trabajo no nos permite referirnos a todos ellos, nos r
brevemente a dos de ellos, ambos no paramétricos: los neuronales y los difusos, que son ejemplos de aplic
métodos de inteligencia artificial.
9.3.4.1. Clasificador de red neuronal artificial. Desde un punto de vista operacional nuestro cerebro está c
de un enorme número, del orden de 100 billones, de unidades procesadoras simples llamadas neuronas. Ca
está interconectada a aproximadamente 10000 otras neuronas. (V. Fig.82)
Estas conexiones son complejas, y cada neurona recibe como entrada los resultados producidos por otras
a su vez envía sus señales a otras neuronas. El cerebro puede pues ser descrito en términos de un conjunto
neuronas que realizan, por mecanismos no bien comprendidos, funciones específicas como las dela visión
etc. Se trata de una red neuronal biológica.
Las redes neuronales artificiales (Artificial Neural Networks – ANN) intentan de una manera muy simple
trabajo del cerebro. Para ello crean una red de unidades procesadoras interconectadas (neuronas artificiale
de las cuales es una simple computadora que recibe señales ponderadas provenientes de otras neuronas, la
realiza una operación sencilla sobre dicha suma y el resultado lo envía a otras neuronas. En las Figs. 83 a,
representamos un ejemplo de una red neuronal básica y su modo
operativo.
Esta red tiene tres capas de neuronas: la capa de entrada (input layer) es simplemente una interfase que no
ningún procesamiento. Las capas media (“hidden layer”) yde salida
(output layer)contienen los elementos procesadores de cada nodo de la red.
En esta red hay una sola capa media, pero podrían haber más. En un caso simple de clasificación la inform
entrada serían los vectores multiespectrales de los pixeles de entrenamiento, una banda por nodo. En cada
capa media se produce una sumatoria y una transformación como se representa en la Fig.83.(b). Para cada
la capa
media llega una entrada pi ponderada sobre la cual se efectúan las siguientes operaciones:
hj es la salida del nodo j, y es dirigida a cada nodo de salida k. La salida de éste, ok, vendrá dada por las o
La función de transformación más usual es la sigmoidal, y se denomina función de activación
Esta red tiene la capacidad de aprender ajustando los pesos de sus conexiones en un proceso iterativo de
entrenamiento con patrones de referencia. Para esto utiliza un algoritmo de retropropagación del error (bac
propagation). Este es un algoritmo iterativo degradiente descendente que propaga el error hacia atrás en la
generando el reajuste
Entre sus desventajas citemos la duración de los tiempos de entrenamiento. Además, el algoritmo de gradi
descendente puede alcanzar mínimos locales (es decir un mínimo en la función que relaciona los pesos con
más que un mínimo global. También puede oscilar. Otro problema es que los valores de pesos que se aplic
inicialmente y que suelen ser valores pequeños y aleatorios influyen en los resultados
pudiendo hacer que la red converja hacia diferentes mínimos locales, con lo cual son de esperar diferentes
de clasificación. Como ejemplo de aplicación utilizaremos la misma imagen de la Fig. 78 (forestación en
Paysandú)que hemos utilizado para aplicar el método supervisado de alta probabilidad y el ISODATA. C
de entrenamiento utilizamos regiones de interés similares a las seleccionadas en los casos anteriores. Para
clasificación se utilizó una red neuronal de dos capas ocultas y 2000 iteraciones. En las Figs 84 (a) y (b) se
la imagen original y la clasificada. En la Fig.85 la gráfica muestra la evolución del proceso iterativo.
CLASIFICADORES DIFUSOS (FUZZY CLASSIFIERS)
9.3.4.2 Clasificadores difusos (fuzzy classifiers). Las técnicas de clasificación que hasta ahora hemos desc
conducen a que cada pixel individual reciba una categorización única y precisa. En tal sentido se trata de
clasificadores “duros”. Esta situación es aceptable en
percepción remota cuando el analista se encuentra con extensiones importantes de coberturas terrestres rel
uniformes, como extensas áreas agrícolas, grandes cuerpos de agua claros y profundos, etc. En muchos ca
embargo, se examinan áreas heterogéneas donde incluso con resoluciones medias de 30 m como la del La
puede asegurar que un dado pixel contenga una sola clase de cobertura
(un problema de esta naturaleza lo encaramos en la Sec. 8 cuando nos referimos al análisis subpixel). Es o
que en ciertos casos la aplicación de clasificadores “duros”va a deteriorar la exactitud de una clasificación
el siguiente ejemplo. Dos clusters, como los representados en la Fig. 86(a) pueden ser erróneamente parti
por un ISODATA duro cuyo resultado se representa en la Fig.86(b)
Conceptos derivados de la “Lógica Difusa”(Fuzzy Logic), una disciplina relativamente joven, nos ayudar
enfrentar el problema. Surgen así los conceptos de conjuntos difusos, clasificadores blandos o difusos, gra
membresía, etc.
Como caso típico de esta metodología consideremos un procedimiento que podemos llamar “ISODATA d
blando”. Este, en lugar de generar una partición dura admite que cada pixel puede pertenecer a todos los c
con diferentes grados de membresía que van entre 0 y 1. Sea U la matriz de grado de membresía con n col
por pixel, y p filas, una por cluster. El número de clusters es especificado por el usuario
y los centros iniciales de los clusters son generados aleatoriamente o suministrados por el usuario:
Este algoritmo, como el ISODATA, es iterativo en la búsqueda de los centros o centroides de clústeres qu
minimizan la diferencia entre los elementos de U. El procedimiento comienza con una inicialización aleat
con la condición dada por la [1] :
¿Qué es la
percepció
remota?
¿Qué es u
imagen
satelital?
Valores muy bajos de NDVI, del orden de 0.1, corresponden a áreas rocosas, arenosas o Uso del G
nevadas. Valores de 0.2 a 0.3 pueden corresponder a áreas pobres con arbustos o pasturas Estación
naturales. A partir de estos valores tendremos los niveles correspondientes apraderas, cultivos, rastreador
forestaciones etc. dependiendo el valor alcanzado, que puede llegar hasta 0.6 y 0.8, del estado
de desarrollo y sanidad de tales áreas. Pasturas
Es obvio, de acuerdo a lo expuesto en el Cap. 4, que el fundamento de la definición del NDVI
Monitoreo
radica en las características del espectro de los vegetales. En efecto, ya vimos (Fig. 11, pág. 9) de incend
que la radiación reflejada por una hoja en la región visible depende fundamentalmente de la
radiación absorbida por los pigmentos de la hoja, mientras que en el infrarrojo cercano, en la Sequías
región de 0.7 a 1.3 mµ, depende de la estructura interna de la hoja. Para valores mayores de
1.3 mµ aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 mµ. El stress vegetal suele Recursos
naturales
manifestarse cuando por efecto de factores como sequía, enfermedades, infección por plagas,
etc., la hoja ve reducido su contenido de agua. Esto produce el colapso de las células del Cultivo de
mesodermo inferior (Fig. 12, pág.9), lo cual reduce la reflectancia en el IR cercano, tabaco
constituyendo un síntoma previsual de stress ya que suele manifestarse días e incluso semanas
antes de que comiencen a apreciarse cambios visualmente o a través de la fotografía color
convencional. El espectro vegetal de la Fig. 11 posee el aspecto típico del obtenido con un
espectrómetro de laboratorio o bien con un sensor hiperespectral. Como los satélites más
usuales actualmente son sólo multiespectrales no nos pueden suministrar una curva espectral
con la alta resolución de un espectrómetro o un sensor hiperespectral. Sin embargo, con sus
datos, por ejemplo con las 6 bandas visibles e infrarrojas del Landsat, podemos construir un
espectro grosero como el de la Fig.87 que de algún modo refleja las características del espectro
de laboratorio y que nos puede brindar mucha información acerca del estado de un cultivo, de
una forestación, etc. La curva a corresponde a pleno vigor vegetativo, la b representa una
etapa más próxima a la maduración y la c marca ya un estado de senescencia. Obsérvese el
quiebre de las curvas a aprox. 1.6mµ, que es un reflejo del contenido de agua de la hoja y
permite diferenciar claramente por el cambio de concavidad de la curva la transición a un
estado de stress. Si se consideran los valores relativos de las reflectancias en el rojo y en el
infrarrojo cercano para cada banda se comprende que ocurrirá un notorio decrecimiento del
NDVI al pasar de la banda a a la c
Durante los meses de noviembre de 1999 a marzo de 2000 se produjo en Uruguay una intensa
sequía. Esta fue seguida desde nuestra estación de rastreo de El Pinar a través de imágenes
NOAA de 1 km de resolución y calculando los índices de vegetación. Las imágenes obtenidas
se representa en la secuencia de la Fig. 88
· Seguimiento de cultivos
Los ejemplos anteriores son de carácter localizado. Sin embargo existen actualmente satélites
como los de la serie NOAA y TERRA (Ver en la página 17 de este trabajo nuestros
comentarios sobre Satélites Meteorológicos y Agrometeorológicos así como acerca de Los
Nuevos Satélites Para la Observación de la Tierra) que en el marco de programas de monitoreo
permanente de la superficie terrestre como por ejemplo el programa EOS (Earth Observation
System) de la NASA, suministran información permanente sobre cambios en las coberturas
terrestres. Entre los productos que estos programas suministran se encuentra el NDVI a nivel
global. Estos productos están disponibles en Internet en resoluciones espaciales de 250m a 1
km por pixel. Uno de los sitios más apropiados para bajarlos es el
Earth Observing System Data Gateway
http://edcimswww.cr.usgs.gov./pub/imswelcome/
INDICES N-DIMENSIONALES - TASSELED CAP
10.1.2 Indices N-dimensionales “Tasseled Cap”. Los índices descritos anteriormente se basan
en operaciones algebraicas realizadas sobre sólo dos bandas espectrales, la R y la IRC en el
caso del EVI se agrega la azul. Sin embargo, es obvio que las demás bandas espectrales
también contienen información de interés en el estudio de las cubiertas vegetales,
de vegetación N-dimensionales.
En la Sec. 9.2.3, pág. 46 del
presente trabajo nos referimos al VER TAMBIEN
análisis por
Componentes Principales. Galería de imágenes satelitales
Vimos que éstos se obtenían a
¿Qué es la resolución espacial?
través de una transformación
matemática que permitía Aplicaciones en Mercados de futuros
comprimir toda la información
contenida en un conjunto de N Monitoreo de incendios en pozos de petróleo
bandas espectrales a un conjunto
menor de nuevas bandas o Imágenes satelitales y seguros
componentes. Una
transformación similar fue
desarrollada por Kauth y
Thomas pero pensada de modo
que los nuevos ejes
maximicen información de importancia en agricultura. Esta transformación, llamada
“Tasseled Cap”, permite resaltar los fenómenos más importantes
(espectralmente observables) que ocurren durante el desarrollo de un cultivo. Esta
transformación, aplicada a las seis bandas TM (excluida la térmica) del LANDSAT indica que
la información de valor agronómico ocupa esencialmente tres dimensiones:
Las tres primeras dimensiones definen dos planos: el de vegetación y el de suelos (Fig.93):
Su forma se parece al gorro de Santa Claus (gorro con borlas = tasseled cap): de ahí
el nombre de la transformación. Pasando a un caso real, en las Figs. 96 a, b, c y d vemos: a:
Un área donde se observan tierras descubiertas, pasturas, areas de cultivos y montes. b y c:
Las imágenes correspondientes a los índices de Brightness y Greeness según la
transformación del Tasseled Cap.
de elevada resolución espectral que permiten recoger información terrestre no en unas pocos
canales espectrales, como el SPOT o el LANDSAT, sino en un gran número de ellos,
pudiendo llegar a 200 o más. Los espectros así obtenidos son comparables a los
espectros obtenidos con los espectrómetros en el laboratorio. Originalmente los
sensores hiperespectrales se montaron en plataformas aéreas, como el AVIRIS (airborne
visible / infrared imaging spectrometer) de la
NASA, puesto en servicio en 1989 y que posee 210 canales que operan entre 0.4 y 2.45 µm
con anchos de bandas de 10 nm. Un sensor de características similares (Hyperion) se
encuentra a bordo del satélite EO-1 de la NASA, lanzado en noviembre del 2000. La Fig. 99
permite comparar la resolución espectral de un espectro multiespectral (LANDSAT) y uno
hiperespectral (EO-1 Hyperion) en el caso de una cubierta vegetal terrestre:
El potencial analítico que ofrecen las imágenes obtenidas con sensores hiperespectrales
es obvio, y una de sus grandes posibilidades es el procesamiento en derivadas de las
curvas espectrales, que permite reducir la influencia de interferencias.
Veamos un ejemplo. En la Fig. 100 se esquematizan los espectros del suelo y del vegetal así
como del espectro resultante de la adición de ellos, que es el espectro que realmente registra
el sensor del satélite.
Supongamos que el sensor hiperespectral está recibiendo radiación reflejada por un cultivo
junto con la reflejada por el suelo de los surcos intermedios o reflejada por el suelo mismo
debajo del follaje y que atraviesa nuevamente la cubierta vegetal en dirección al sensor. Esta
situación se representó gráficamente en la Fig. 100. Se propuso emplear la integral de la
derivada segunda como un índice de vegetación para eliminar la influencia del suelo (Fig.
102(b).
Las consideraciones que anteceden permiten prever un amplio campo de investigación en
la evaluación de las cubiertas vegetales basado en las posibilidades que nos abre la
modalidad hiperespectral de las plataformas satelitales.
10.2.1 Generalidades sobre el infrarrojo térmico (IRT). Todo objeto cuya temperatura se Galería d
encuentre por encima del cero absoluto emite energía electromagnética en la región infrarroja imágene
térmica (3 a 14 mµ) del espectro electromagnético. Si bien el ojo humano es insensible a dichas
Plataform
radiaciones existen, como ya hemos visto en el Capítulo 7 de este observa
trabajo, sensores capaces de
detectarlas. Efectivamente, los Aeropue
sistemas de percepción remota VER TAMBIEN del mun
en el IRT son capaces de
registrar imágenes térmicas que Galería de imágenes satelitales Imágene
ofrecen incontables aplicaciones, satelitale
¿Qué es la resolución espacial? seguros
fundamentalmente en el
monitoreo de las superficies ¿Qué es
Aplicaciones en Mercados de futuros
terrestres y oceánicas así como resoluci
de fenómenos atmosféricos. Es Monitoreo de incendios en pozos de petróleo
una práctica usual medir la Petróleo
temperatura de un cuerpo Imágenes satelitales y seguros
mediante un termómetro que Forestac
está en contacto o sumergido
Estudios
en dicho cuerpo. La magnitud así medida es la llamada temperatura cinética que constituye una viabilida
manifestación interna de la energía translacional asociada al movimiento aleatorio y colisiones
de las moléculas del cuerpo considerado. Esta energía interna puede convertirse en energía Mercado
futuros
radiante y ser emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se
puede medir así la temperatura radiante del objeto que está correlacionada, aunque no es Cultivo d
exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo más baja arroz
que esta última debida a una propiedad térmica de los cuerpos que llamamos emisividad y que
más adelante consideraremos.asociada al movimiento aleatorio y colisiones de las moléculas del Nuestra
cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser emitida
como tal, haciéndola accesible a las técnicas de percepción remota. Se puede medir así la Nuestro
temperatura radiante del objeto que está correlacionada, aunque no es exactamente igual, a la servicio
temperatura cinética. Efectivamente, aquélla es siempre algo más baja que esta última debida a
¿Qué es
una propiedad térmica de los cuerpos que llamamos emisividad y que más adelante
percepci
consideraremos. remota?
¿Qué es
imagen
satelital?
Uso del G
Estación
rastread
Pasturas
Monitore
incendio
Sequías
Recurso
En la gráfica de la Fig. 103 se representan las curvas de radiación del cuerpo negro
naturales
para distintas temperaturas
Cultivo d
tabaco
FILAMENTO DE TUNGSTENO
La energía total W emitida por la superficie del cuerpo negro a una dada temperatura
viene dada por el área bajo la curva y matemáticamente se describe por la ley de Stefan-
Boltzmann:
Saliendo ahora del plano puramente teórico diremos que en general los objetos terrestres no son
emisores perfectos como el cuerpo negro, sino que a una dada temperatura emiten menos
radiación que el cuerpo negro a la misma temperatura. La fracción que ellos emiten
respecto al cuerpo negro es una medida de su emisividad (e). Así por ejemplo, si a una dada
temperatura y longitud de onda una superficie emite la mitad de la radiación que emitiría un
cuerpo negro en las mismas condiciones su emisividad será de 0.5. Ejemplos de emisividad
para algunos materiales en la región de 8-14 mµ:
De acuerdo a la definición que dimos de emisividad ésta podrá variar entre 0 y 1, pero cabe
aquí señalar que un cuerpo que posee una emisividad menor que 1 pero que permanece
constante para todas las longitudes de onda se denomina cuerpo gris. Es decir que para este tipo
de objeto a todas las longitudes de onda su emisividad es una fracción constante de la del cuerpo
negro. Si en cambio la emisividad del objeto varía con la longitud de onda se denominará
radiador selectivo. La Fig. 105 permite comparar las curvas de emisión para el cuerpo negro,
para un cuerpo gris y para un radiador selectivo.
El agua es por ejemplo un cuerpo gris, mientras que el cuarzo es un radiador selectivo.
Donde a y b son constantes que pueden ser estimadas a través de modelos de simulación o por
correlación con observaciones terrestres.
La medida de temperatura es un buen indicador para el monitoreo del balance energético en la
superficie terrestre y sirve como indicador del efecto invernadero. Esto la hace esencial
para variados estudios de naturaleza climática, hidrológica, ecológica y biogeoquímica.
10.2.2.1 Temperatura del mar. Consideremos algo más en detalle las medidas de
temperaturas marinas. Debe tenerse en cuenta que como las radiaciones infrarrojas térmicas
son intensamente absorbidas por el agua las medidas de temperatura que se obtienen
corresponden a una capa superficial de pocos milímetros de espesor (temperatura de piel) y van
a ser algo inferiores a la de aguas más profundas. Sin embargo, como a través de esa
“piel”ocurren importantes procesos de intercambio térmico entre el mar y la atmósfera, estas
medidas de temperatura son de fundamental importancia para estudios climáticos a nivel
global. Citemos como típico ejemplo de monitoreo de una anomalía térmica el fenómeno de El
Niño. Este consiste en un conjunto de alteraciones que tienen lugar en el Pacífico oriental a
intervalos de tiempo irregulares, por lo general de cuatro a siete años. Su origen se atribuye a
procesos complejos de interacción océano-atmósfera, algunos aúnpoco comprendidos, y con
efectos desastrosos a nivel global.
En la Fig. 107 se indican los eventos climáticos que indujo en el globo, incluso a distancias
muy grandes como en la India.
Las observaciones de temperatura superficial del mar son obviamente muy importantes
para los oceanógrafos puesto que permiten el análisis espacial y temporal de las
corrientes oceánicas así como de sus variaciones. Incluso facilitan el pronóstico de desastres
climáticos como los inducidos por la corriente de El Niño.
Si pasamos ahora del nivel global al local veamos como ejemplo una imagen NOAA
de temperaturas del mar en las cercanías del Río de la Plata y regiones costeras
adyacentes. (Fig.108):
Son fáciles de distinguir los frentes de confluencia entre aguas de distintas temperaturas
(corriente de las Malvinas-corriente del Brasil). En estos frentes se producen importantes
gradientes de temperatura, como el que se produce a lo largo de la línea P y se registra en la
gráfica de la Fig. 109.
Estos afloramientos de aguas profundas más frías rodeadas de áreas más calientes son lugares
de intensa creación de biomasa (plancton) y ellas inducen la concentración de peces. Una
comprobación gráfica de esto lo constituye la Fig. 110. Esta es una imagen adquirida por el
satélite Sea Star de la NASA dela costa patagónica donde se observa claramente la península
de Valdés. Es una imagen registrada en el rango espectral visible y permite visualizar el color
del mar. Una línea de color más claro marca la convergencia de las corrientes de las Malvinas y
de Brasil. Al oeste de esta línea los colores verdosos indican afloramiento de fitoplancton
sobre las agua más frías de la corriente de las Malvinas. Al este de la línea de convergencia los
colores azules más profundos indican la ausencia de fitoplancton.
Las medidas de temperatura en el IRT ofrecen así un método para orientar a los buques
pesqueros más directamente a las áreas propicias de captura, reduciendo su consumo de
combustible y aumentando su eficiencia en masa y tiempo de captura.
APLICACIONES DEL INFRARROJO TERMICO (Continuación)
10.3 Monitoreo de áreas de desastre. Las imágenes satelitales constituyen una valiosa Galería de
herramienta para acceder rápidamente a aquellas áreas sometidas a desastres ecológicos. Su imágenes
amplia área de cobertura, su facilidad para visualizar rápidamente y evaluar la situación de
Plataform
aquellos lugares donde las mismas consecuencias del desastre impiden o dificultan otros
tipos de aproximación son observac
factores fundamentales en el
manejo de las acciones de Aeropuer
VER TAMBIEN del mund
recuperación posteriores al
evento. Incluso en muchos casos Imágenes
la información satelital permite Galería de imágenes satelitales
satelitales
emitir alertas previos al evento: seguros
¿Qué es la resolución espacial?
en efecto, muchos tipos de
desastres, como inundaciones, ¿Qué es l
Aplicaciones en Mercados de futuros
sequías, huracanes, erupciones resolució
volcánicas, etc. poseen señales Monitoreo de incendios en pozos de petróleo
Petróleo
precursoras que un satélite pude
detectar. El alerta temprano Imágenes satelitales y seguros
Forestaci
permite reducir los riesgos
potenciales y planificar las Estudios
acciones a tomar durante viabilidad
y luego del episodio. Cuando hablamos de desastres ecológicos lo hacemos en un sentido
amplio. En efecto, incluimos en dicho concepto no sólo los desastres naturales sino también los Mercados
debidos a la acción humana directa o bien inducidos por la acción humana. Algunos son de futuros
rápido desenlace y con resultados devastadores, otros son de desarrollo lento pero con iguales o
más serias repercusiones en el tiempo. Cultivo d
arroz
· Sequías e incendios. En el desarrollo de este trabajo ya nos referimos a casos de aplicación de Nuestros
los métodos de percepción remota a eventos ecológicos cuando presentamos ejemplos de servicios
seguimiento de sequías y monitoreo de incendios. En ciertas regiones estostipos de desastres
son frecuentes y con graves consecuencias para las poblaciones afectadas. ¿Qué es l
percepció
remota?
· Inundaciones. Las inundaciones constituyen otro caso cuyo seguimiento y evaluación es
fácilmente realizable desde el espacio. Utilizando imágenes multitemporales, es decir, tomadas ¿Qué es u
en diferentes fechas, es posible detectar y cuantificar cambios ocurridos en el área afectada en imagen
el lapso transcurrido entre la adquisición de las imágenes. Las Figs. 117 a y b representan la satelital?
misma escena: la confluencia de los ríos Missisipi y Missouri en las proximidades de las
Uso del G
ciudades de St.Charles y St.Louis antes y después de las inundaciones del verano de 1993
Estación
rastreado
Pasturas
Monitoreo
incendios
Sequías
Recursos
naturales
Cultivo de
tabaco
Las imágenes corresponden a la banda TM5 del LANDSAT que permite realzar los cuerpos de
agua por su color casi negro. Existe un procedimiento muy útil para evaluar
cambios: si entre las dos fechas no hubiera ocurrido ningún cambio de importancia en la
escena, las dos imágenes TM5 estarían fuertemente correlacionadas y un dispersograma de
ambas evidenciaría dicha correlación. El dispersograma real es el de la Fig. 118 b donde el
sector alargado horizontal en la parte inferior corresponde a los pixeles inundados. Si pedimos
a la computadora que los destaque en la imagen de la
inundación, Fig. 118 a, se evidenciarán (color azul) las zonas inundadas, pudiendo medirse su
área total, el área de las zonas urbanas inundadas, etc. Una combinación RGB 432 (falso
infrarrojo, Fig. 119) complementa la anterior imagen y permite identificar la naturaleza de
algunas áreas emergentes de la inundación
· Derrames de petróleo: La contaminación de los océanos con petróleo es uno de los grandes
problemas ambientales actuales. Esta contaminación se adjudica en su mayor proporción a
operaciones de limpìeza de depósitos en buques tanque y en menor proporción a accidentes en
buques y plataformas petroleras. Son importantes también las cantidades de petróleo vertidas
en ríos y océanos por muchas industrias, incluyendo refinerías y depósitos de almacenaje. En
regiones como el Golfo Pérsico las emisiones de petróleo han sido casi continuas desde 1982,
destruyendo la industria pesquera y volviendo inoperantes plantas de desalinización.
La percepción remota desde plataformas satelitales es en estos casos muy útil dada
su capacidad de supervisar amplias áreas, de realizar monitoreos localizados y de
prestar asistencia táctica en emergencias. Puede suministrar información acerca de la
velocidad y dirección de los derrames oceánicos a través de imágenes multitemporales e
incluso realizar
mapeos de los derrames.
Ilustraremos esta aplicación considerando el derrame de petróleo resultante de los incidentes
bélicos que ocurrieron durante la Guerra del Golfo, en enero de 1991. El derrame en la costa
de Kuwait alcanzó de 4 a 6 millones de barriles de petróleo. Nuestra zona de estudio se
encuentra a 322 km al sur de Kuwait City, sobre la costa de Arabia Saudita y se centra en la
bahía de Ad Daffi , Fig. 125.
Se trata de una bahía poco profunda limitada al este por varias islas. Esa zona jugó en este
caso, como en oportunidad de anteriores derrames, un papel clave bloqueando el
desplazamiento hacia el sur del petróleo derramado. Este derrame se originó el 21 de enero
y las imágenes fueron adquiridas el 4 de marzo. La imagen de la Fig. 126 es una
combinación RGB color natural, mientras que la Fig.127 corresponde a la banda TM5
(infrarrojo medio).
En ésta se destaca la mayor reflectancia del petróleo, distinguiéndolo del agua que absorbe
intensamente dicha radiación y apareciendo casi negra en la imagen. Más aún, basándose en
los diferentes niveles de reflectancia de las manchas de petróleo se puede lograr discernir
entre aceites pesados y livianos. Las áreas de las manchas y las distancias costeras pueden
ser directamente evaluadas a través del análisis de la imagen.
10.3.2 El monitoreo a escala global de desastres. En la Sección anterior nos hemos referido a
la forma cómo se manifiestan distintos tipos de desastres, algunos de origen natural, otros
causados directamente por el hombre y otros inducidos por éste. Algunos de estos desastres
ocurren en un corto lapso y sus resultados son devastadores. Otros ocurren más lentamente
pero sus resultados son tan serios o aún más que los anteriores. La necesidad de alertar sobre
estos procesos o bien de ayudar a la recuperación de las áreas afectadas ha llevado a crear
sistemas de monitoreo de desastres basados en la percepción remota que operan a nivel global.
Es así que en la Conferencia UNISPACE III celebrada en Viena en julio de 1999, la Agencia
Espacial Europea (ESA) y la Agencia Espacial Francesa (CNES) elaboraron la “Carta
Internacional sobre el Espacio y las Grandes Catástrofes”(International Charter “Space and
Major Disasters”) a la cual se unieron
luego Estados Unidos, India, Argentina, Japón y China.
Esto representa que frente a un desastre se active la cooperación de numerosos satélites como
SPOT, LANDSAT, IRS (India), RADARSAT (Canadá), TERRA (USA), ENVISAT (ESA),
NOAA, SAC-C (Argentina), ALOS (Japón),etc., así como el sistema DMC. Un
Usuario Autorizado puede, por simple llamada telefónica movilizar los recursos
espaciales mencionados. En la Fig. 132 se observa un relevamiento de las inundaciones de
abril-mayo de 2007 en Uruguay realizado en el marco del International Charter.
En cuanto al sistema DMC, (Disaster Monitoring Constellation) mencionado
anteriormente como integrante del International Charter, es una Asociación liderada por la
Universidad de Surrey (Inglaterra). Consiste en una red de microsatélites, y sus estaciones
terrestres.
El sistema +DMC se caracteriza porque cada microsatélite pertenece y es operado por la
nación a la que pertenece, pero todos han sido igualmente espaciados en una órbita solar-
sincrónica de modo de poder ofrecer diariamente imágenes multiespectrales de cualquier parte
del mundo. Desde el año 2002 operan cinco microsatélites operados por Algeria, China,
Nigeria, Turquía, UK, y próximamente se les unirán otros (España, Vietnam, ets.) Estos
satélites poseen un FOV de 640 km y pueden obtener imágenes multiespectrales
con resolución de 32 m en el nadir. Algunos poseen además sensores pancromáticos de 4 m
de resolución.
En el presente trabajo nos hemos referido fundamentalmente a sensores pasivos, es decir que Galería d
necesitan una fuente de iluminación externa, usualmente el sol. Sin embargo, en imágene
algún momento hicimos referencia a otro tipo de sensores, como el radar, que por poseer su
propia fuente de emisión se Plataform
denominan sensores activos. La observac
palabra radar es un acrónimo de VER TAMBIEN
Aeropue
Radio Detection And Range, que del mund
más explícitamente podríamos Galería de imágenes satelitales
traducirlo como “detección y Imágene
¿Qué es la resolución espacial?
medida de distancias por ondas satelitale
de radio”. Un sistema de radar seguros
Aplicaciones en Mercados de futuros
posee tres funciones primarias:
• Emite señales de microondas Monitoreo de incendios en pozos de petróleo
¿Qué es
resolució
(en sus principios fueron de
radio, de ahí su nombre) Imágenes satelitales y seguros Petróleo
hacia una escena.
• Recibe la fracción de energía Forestac
reflejada por la escena en su
misma dirección Estudios
• Observa la intensidad (detección) y el retardo de tiempo (distancia) de las señales o viabilida
eco de retorno.
Mercado
futuros
Como el radar posee su propia fuente de emisión de radiaciones puede operar de día o de
noche, y como además las microondas pueden penetrar la atmósfera bajo virtualmente cualquier Cultivo d
condición climática el radar se convierte en un sensor que, a diferencia de los que hemos arroz
estudiado antes puede operar en todo tiempo. Como contrapartida, las imágenes de radar son de
interpretación más difícil que las correspondientes obtenidas para las regiones visibles o Nuestra
térmicas del espectro electromagnético. En efecto, estas últimas pueden correlacionarse más
fácilmente con las apreciaciones realizadas por el ojo humano, mientras que las respuestas de Nuestros
servicios
las microondas son marcadamente diferentes. La Fig. A-1 esquematiza la operación de un
sistema de radar a bordo de un satélite.
¿Qué es
percepci
remota?
¿Qué es
imagen
satelital?
Uso del G
Estación
rastreado
Pasturas
Monitore
incendio
Sequías
Recursos
naturales
Cultivo d
El sistema posee una antenaque alternadamente transmite y recibe pulsos de microondas de tabaco
longitudes de onda definidas comprendidas en el rango de 1 cm a 1m y polarizadas en un plano
vertical u horizontal.
Aproximadamente se emiten 1500 pulsos de alta energía por segundo y cada pulso tiene una
duración de típicamente 10 a 50 microsegundos. Cuando el pulso de radar alcanza la superficie
terrestre su energía se dispersa en todas direcciones, y parte de ella se refleja hacia la antena.
AI-2
Este eco o “backscatter” retorna al sensor de radar y es recibido por la antena con
una polarización específica (horizontal o vertical, pero no necesariamente la misma del
pulso emitido).
Lo ecos recibidos son digitalizados y registrados para su posterior procesamiento y conversión
en una imagen. Dado que los pulsos de radar se propagan con la velocidad de la luz es evidente
que midiendo el tiempo necesario para su viaje de ida y vuelta podrá calcularse la distancia al
objeto reflector.
En el caso de los sensores de radar podremos hablar de dos tipos de resolución. El
pulso usualmente cubre una pequeña banda de frecuencias (ancho de banda) centrada en
la frecuencia seleccionada por el sistema de radar. Este ancho de banda determina la resolución
en la dirección del objeto iluminado. Mayores anchos de banda condicionan resoluciones más
finas en dicha dirección. Por otra parte, la longitud de la antena de radar determina la resolución
en la dirección del trayecto del satélite: cuanto más larga es la antena más fina es la resolución
en dicha dimensión. Es así que se desarrolló una técnica, denominada radar de apertura sintética
(Synthetic Aperture Radar – SAR), que consiste en sintetizar una antena muy larga combinando
señales recibidas por el radar a medida que recorre su trayecto.
Las imágenes de radar están compuestas por pixeles, cada uno de los cuales representa el eco
proveniente de un área correspondientes sobre el terreno: zonas oscuras en la
imagen representan bajo retorno de energía hacia el radar, zonas brillantes corresponden a
alto retorno. Dicho retorno está condicionado por una serie de factores, algunos dependientes
de los parámetros del sistema, otros dependientes de los parámetros del área de interés
y finalmente otros resultantes de las interacciones entre los anteriores:
• Interacciones:
1. Textura de la superficie – longitud de onda del sistema
2. Angulo de observación (f) y ángulo de la pendiente (a) – se combinan para
determinar el ángulo de incidencia (.).
3. La dirección de observación y la orientación de la pendiente – influencian el área y
geometría del blanco presentado al radar.
AI-3
El retorno está a menudo relacionado con el tamaño del objeto que dispersa: los objetos
de aproximadamente las mismas dimensiones, o mayores, que la longitud de onda
aparecerán más luminosos, mientras que los objetos menores que la longitud de onda
aparecerán oscuros. Este efecto arroja información acerca de la textura de la región de
interés. Las longitudes de onda más usuales en los sistemas de radar son las siguientes:
Banda P = ~ 65 cm
Banda L= ~ 23 cm
Banda S = ~ 10 cm
BandaC=~ 5cm
BandaX=~ 3cm
AI-4
· Variaciones de tono
· Variaciones de textura
El tono hace referencia a los diferentes niveles de grises del negro al blanco, siendo
proporcional a la intensidad del retorno del radar. Los objetos relativamente llanos como
cuerpos de agua calmos aparecen con tonos oscuros (la reflexión es mayormente especular y
genera poco retorno). Los objetos difusores, como diversas formas de vegetación, aparecen con
tonos intermedios. Finalmente, edificios construidos por el hombre, barcos, etc. pueden
producir tonos brillantes, dependiendo de su forma, orientación y/o sus constituyentes
materiales (v. Fig. A-3).
La textura hace referencia al patrón de las variaciones espaciales de tono, y depende del grado
de uniformidad espacial de los objetos de la escena. La textura puede ser definida como fina,
mediana o gruesa.
AI-5
Las Figs. A-4 a y b constituyen típicas imágenes de radar, en este caso adquiridas por el satélite
ERS de la Agencia espacial Europea en noviembre del 2000. Las imágenes corresponden a
aproximadamente la misma región de una forestación en Paysandú que ya hemos utilizado
como ejemplo de clasificaciones en el presente trabajo. En particular la parte inferior izquierda
puede ser reconocida en las Figs. 74, 78 y 79. Como vemos, las imágenes de radar son de más
compleja interpretación que las de los satélites ópticos. Además, una característica típica de las
imágenes de radar es su aspecto granulado (“salt and peper”) por efecto de los speckles. Estos
gránulos son inherentes a la naturaleza misma del radar. En efecto, las ondas coherentes
emitidas por el sensor activo del radar, en forma similar a lo que ocurre con un laser, se
propagan en concordancia de fase hasta incidir sobre los objetos terrestres, donde la coherencia
se pierde al reflejarse y retornar: esto se debe a las diferentes distancias que deben atravesar
desde el objeto a la antena, así como a efectos de dispersión en el objeto. Entre estas ondas
reflejadas se pueden producir ahora efectos de interferencia constructiva o destructiva
generándose una estrucutura granulada en la imagen, como se observa en la Fig.A-5. El efecto
de los speckles puede atenuarse mediante filtraciones con filtros adecuados. En particular en la
Fig. A-4b se ha aplicado dicho tratamiento
AI-6
Para terminar esta breve referencia a los sensores de radar, presentaremos dos imágenes de la
misma región, una de radar (Radarsat-1) y otra una imagen óptica (composición RGB 453 del
Landsat 5) (Figs.A-6 a y b en la página AI-7) La región es la situada al SW de Sta Cruz, Río
Grande do Sul, Brasil. La imagen de radar es una combinación RGB multitemporal de fechas
21/10/05, 08/12/05, 25/01/06, mientras que la imagen Landsat es de fecha 03/11/05. La imagen
de radar posee originalmente una resolución de 6.25 m, mientras que la de LANDSAT 5 es de
30m. La imagen Landsat puede ser fácilmente interpretada en sus rasgos fundamentales de
acuerdo a las consideraciones efectuadas en las páginas 51 y siguientes de este trabajo
(Combinaciones de Color). Dicha interpretación permitirá establecer una correlación temática
con la imagen de radar.
AI-7
APENDICE III: BIBLIOGRAFIA SUGERIDA.
Aronoff. Stan, Remote Sensing for GIS Managers, ESRI Press: 2005.