Está en la página 1de 177

EL USO DE LOS SENSORES

REMOTOS EN LOS RECURSOS


NATURALES
SEGUNDA PARTE

TELEDETECCIÓN

Miguel Á. Menéndez y Virgilio Núñez

UNIVERSIDAD NACIONAL DE SALTA

INSTITUTO DE RECURSOS NATURALES Y ECODESARROLLO

CÁTEDRA DE SENSORES REMOTOS

AÑO 2012
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Agradecimientos:

A nuestras respectivas familias por el apoyo incondicional.

Al Ing. Pablo Alejando Campos y al Sr. Facundo Castillo Mercado por su colaboración en la
realización de diferentes ilustraciones.

Palabras claves: percepción remota, sensores remotos, fotografía aérea, aerofotogrametría,


fotogrametría elemental, fotointerpretación, características espectrales, recursos naturales.

Resumen:

La cátedra de Sensores Remotos desarrolló la presente edición con el objetivo de brindar un


material de consulta básica y una guía didáctica de estudio para los alumnos de la carrera de
Ingeniería en Recursos Naturales, Facultad de Ciencias Naturales, Universidad Nacional de
Salta. El presente material de estudio es el resultado de años de docencia e investigación en
las temáticas vinculadas a la utilización de las técnicas de percepción remota en la evaluación
de los recursos naturales.

La primera parte del libro “El uso de los sensores remotos en los recursos naturales” trata
específicamente sobre la fotografía aérea, la fotogrametría y la fotointerpretación. A modo de
introducción se presentan los fundamentos básicos de la percepción remota y la utilización de
las fotografías aéreas en levantamientos forestales; luego se tratan las fuentes de la energía
electromagnética, y su comportamiento, desde la perspectiva de la percepción remota. A
continuación, se desarrollan en detalle todos los aspectos asociados a las fotografías aéreas:
las técnicas y aeronaves usadas en los vuelos fotográficos, el tipo y características de los
sensores utilizados – tanto analógicos como digitales – y el procesamiento final del material
obtenido para su uso en fotointerpretación. El siguiente tema ofrece al lector los principios
básicos de la fotogrametría, que permiten conocer las características geométricas de las
fotografías aéreas, las deformaciones que las afectan, las técnicas e instrumentos utilizados
para la visión estereoscópica (en tres dimensiones) y para la obtención de medidas correctas
de los objetos fotografiados. En la interpretación visual se exponen las características y las
fases de la fotointerpretación, los factores que determinan el reconocimiento de un objeto, el
proceso involucrado y las aplicaciones. Finalmente se tratan las características espectrales de
los recursos naturales y de algunas coberturas urbanas o rurales.

Versión:

Primera versión, febrero de 2012.

Menéndez, M. A y V. Núñez 2
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

CONTENIDO

1. SATÉLITES DE OBSERVACIÓN DE LA TIERRA ..................................................................8

1.1. Reseña Histórica de los Satélites .....................................................................................8

1.2. PROGRAMA SKYLAB ................................................................................................... 10

1.2.1. Sensor S-190 A ...................................................................................................... 11

1.2.2. Sensor S-190 B ...................................................................................................... 12

1.3. PROGRAMA LANDSAT ................................................................................................ 15

1.3.1. Principios generales y fundamentos ...................................................................... 15

1.3.2. Parámetros orbitales de los programas LANDSAT 1, 2 y 3 .................................. 17

1.3.2.1. Sensores: Bandas Espectrales ...................................................................... 17

1.3.2.2. Parámetros de las imágenes .......................................................................... 18

1.3.2.3. Anotaciones al pie de la imagen ..................................................................... 18

1.3.2.4. Trayectoria ....................................................................................................... 20

1.3.3. El barredor Multiespectral MSS .............................................................................. 22

1.3.3.1. Cámara vidicón de haz de retorno RBV (Return Beam Vidicon)................... 22

1.3.3.2. Utilidad de las bandas del barredor multiespectral MSS ............................... 24

1.3.3.3. Imágenes en falso color compuesto ó IR color .............................................. 24

1.3.3.4. Formato ........................................................................................................... 26

1.3.4. LANDSAT 5 TM (Mapeador Temático) .................................................................. 26

1.3.4.1. Sensores ......................................................................................................... 26

1.3.4.2. Mapeo temático ............................................................................................... 27

1.3.4.3. Órbita y cobertura............................................................................................ 27

1.3.5. LANDSAT 6 ............................................................................................................ 28

1.3.6. El LANDSAT 7 con el sensor ETM+ ...................................................................... 29

1.4. SPOT-5 Características del sensor de satélite ............................................................. 43

1.5. ASTER: Características del sensor ............................................................................... 47

2. SATELITES DE ALTA RESOLUCIÓN ................................................................................. 49

2.1. SATELITE QUICK BIRD 2 ............................................................................................. 49

Menéndez, M. A y V. Núñez 3
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

2.2. SATELITE IKONOS ....................................................................................................... 50

2.3. GEOEYE ........................................................................................................................ 55

3. EL USO DEL RADAR EN LOS RECURSOS NATURALES ................................................ 59

3.1. LOS RADARES AEROTRANSPORTADOS ................................................................. 59

3.1.1. RADAR SISTEMA SLAR........................................................................................ 59

3.1.1.1. Principios Generales Y Fundamentos ............................................................ 59

3.1.2. Características del radar ........................................................................................ 66

3.1.3. Reflexión ................................................................................................................. 66

3.1.3.1. La antena de apertura sintética ...................................................................... 76

3.2. Escorzo .......................................................................................................................... 79

3.3. Fig… Escorzo ................................................................................................................. 80

3.4. El radarsat 2 se lanzó el 14/12/2007 con lanzador Soyuz con orbita casi polar
heliosincrónica y una altitud de 798 Km., período de 100.7 minutos y una dimensión de
antena de 15 metros x 1.5 m. Polarización HH HV VH VV ..................................................... 85

3.5. Aplicaciones del sistema. .............................................................................................. 85

3.6. La misión SRTM ............................................................................................................ 86

3.7. Debido a que la NASA realizó una misión para el Trasbordador Espacial que parte el
11/02/2000, y cambió radicalmente los conceptos topográficos a los que estábamos
acostumbrados. ........................................................................................................................ 86

3.8. Ya, a mediados de Febrero de 2000 se habían recibido y procesado los primeros
datos recopilados por el Trasbordador Endeavour de lo que constituye una de las más
completas y elaboradas misiones en lo referente al mapeo topográfico. ............................... 86

3.9. ¿Qué es la SRTM? ........................................................................................................ 86

3.10. La misión denominada Shuttle Radar Topography Mission (SRTM) es un proyecto


internacional liderado por la NASA que utiliza al Transbordador Espacial equipado de un
revolucionario sistema de radar, para efectuar relevamientos topográficos tridimensionales
de la superficie terrestre. Se pretende configurar la más completa base de datos de
imágenes topográficas de alta resolución en tres dimensiones, inexistente hasta el momento.
Las tareas científicas están divididas en distintas etapas, muchas de las cuales ya fueron
superadas, encontrándose a principios de Febrero al comienzo de la última de ellas que es
la recopilación de los primeros datos. La fase de comienzo consistió en la denominada STS-
99 Mission Overview que consistió en las operaciones que aseguraban el correcto
funcionamiento del instrumental que funcionaría durante los 11 días que orbitarían la Tierra,
incluyendo: ................................................................................................................................ 86

3.11. Estas fases fueron complementadas en tiempo real por una organización de
maniobras simuladas programadas, que minimizaban de antemano los problemas de orden
general que el equipo de astronautas y operadores podría encontrar en la realidad.
Finalmente prosigue la última etapa consistente en la captura de información y recopilación
Menéndez, M. A y V. Núñez 4
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

de la misma que realizó el Transbordador orbitando nuestro planeta durante esos 11 días en
el mes de Febrero..................................................................................................................... 87

3.12. Particularidades de la misión ..................................................................................... 87

Menéndez, M. A y V. Núñez 5
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

ÍNDICE DE FIGURAS

Menéndez, M. A y V. Núñez 6
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

ÍNDICE DE TABLAS

Menéndez, M. A y V. Núñez 7
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

1. SATÉLITES DE OBSERVACIÓN DE LA TIERRA

1.1. Reseña Histórica de los Satélites


Antes de 1960 la percepción remota para el relevamiento de la superficie terrestre sólo contaba
con la fotografía aérea tomada desde naves aéreas no espaciales.

En Agosto de 1959, la primera fotografía espacial (no militar) fue tomada y transmitida por el
EXPLORER-6 y no pasó un año que el vehículo espacial MA-4 del Proyecto MERCURY-
ATLAS (no tripulado), tomaba con una cámara automática las primeras fotografías color.

Al comenzar la década del 60, y como parte del proyecto de poner al hombre en la luna, se
probaron satélites artificiales con sensores remotos para registrar parte de la superficie
terrestre para luego relevar la luna y planificar el alunizaje. La información obtenida de las
áreas de prueba terrestres muy pronto mostró su valor para estudios geológicos generales.
Las pruebas se ampliaron para obtener información sobre agricultura, silvicultura, geografía y
recursos minerales, hidrología y recursos hídricos, estudios urbanos y regionales.

Por otro lado, los EE.UU. comenzaron el relevamiento sistemático de la superficie terrestre y su
atmósfera por medio de satélites espaciales, en 1960, al lanzar el TIROS-1 (Satélite de
Televisión de Observación Infrarroja) para relevar información meteorológica. Posteriormente
fueron lanzados más de 40 satélites meteorológicos y ambientales y en una segunda tanda
(serie) de este tipo de satélites, la NASA (Administración Nacional de Aeronáutica y del Espacio
de los EE.UU.), puso en el espacio los satélites denominados ITOS (Satélites Operacionales
TIROS mejorados. Como parte de la misma serie, en 1981 se lanzaron el TIROS-N y el NOAA-
C (o NOAA-7) que operaron a 830 Km. de altitud y provistos de una gran diversidad de
sensores.

En Julio de 1962, el satélite experimental de comunicaciones TELSTAR-1 permitía la


transmisión televisiva en blanco y negro en directo, costa a costa de los EE.UU. Al día
siguiente las imágenes en blanco y negro fueron recibidas en Europa y unas semanas
después la transmisión se realizaba en color. Desde 1970, el sistema de comunicaciones
INTELSAT es usado por cerca de 100 países.

El primer experimento fotogeológico formal fue realizado en Junio de 1965 por la misión GT-4
(GEMINI-TITAN) tripulada por dos astronautas. Esta misión produjo una serie de fotografías,
con superposición, casi verticales, del sudoeste de los EE.UU. y el norte de México, además
fotografías verticales y oblicuas de zonas de América del Norte, África y Asia. La gran utilidad
que ofrecieron estas imágenes para los científicos, hizo que las misiones se continuaran hasta
el GT-7, incluyendo fotografías para estudios geográficos y oceanográficos.

Los esfuerzos del Servicio Geológico Norteamericano (USGS) para establecer un programa
satelital de observación de los recursos terrestres, sentaron las bases del “Programa EROS”
(Sistema de Observación de los Recursos de la Tierra), que fuera aprobado en 1966 por el
Departamento del Interior y por la Administración Nacional Aeronáutica y del Espacio (Nacional
Aeronautics and Space Administration - NASA) del Gobierno de los EE.UU.

El programa APOLO fue un avance significativo en la obtención de fotografías desde satélites


orbitales. Las misiones APOLO 6, 7 y 9 contribuyeron con cientos de fotografías de la
superficie terrestre. La experiencia 50-65 del APOLO-9 probó la posibilidad de usar imágenes

Menéndez, M. A y V. Núñez 8
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

multiespectrales blanco y negro para componer en tierra a través de un proceso, imágenes


falso color, similares a las obtenidas con películas infrarrojo color. La NASA en el ERST-1 usó
bandas espectrales similares a las empleadas por el APOLO-9.

En la década del 70 comenzaron los lanzamientos de los satélites ERST/LANDSAT (ERST:


Satélite Tecnológico de Recursos de la Tierra; LANDSAT: Satélite Terrestre), estas
denominaciones son sinónimos, siendo ERST el nombre original del programa cambiado y
LANDSAT a partir del lanzamiento del ERST-2.

Objetivos del Programa ERST/LANDSAT: entre los principales pueden citarse estudios de
geoestructuras regionales, hidrografía, explotación minera a cielo abierto, bosques y praderas,
evaluación y planeamiento del uso de la tierra, cartografía, fenómenos ambientales,
inundaciones, erosión, entre otras aplicaciones.

Lanzamientos del Programa ERST/LANDSAT: ERST-1 en Julio de 1972, LANDSAT-2 en


Enero de 1975 y LANDSAT-3 en Marzo de 1978, estos tres satélites orbitaron el globo terrestre
a una altura de 917 Km 14 veces al día, sobrevolando el mismo punto cada 18 días,
obteniendo una resolución espacial de 79 m en los LANDSAT-1 y 2 y de 40 m en el 3.

En la década del 80 la NASA mejoró la resolución de las imágenes obtenidas usando el TM


(Mapeador Temático) y modificando la altura orbital del satélite a 705 Km. Así se puso en órbita
el LANDSAT-5 TM similar al anterior, pero lanzado por el “Space Shuttle o Trasbordador
Espacial”, que comenzó sus operaciones en abril de 1981 sufriendo una terrible tragedia con el
Challenger en 1986. A pesar de esto, las misiones del Trasbordador Espacial fueron en general
exitosas, permitiendo lanzar, recuperar y reparar satélites.

En Marzo de 1973 se inició el Programa SKYLAB con el lanzamiento de una nave espacial sin
tripulación, once días después la estación de 100 toneladas de peso y 390 m 3 de capacidad,
fue abordada por tres astronautas. El programa comprendió tres lanzamientos con cambios de
tripulación (SKYLAB II, III y IV) que duró 171 días en total, entregando como resultado 35.504
fotografías y 72.725 m de cinta magnética grabada con datos de los recursos terrestres. Esta
información procesada e interpretada se usó para identificar formaciones geológicas, recursos
forestales e hídricos, contaminación de aguas, enfermedades en cultivos, patrones de
tormentas oceánicas, vientos superficiales y otras aplicaciones.

En 1978 el Programa SPOT fue planificado y diseñado como sistema operacional y comercial
por el gobierno francés, con la participación de los gobiernos de Suecia y Bélgica.

El 22 de febrero de 1986 fue puesto en órbita el SPOT-1 (Systeme Probatoire d’Observation de


la Terre) por medio de un cohete ARIANNE, lanzado desde el “Centro Espacial Guyanais”
(Guyana Francesa) dependiente del CNES (Centre National d’Estudes Spatiales). El SPOT-2
lanzado y puesto en órbita desde el mismo centro espacial y por el mismo cohete que el SPOT-
1, pero el 22 de Enero de 1990. Los SPOT 3 y 4 tienen programado su lanzamiento alrededor
del año 2000.

Entre los objetivos principales planteados por el Programa SPOT, tenemos:

a) contribuir al relevamiento de información del globo terráqueo con percepción remota


desde el espacio;

b) mejorar la calidad y aumentar la cantidad de información con mayor frecuencia por


aumento de la resolución (10-20 m) en imágenes superpuestas que permitan visión
estereoscópica;

Menéndez, M. A y V. Núñez 9
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

c) elaborar progresivamente una base de datos planimétricos y producir imágenes para


visión estereoscópica de importantes áreas del mundo;

d) desarrollar una plataforma multivisión con sensores de conjuntos lineales para el


futuro.

Se encuentra en desarrollo el “Espectrómetro Aéreo de Imágenes (AIS)”, cuyo dispositivo


permitirá medir reflectancias en un rango continuo de bandas muy angostas, mejorando la
información que recogen actualmente en unas pocas bandas anchas los sensores MSS y TM
del LANDSAT y el HRV del SPOT.

Un prototipo del sensor AIS en una versión más avanzada se está probando a bordo de
aviones U-2 de la NASA, bajo la denominación de “Programa AVARIS” (Espectrómetro Aéreo
para Imágenes Visibles e Infrarrojas).

Se encuentran en proyecto para el futuro el “SISEX” (Experimento del Shuttle para


Espectrómetros de Imágenes) y el AYRIS, cuyos sensores serán montados sobre una futura
estación o plataforma espacial.

1.2. PROGRAMA SKYLAB


Skylab fue la primera estación espacial estadounidense y fue lanzada sin tripulación el 14 de
mayo de 1973. La estación espacial fue impulsada y puesta en órbita por el cohete Saturno V
(misión SL-1); durante dichas operaciones se perdieron componentes de protección
importantes de la estación, impidiendo el despliegue posterior del panel solar lo que ocasionó
un gran déficit energético y un sobrecalentamiento anormal.

Figura 1.1: Fotografía del Skylab. Tomado de: www.nasa.gov.

El Skylab fue visitado en tres oportunidades por astronautas que la tripularon durante 171 días
en total, cumpliendo 3900 órbitas. La tripulación se encargó de realizar reparaciones,
operaciones de mantenimiento y otras tareas vinculadas con los sensores e instrumental de a
Menéndez, M. A y V. Núñez
10
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

bordo. La última tripulación de la Skylab volvió a la Tierra el 8 de febrero de 1974. El 11 de julio


de 1979 cayeron sus restos a tierra sobre territorio de Australia.

El Skylab fue puesto en órbita con una inclinación de 51º respecto al ecuador; completaba una
órbita cada 93 minutos y repetía su trayectoria terrestre cada 5 días.

Figura 1.2. Orbita del Skylab. Fuente: Aeroterra S.A.

El objetivo de la misión comprendía los siguientes campos del conocimiento: medicina,


biofísica, recursos terrestres, ingeniería, uso del ambiente espacial. Para cumplir con dichos
objetivos se montaron seis sensores en la estación espacial.

Tabla 1.1. Sensores montados en el Skylab.

Sensor Descripción
S-190 A Cámara fotográfica multiespectral
S-190 B E.T.C (Earth Terrain Camera)
S-191 Espectrómetro Infrarrojo
S-192 Barredor Multiespectral
S-193 Radiómetro de Microondas
S-194 Radiómetro Banda L
Las imágenes difundidas por la NASA corresponden a los dos primeros sensores.

1.2.1. Sensor S-190 A

El sensor S-190 A estaba integrado por seis cámaras de alta precisión formando un solo
conjunto. Las cámaras empleaban película de 70 mm con diferente sensibilidad y estaban
equipadas con filtros específicos para registrar porciones del espectro electro magnético desde
el visible al infrarrojo. Cada cámara, de formato cuadrado, permitía un registro de un área
aproximada de 26.503 Km 2 en el terreno.

Una de las cámaras empleaba película color y otra infrarrojo color; de las cuatro restantes, dos
utilizaban película infrarrojo blanco y negro mientras que las dos últimas utilizan pancromático
blanco y negro.

Menéndez, M. A y V. Núñez
11
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Se utilizó el registro fotográfico multibanda ya que este proporciona una mayor discriminación
de las condiciones del terreno, vegetación y agua, merced a la reflexión de las distintas
cubiertas del terreno en las diferentes porciones del espectro electro magnético y su expresión
en las fotografías.

Figura 1.3. El sensor S-190 A

Pese a ser pequeña, la escala obtenida con el sensor multiespectral (1: 2.860.000) resultó útil
para la compilación del mapa base de uso del suelo y del inventario de recursos terrestres.
Pudieron lograrse ampliaciones fotográficas de hasta 11 veces con buena resolución.

1.2.2. Sensor S-190 B

Se trataba de una sola cámara que cubría 11.881 Km 2 (109 x 109 Km.) en el terreno. Fue
diseñada para obtener fotografías de alta resolución y fue eficaz en algunos casos en que la
calidad de sus imágenes hizo innecesarias las comprobaciones en el terreno y permitió sustituir
a otras clases de fotografías aéreas tomadas a gran altura. El ancho de la película empleada
era de 12 cm proporcionando una imagen útil de 11 cm de lado.

Menéndez, M. A y V. Núñez
12
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 1.4. Sensor 190 B. Cámara de alta resolución Earth Terrain Camera (E.T.C).

Las fotografías de la cámara S-190 B son muy similares a las aéreas de gran altura (18.000
m.). La mayor diferencia está en que la fotografía aérea cubre aproximadamente 33 x 33 Km,
mientras que la cámara S-190 B cubría 109 x 109 Km.

Menéndez, M. A y V. Núñez
13
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 1.5. Imagen tomada con el sensor 190 B de Montevideo y el río de la Plata.
Fuente: http://www.geog.ucsb.edu/~jeff/115a/history/skylab.html.

Tamaños y escalas

Sensor Escala Tamaño de la copia

190 A 1 : 2.850.000 5.588.x 5,588 cm.

190 B 1 : 950.000 11,43.x 11,43 cm.

190 A 1 : 1.000.000 16 x 16 cm.

1 : 500.000 32,5.x 32,5 cm.

1 : 250.000 65 x 65 cm.

190 B 1 : 500.000 21,8 x 21,8 cm.

1 : 250.000 43 x 43 cm.

1 : 125.000 86,8 x 86,8 cm

Mediante el uso de sensores del Skylab se produjo información sobre tierras cultivadas y
forestales, identificación de suelos y tipos de rocas; cartografía de rasgos naturales y
desarrollos urbanos, detección de sedimentos y magnitudes de contaminación; estudios de
nubes y océanos, determinación de extensión y cubrimiento de nieve y hielo etc.

Menéndez, M. A y V. Núñez
14
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Sensor S-190A Sensor S-190B

Figura 1.6. Área cubierta por los sensores 190A y 190B.

1.3. PROGRAMA LANDSAT

1.3.1. Principios generales y fundamentos

El primer satélite tecnológico de recursos de la tierra (ERTS 1), ahora llamado LANDSAT 1 fue
lanzado el 23-VII-72 habiendo superado con seis años de permanencia en el espacio los 10
meses de vida útil preestablecida.

El lanzamiento del LANDSAT 2 se efectuó el 22-I-75; el LANDSAT 3 el 5-III-80; el 4 en julio de


1982 y el 5 en 1985.

El Landsat vuela en una órbita circular a 570 millas (920 Km.) sobre la superficie de la tierra, y
completa cada una de ellas cada 103 minutos, es decir que realiza 14 órbitas por día. Su
trayectoria es de norte a sur y a partir de un punto determinado, cada Landsat puede captar el
globo entero, excepto los polos, con cubrimientos repetitivos cada 18 días.

Menéndez, M. A y V. Núñez
15
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 1.7. Orbita del Landsat. www.fao.org/DOCREP/003/T0446S/T0446S04.htm

Los satélites Landsat están equipados con tres sistemas de adquisición de datos: una cámara
vidicón de haz de retorno (RBV) parecido a un circuito de televisión; un barredor multiespectral
(MSS) y un sistema de recopilación directa de información (DCS) que retransmite datos
numéricos sobre el medio ambiente desde las plataformas de recopilación de datos situadas
en tierra a un punto central. El RBV y MSS son fundamentales ya que constituyen los únicos
sistemas de formación de imágenes a bordo de los satélites.

Figura 5.3.1: El Satélite LANDSAT 1 (similar al 2 y 3). Fuente : Aeroterra y


www.sigagropecuario.gov.ar/catalogo-imagenes/programa-landsat.htm

El análisis de las distintas imágenes en blanco y negro o de las compuestas infrarrojas o falso
color, permiten a los científicos identificar e inventariar diversos fenómenos ambientales tales
como la distribución y tipo general de vegetación, estructuras geológicas regionales, áreas
hidrográficas, oceánicas y nivológicas etc.

El cubrimiento repetitivo (9 ó 18 días) y el cubrimiento estacional proporcionado por las


imágenes constituyen un nuevo medio para la interpretación de los fenómenos dinámicos.

Menéndez, M. A y V. Núñez
16
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Como consecuencia de la rotación de la tierra y de que la imagen se obtiene por medio de un


explorador óptico mecánico, las imágenes del MSS son paralelogramos; los lados son
paralelos a la órbita del satélite. Las imágenes RBV son cuadradas debido a que ellas son
obtenidas instantáneamente.

La superposición entre imágenes consecutivas es de aproximadamente 14% en el Ecuador


hasta 85% en latitud 80º.

1.3.2. Parámetros orbitales de los programas LANDSAT 1, 2 y 3

Fecha de lanzamiento: Landsat 1: 23/07/1972 fuera de servicio: Enero de 1978.

Landsat 2: 22/01/1975 fuera de servicio: Febrero 1982.

Landsat 3: 05/03/1978 fuera de servicio: marzo 1983.

Altura sobre la corteza terrestre: 920 Km.

Órbita: Polar, dirección Norte -Sur. Sincrónica con el sol.

Período: 103 minutos.

Ciclo de Cubrimiento: cada 18 días (se considera c/9 días en el caso que 2 satélites
(LANDSAT 1 y 2 ) están opuestos en 180º.

Área Relevada: 185 km x 185 km . = 34.225 Km²

Superposición Lateral de la imagen: 0º = 14%; 60º = 57%; 80º =85%

Resolución espacial: 100m. aproximadamente para ambos sensores

Números de Órbitas por día: 14

Distancia entre órbitas de un periodo (N a N+1) = 2.875 km.

1.3.2.1. Sensores: Bandas Espectrales

MSS: Banda 4 = 0.5 a 0.6 pancromática (verde)

5 = 0.6 a 0.7 pancromática (rojo)

6 = 0.7 a 0.8 Infrarroja (IR cercano)

7 = 0.8 a 1.1 Infrarroja (segundo IR cercano)

RBV: Banda 1 = 0.475 a 0.575 (azul-verde)

2 = 0.580 a 0.680 (verde-amarillo)

Menéndez, M. A y V. Núñez
17
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

3 = 0.690 a 0.830 (infrarrojo)

1.3.2.2. Parámetros de las imágenes

Mínimo elemento de resolución: píxel = 56 m. x 79m. = 0.4 Ha = 1.1 acre

Nº de líneas de barrido: 2.340 y c/línea con 3240 píxel - Total = 7.581.000 píxel en la imagen

Escala original: 1: 3.369.000

Tamaño original de la imagen: 70 mm.

Tamaños estándar de venta: 70 mm. (Escala 1: 3.369.000)

18.5 cm. x 18.5 cm. (Escala 1: 1.000.000)

37 cm. x 37 cm. (Escala 1: 500.000)

74 cm. x 74 cm. (Escala 1: 250.000)

1.3.2.3. Anotaciones al pie de la imagen

Fecha de toma fotográfica: 23 de Feb. 73

Latitud y longitud del centro de la imagen: C S 25º 47´ W 54º 43´

Latitud y longitud del Nadir de la imagen: N S 25º 49´ W 54º 37´

MSS: tipo de Sensor: barredor multiespectral

7: Banda empleada (en este caso infrarroja 0.8 a 1.1)

R: Corresponde a imagen grabada (si es directa se usa la D)

SUN EL 47 AZO 75: Ángulo de elevación solar y ángulo acimutal solar

189: Rumbo del Satélite

2995: Nº de revolución de órbita desde el lanzamiento del satélite.

A: Antena receptora A: Alaska (G: Golstone ) (N: TTF Goddard ) (B: Brasil)

1ND1L: Datos del procesamiento de la imagen

NASA ERTS / LANDSAT: Agencia y proyecto

E-1215-13040: Nº de identificación de la imagen

E: Proyecto ERTS LANDSAT

1: Misión ERTS-1

215: Cantidad de días transcurridos desde el lanzamiento del satélite

Menéndez, M. A y V. Núñez
18
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

13040: Hora de toma de la imagen fotográfica ( barrido) 13 hs., 04 min., 0 decenas


de segundos

7: Clave de identificación de la banda espectral

02: Calibración radiométrica de la imagen y nº de regeneración

Marcas de registro: Son las cruces que aparecen fuera de las esquinas de la imagen; sirven
para facilitar la alineación de la distintas imágenes de la misma escena.

Marcas de anotación: Latitud y Longitud fuera del borde de inscripción de la imagen a


intervalos de 30´ de arco.

Escala de grises: Se usa para controlar la impresión y procesamiento.

Aspecto de una imagen en banda


7 tomada con el barredor
multiespectral (MSS) donde el
formato de la imagen es un
paralelogramo por ser una
imagen continua afectada por el
giro de la tierra. Gentileza:
Cátedra de Fotogeología.
Universidad Nacional de Salta.

Menéndez, M. A y V. Núñez
19
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Imagen tomada por el sensor RBV


en banda 2. Por ser una imagen
instantánea es de formato
cuadrado y no es afectada por el
giro de la tierra. Esta imagen tiene
marcas de registro y exploración.
Gentileza: Cátedra de Fotogeología.
Universidad Nacional de Salta.

1.3.2.4. Trayectoria

Fig. 5.3.2: trayectoria terrestre del Landsat.


Fuente:www.fao.org/DOCREP/003/T0446S/T0446S04.htm.

Menéndez, M. A y V. Núñez
20
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Con las tres estaciones terrestres utilizadas, la información que cubre a los ESTADOS UNIDOS
(incluyendo ALASKA y excluyendo HAWAI), Se obtiene en aproximadamente 18 minutos de
operación por día.

Cubrimiento para dos orbitas en dos días consecutivos. Fuente:


www.fao.org/DOCREP/003/T0446S/T0446S04.htm

Figura 5.3.4: Superposición de imágenes en el Ecuador. Aeroterra S.A.

Menéndez, M. A y V. Núñez
21
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

1.3.3. El barredor Multiespectral MSS

Este sistema reúne información terrestre obteniendo imágenes en varias bandas espectrales
simultáneamente, nominadas 4, 5, 6 y 7 (desde 0.5 a 1.1 micrones).

El explorador de 4 canales consiste en:

1- Un reflector plano que barre líneas transversales a la línea de vuelo, de 185 Km. (100 millas
náuticas) de ancho. Este barrido se efectúa por una oscilación transversal del espejo en 2º
53´48”).

2- Un telescopio que enfoca la escena terrestre desde el reflector o espejo hacia una matriz de
fibras ópticas y

3- Un grupo de tubos fotomultiplicadores de receptores de imágenes.


4- Un grabador de haz electrónico convierte las señales registradas en la cinta en 4 imágenes
espectrales (bandas 4 a 7) de cada escena terrestre, en una película de 70 mm. El intervalo
de muestreo es de 10 microsegundos.

Figura 5.3.5: El Barredor Multiespectral MSS. Aeroterra S.A.

1.3.3.1. Cámara vidicón de haz de retorno RBV (Return Beam Vidicon)

El subsistema RBV contiene tres cámaras individuales que operan en tres bandas espectrales
mencionadas anteriormente en el ítem Sensores.

Menéndez, M. A y V. Núñez
22
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.3.6: Cámaras RBV. Fuente: Aeroterra S.A Marcas de registro y de orientación de la
exploración del RBV . Fuente: Aeroterra S.A.

Aspecto de una imagen tomada con RBV en


infrarrojo cercano. Véase las marcas
fiduciales y el formato cuadrado por tratarse
de una imagen instantánea.
Fuente: www.fas.org/irp/imint/docs/rst/Intro/rbv1

Cada cámara posee una lente óptica, un obturador, el sensor RBV, un enfocador
termoeléctrico, bobinas de deflexión y de foco, lámparas de barrido y sensores electrónicos.
Las cámaras son similares excepto respecto de los filtros espectrales de las lentes. Los
sensores electrónicos contienen los circuitos que programan y coordinan la operación de las
tres cámaras en forma de un sistema completamente integrado y las interrelacionan con los
restantes subsistemas de la nave espacial.

Menéndez, M. A y V. Núñez
23
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

1.3.3.2. Utilidad de las bandas del barredor multiespectral MSS

Banda 4 (0.5 a 0.6 micrones)

Tiene la mejor penetración en el agua. Es la más eficaz para realizar estudios intrínsecos de
los cuerpos de agua. Tiene sensibilidad óptima para el análisis de modelos de contaminación
de aguas, turbidez, densidad de fitoplancton , topografía submarina y condiciones
atmosféricas.

Posee la menor penetración en las nubes. Es conveniente para infraestructuras urbanas y de


transportes, trazados de carreteras etc. Tiene máxima reflectancia en nieve seca y derretida.

Banda 5 (0.6 a 0.7 micrones)

Ofrece la mejor definición y discriminación de los modelos de contaminación del agua, turbidez,
densidad de fitoplancton, topografía submarina y contaminaciones atmosféricas.

Es útil para la identificación de rasgos culturales, infraestructura urbanas y de transportes,


trazado de carreteras, modelos de uso de la tierra, tipo de vegetación y su cubrimiento. Fuerte
reflexión de la nieve seca y derretida. Rocas de lecho expuesto.

Banda 6 (0.7 a 0.8 micrones)

Discriminación agua/tierra; redes de drenaje; morfología de las corrientes de agua; vigor de la


vegetación, estructuras de las rocas; buena penetración de las nubes.

Banda 7 (0.8 a 1.1 micrones)

Mínima penetración en el agua ; óptima discriminación agua/tierra; infalible para cartografiar


costas oceánicas, lagos y tierras húmedas.

Vigor de la vegetación; redes de drenajes y morfología de las corrientes de agua. Estructuras


rocosas. Tiene la máxima penetración en las nubes.

Vestigios de incendios recientes. Fuerte reflectancia en la nieve seca y reducida reflectancia en


la nieve derretida (probablemente debido a la absorción por delgadas películas de agua).

1.3.3.3. Imágenes en falso color compuesto ó IR color

La variación de reflejo infrarrojo de los objetos es de gran valor en la fotointerpretación, y de


ahí el uso de las imágenes infrarrojas color especialmente para la delineación de los tipos de
vegetación, de líneas costeras, extensión de pantanos, ríos, etc. Con las imágenes Landsat en
las distintas bandas se componen imágenes en color llamadas “falso color compuesto”. Estas
imágenes son creadas exponiendo simultáneamente tres o cuatro bandas en blanco y negro, a
través de diferentes filtros de colores, sobre una película color. Generalmente se obtiene
mediante la exposición secuencial de las bandas del barredor multiespectral: la 4, a través del
filtro azul; la 5, a través del filtro verde y la 7, a través del filtro rojo.

Menéndez, M. A y V. Núñez
24
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.3.7: Procesado de imágenes en falso color compuesto. Aeroterra S.A.

Imagen falso color compuesto del Landsat


1 tomada el 23/02/1973En rojo se ve la
cubierta de la selva circundante al Parque
Nacional Iguazú y la triple frontera
Argentina – Paraguay – Brasil.

Fuente: elparanaense.com.ar/paranaense/index.php

Imagen en falso color compuesto del


desierto de Atacama (Chile) en donde la
mancha roja en el ángulo superior derecho
corresponde a vegetación sana. Gentileza
cátedra de Fotogeología. Universidad
Nacional de Salta.

Menéndez, M. A y V. Núñez
25
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

1.3.3.4. Formato

Las imágenes MSS y RBV son casi idénticas, salvo que las primeras no contienen referencias
fiduciales (marcas de cuadrícula y de registro).

Las del MSS son paralelogramos pues se trata de un barrido continuo en el que influye la
velocidad de rotación de la tierra ; las RBV son cuadradas pues la imagen que se obtiene es
instantánea.

1.3.4. LANDSAT 5 TM (Mapeador Temático)

Comienza con el lanzamiento del Landsat 4 el 16 de Julio de 1982 pero éste tuvo problemas y
continúa con el Landsat 5 el 1 de Marzo de 1984.

Objetivos:

• Acceder a la capacidad del sistema y los asociados sistemas terrestres que proveen
información mejorada de los recursos terrestres.

• Proveer con eficacia y en forma continua, de datos del MSS y TM.

• Permitir la continuidad de recepción de los datos del Landsat por otras naciones.

Figura 5.3.8: Satélites Landsat 4 y 5 con sensor TM

Fuente: http://landsat.gsfc.nasa.gov/about/landsat4.html

http://www.fao.org/DOCREP/003/T0446S/T044626.gif

1.3.4.1. Sensores

Posee los sensores MSS y TM, la diferencia fundamental entre los dos sensores es que
el TM barre y obtiene datos en ambas direcciones, así reduce la relación de barrido y provee el
tiempo de detención necesario produciendo una mejor precisión radiométrica.

Además, la pantalla detectora del TM está localizada dentro del plano focal primario del
instrumento, permitiendo que la incidencia de luz sea reflejada directamente sobre los
detectores sin transmisión a través de fibras ópticas, como ocurre en el MSS. Esta

Menéndez, M. A y V. Núñez
26
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

configuración minimiza algunas pérdidas en la intensidad de radiación incidente. Asimismo,


esto requiere que la pantalla detectora para varios anchos de bandas espectrales esté
separado en el plano focal por el equivalente de varias líneas, significando que el mismo punto
en el terreno no sea simultáneamente barrido en todas las 7 bandas. La precisión del registro
TM, banda por banda, dependerá del tiempo preciso de registración y del perfil lineal y
repetitivo del espejo barredor.

1.3.4.2. Mapeo temático

El TM opera en 7 bandas espectrales:

Banda 1 (0,45 - 0,52 m)

Elegida por su penetración en cuerpos de agua, lo que la hace adecuada para el mapeo de
aguas costeras. También es adecuada para la diferenciación de suelos, vegetación y
vegetación decidua de coníferas.

Banda 2 (0,52 - 0,60 m)

Seleccionada para medir picos de reflectancia verde, a fin de evaluar vigor.

Banda 3 (0,63 - 0,69 m)

Banda de absorción de la clorofila, importante para discriminación de vegetación.

Banda 4 (0,76 - 0,90 m)

Apta para determinación del contenido de biomasa y delineación de cuerpos de agua.

Banda 5 (1,55 - 1,75 m)

Indicativa del contenido de humedad de la vegetación y de la humedad del suelo. Diferencia


nieve de nubes.

Banda 6 (10,40 - 12,50 m)

Banda IR termal para analizar stress de vegetación, humedad del suelo y mapeo termal.

Banda 7 (2,08 - 2,35 m)

Discriminación de tipos de rocas y mapeo hidrotermal. Única banda de aplicación geológica.

La resolución espacial del TM se perfeccionó con un píxel de 30 m en el terreno, a excepción


de la banda 6 (termal), que tiene un píxel de 120 m.

El MSS en el Landsat 4 es similar a los anteriores. La óptica ha sido adaptada para que el
tamaño del píxel sea similar al del Landsat 1, 2 y 3 (80m de resolución), en una orbitación de
menor altura que en los satélites anteriores (750 Km contra 920 Km).

1.3.4.3. Órbita y cobertura

La órbita en el Landsat 4 es repetitiva, sincrónica con el sol y casi polar, altitud de 705 Km
sobre el ecuador, período de 99 minutos, completando 14,5 órbitas por día y cubriendo el globo
terráqueo en 16 días.

Menéndez, M. A y V. Núñez
27
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

La órbita baja es la que hace más resolutivo al TM.

Superposición lateral en el ecuador: 6 - 7 %

Ancho de faja: 185 Km

Este satélite ya cumplió 25 años orbitando la tierra obteniendo imágenes, salvo algunas
interrupciones por distintos motivos técnicos.

Cobertura de Argentina con


imágenes tanto Landsat 5
(TM) como Landsat 7 (ETM
+) de acuerdo a orbita (223
a 234) y fila (075 a 099) sin
considerar el territorio
antártico e islas del atlántico
sur.

Fuente: http://www.sigagropecuario

Gov.ar/images/landsat5-7.gif

Fuente: http://www.sigagropecuario.gov.ar/images/landsat5-7.gif

1.3.5. LANDSAT 6

Fue lanzado el 5 de Octubre de 1993 pero no alcanzó la velocidad suficiente para entrar en
órbita. Este llevaba los mismos sensores que se describirán en el Landsat 7.

Menéndez, M. A y V. Núñez
28
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Fuente: http://landsat.gsfc.nasa.gov/about/landsat6.html

1.3.6. El LANDSAT 7 con el sensor ETM+

Fuente: http://www.ga.gov.au/remote-sensing/satellites-

Fue lanzado el 15 de abril de 1999.

Landsat 7 Enhanced Thematic Mapper (ETM), con 15 m. de resolución en el pancromático y


tres bandas espectrales de 30 m. de resolución. La banda 6 con dos rangos:6.1 y 6.2 con
resolución de 60 metros

Resolución Espectral: se refiere a las bandas que utiliza cada sensor con sus respectivos
rangos de longitud de onda.

Menéndez, M. A y V. Núñez
29
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

BANDAS ESPECTRALES del TM y ETM +

Anchura de banda (µm) Anchura mínima – Anchura máxima

Sensor Banda Banda Banda Banda Banda Banda Banda Banda 8


1 2 3 4 5 6 7

0.45 - 0.52- 0.63-


TM 0.52 0.60 0.69
0.76-0.90 1.55-1.75 10.4-12.5 2.08-2.35 No existe

Resolución
30 30 30 30 30 120 30 --
(metros)

0.45 - 0.53- 0.63-


ETM + 0.52 0.61 0.69
0.78-0.90 1.55-1.75 10.4-12.5 2.09-2.35 .52 - .90

Visible
Visible Visible Visible Infrarrojo Infrarrojo Infrarrojo Infrarrojo
Región Azul Verde Rojo Cercano Medio Lejano Medio
Pancromático

Resolución
30 30 30 30 30 60 30 15
(metros)

Comparación entre las bandas del TM y ETM plus

Resolución Espacial: Se refiere al tamaño del píxel, mínimo elemento de resolución de la


imagen satelital.

Comparación de las resoluciones espaciales en el terreno (tamaño del píxel) del Programa
LANDSAT.

Menéndez, M. A y V. Núñez
30
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Resolución Temporal: Corresponde a la repetitividad de pasadas del satélite por el mismo


lugar para tomar otra imagen.

Landsat 1 – 3 : cada 18 días

Landsat 4 – 7 : cada 16 días

En Mayo de 2003 empezaron los problemas con el SLC (Scan Line Corrector), dispositivo
complementario del espejo barredor que elimina el zigzag de las líneas observadas o
barridas y que hasta hoy no se pudo solucionar. Solo la zona central de cada imagen está
bien pero muestra un “ruido” que se acrecienta a medida que se avanza a la periferia.

Imagen completa tomada por el Landsat


7

Orbita – cuadro 230 – 79 del 27 de Mayo


de 2005 con el “bandeado” característico,
producto del problema del SLC

Menéndez, M. A y V. Núñez
31
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.3.9: Orbita del Landsat 7. Distanciamiento entre fajas del mismo día en el Ecuador

Figura 5.3.10: Orbitas recorridas en días sucesivos. Fajas adyacentes desde el día 1 al 16. El
intervalo de tiempo entre orbitas adyacentes es de 7 días.

COBERTURA HISTORICA DE LOS SATELITES LANDSAT


Menéndez, M. A y V. Núñez
32
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Landsa ▼ -----Hasta
t7 hoy-

▼ Falló en
Landsa
alcanzar
t6
la orbita

Landsa
▼ sin transmisión de datos
t5

Landsa
▼ sin transmisión de datos
t4

Landsa ▼ ------------------
t3 ●

Landsa ▼ -----------------------------
t2 ●

Landsa ▼----------------
t1 ●

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2
9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0 0 0 0 0 0
AÑO
7 7 7 7 7 7 7 7 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 0 0 0 0 0 0
2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 3 4 5 6 7 8 9 0 1 2 3 4 5

▼: Año de lanzamiento

●: Fin de servicio

Menéndez, M. A y V. Núñez
33
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Grilla de búsqueda por path & row de


las imágenes Landsat para el norte y
centro de la Argentina. Esta grilla es la
que se utiliza para elegir
posteriormente las imágenes en el
catálogo de la CONAE (Comisión
Nacional Actividades espaciales)

5.4. PROGRAMA SPOT

El sistema SPOT fue concebido por el Centro Nacional de Estudios Espaciales en


Francia, con colaboración de Bélgica y Suecia.

El SPOT 1 fue lanzado el 22-II-86 y se planificó el lanzamiento del SPOT 2 para 1988,
en caso de necesidad como repuesto del SPOT 1. El 3 y 4 a partir de 1990 con el fin de
asegurar la continuidad del servicio. El SPOT 2 se lanzó en 1990.

Menéndez, M. A y V. Núñez
34
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Fig. 5.4.3: La nave espacial SPOT

El sensor ARV

Tiene dos modos de funcionamiento:

1. Modo Pancromático (en blanco y negro), correspondiente a una observación sobre una
amplia banda espectral (0,51 - 0,73 )

2. Modo multibanda (en color), correspondiente a una observación sobre tres bandas más
estrechas: 0,50 - 0,59 

0,61 - 0,68 

0,79 - 0,89 

El píxel o mínimo elemento de resolución es de 10 m en el primer caso, y de 20 m en el


segundo en mira vertical. Esta alternativa corresponde a la observación de pequeñas parcelas
agrícolas, frecuentes en varios países.

El espejo plano del instrumento, orientable por telemando, permite desplazar el eje de
mira en un plano perpendicular a la órbita. Este desplazamiento es posible en un ángulo + - 27º
alrededor de la posición vertical.

Menéndez, M. A y V. Núñez
35
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.4.4: Sensor SPOT. Detectores

La órbita es heliosincrónica, el satélite pasa por la misma traza cada 26 días (vista nadiral)

La mira vertical

Los dos instrumentos ARV están dispuestos de tal modo que si los ángulos de mira son de + -
1,8º se puede observar a la vertical del satélite una faja de terreno de 117 Km de ancho con un
recubrimiento de las dos imágenes de 3 Km. Esta disposición permite tener una visión
completa del globo terrestre, puesto que la distancia entre dos trazas adyacentes es de un
máximo de 108 Km.

La mira vertical

La mira lateral
Menéndez, M. A y V. Núñez
36
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Con una orientación correcta del espejo de entrada del instrumento fijada por
telemando, es posible observar regiones interesantes y que no están necesariamente a la
vertical del satélite. Sin embargo, éstas deben estar en una faja de 450 Km de ancho,
rodeando la traza en tierra del satélite.

El ancho del segmento efectivamente observado varía entre 60 Km a la vertical del


satélite y 80 Km en la mira lateral extrema.

Figura 5.4.6: la mira lateral

Menéndez, M. A y V. Núñez
37
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.4.7: Frecuencia de observaciones

Frecuencia de las observaciones

Miras verticales: cada 26 días se repite la observación en un mismo lugar, lo que causaría
inconvenientes en el caso de observación de un fenómeno de evolución relativamente rápida.

Con las miras laterales puede aumentar considerablemente la frecuencia de las


observaciones. Un punto podrá ser observado 7 veces si está a nivel del Ecuador y 11 veces
si está a la latitud de 45º.

Si se llama D el nº del día cuando el satélite pasa a la vertical de un punto escogido los
días que permiten observación es dado por las figuras.

Se comprueba que pueden tener observaciones sucesivas de una misma región a


fechas separadas de uno o 4 días alternativamente (a veces 5 días).

Menéndez, M. A y V. Núñez
38
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.4.8

Menéndez, M. A y V. Núñez
39
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Figura 5.4.9: La estereoscopía

La Estereoscopía

Las miras laterales permiten también obtener pares de imágenes estereoscópicas de


una misma vista; estas imágenes son tomadas bajo ángulos diferentes durante las sucesivas
revoluciones orbitales del satélite. La relación B/Z es de 0.75 al nivel del ecuador y 0.50 a 45º
de latitud. Las aplicaciones son en geomorfología, estudios hidrogeográficos, etc.

Programación de las observaciones

A través de un programa se fijan ángulos de mira de los dos instrumentos, modos (multibanda
o pancromático), emisión directa y/o grabación de datos, etc.

Adquisición de datos

Los datos se adquieren de distintas formas:

CCT: cinta compatible por computadora

Film: procedentes de centros de preprocesado de las estaciones

Niveles de preprocesado: son 4, denominados 1 A, 1 B, 2 y 5.

Formatos: 24 x 24 cm escala 1:400.000

50 x 50 cm escala 1:200.000

70 x 70 cm escala 1: 100.000

100 x 100 cm escala 1:50.000

Producción de datos

1. Copias en papel blanco y negro y transparencias en películas para cada una de las 7
bandas del TM.

2. Falso color compuesto de bandas 2, 3 y 4.

3. Cintas compatibles con computadora (CCT).

4. CD ROOM

Menéndez, M. A y V. Núñez
40
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Trazas descendentes durante el día (24 horas)

Figura 5.4.10: Programación de las observaciones

Grilla de referencia SPOT para la República Argentina

Menéndez, M. A y V. Núñez
41
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Los límites de las escenas y la notación empleada para su identificación son asignados de
acuerdo al Grid Reference System (GRS) el cual permite identificar la localización geográfica
de las imágenes SPOT a partir de un sistema nominal de franjas (J) y columnas (K). Las
imágenes SPOT necesarias para dar cubrimiento a la superficie continental de Argentina se
encuentran desde la Franja J 392 hasta la J 464 y desde el K 672 hasta el K 703.

SPOT 5 (Systeme Probatoire d'Observation de la Terre)

En comparación con sus predecesores, SPOT-5 ofrece capacidades mejoradas en gran


medida, que proporciona más rentables soluciones de imágenes. Gracias a SPOT-5 la mejora
de metro y 2,5 metros de resolución de imágenes y una amplia franja, que abarca 60 x 60 Km.
o 60 Km. x 120 Km. en instrumento de doble modo, el SPOT-5 proporciona un equilibrio ideal
entre la alta resolución y de área amplia cobertura. La cobertura ofrecida por SPOT-5 es un
activo clave para aplicaciones tales como mediana escala de cartografía (a 1:25 000 y 1:10
000 a nivel local), la planificación urbana y rural, exploración de petróleo y gas, y de gestión de
desastres naturales. Otro elemento clave es la capacidad de adquisición sin precedentes de a
bordo, el HRS o instrumento de visión estéreo, que pueden cubrir vastas zonas en una sola
pasada. El Par estereoscópico de imágenes es vital para aplicaciones que requieren el terreno
de modelado 3D y entornos, tales como bases de datos simuladores de vuelo, los corredores
de oleoductos, teléfono móvil y planificación de la red.

Menéndez, M. A y V. Núñez
42
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Resolución 5 m. pancromático y 2.5 m en supermodo. Los telescopios del instrumento HRV


(Haute Resolution Visible) trabajan con resolución de 5 m en pancromático y con 10 m para
imágenes multiespectrales; el funcionamiento en supermodo es posible usando un nuevo
concepto de barrido que consiste en duplicar y dislocar de medio píxel los detectores CCD que
ya existen en modo pancromático de 5 m de resolución. Esta tecnología permite que sean
captadas dos veces más el área barrida, y por el procesamiento digital de la imagen se alcanza
la resolución mencionada (figura 2).

1.4. SPOT-5 Características del sensor de satélite

Fecha de Lanzamiento 3 de mayo de 2002

Vehículo de lanzamiento Ariane 4

Lugar de lanzamiento Centro Espacial de Guayana, Kourou, Guyana francés

La altura de órbita 822 kilómetros

Inclinación orbital 98,7 °, heliosincrónica

Velocidad 7,4 km / segundo (26.640 km / hora)

Tiempo de cruce 10:30 AM (nodo descendente)

Período 101,4 minutos

Tiempo de revisita 2-3 días, dependiendo de la latitud

Ancho de franja 60 Km. x 60 Km. a 80 Km. en el nadir

Precisión Métrica <50 metros, exactitud de posición horizontal (CE90%)

Digitalización 8 bits

Pan: 5m (nadir)

Resolución MS: 10m (nadir)

SWI: 20m (nadir)

Pan: 480-710 nm

Verde: 500-590 nm
Bandas
Rojo: 610-680 nm

IR cercano: 780-890 nm

Menéndez, M. A y V. Núñez
43
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Infrarrojo medio: 1,580-1,750 nm

EL SATELITE ARGENTINO SAC - C

OBJETIVO

La misión SAC-C cubre tanto la Observación de la Tierra como mediciones con fines
científicos.

La observación de nuestro planeta, particularmente del territorio argentino, se obtiene a


través de imágenes ópticas orientadas al estudio de ecosistemas terrestres y marinos.

En los aspectos científicos obtiene datos de: temperatura y vapor de agua de la


atmósfera, campo magnético y onda larga del campo gravitatorio terrestre, y estudia la
estructura y la dinámica de la atmósfera y de la ionosfera.

PERFIL DE LA MISIÓN

Peso 485 Kg.

Dimensiones Base:1.85m x 1.68m. Altura: 2.2 m.

Altura de la órbita 705 Km, con mantenimiento de órbita

Tipo de órbita Circular, cuasi helio sincrónica

Hora de pasada del satélite 10:25 AM ± 5 minutos

Lanzamiento 21 de Noviembre de 2000, desde


Vandenberg (California) EEUU.

Menéndez, M. A y V. Núñez
44
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

CARGA UTIL

La carga útil está constituida por las cámaras de teleobservación, provistas por
Argentina, y los instrumentos científicos, provistos por diferentes países a través de la
Participación Internacional.

MMRS Cámara Multiespectral de Resolución Media CONAE

HRTC Cámara pancromática de Alta Resolución CONAE

HSTC Cámara de Alta Sensibilidad CONAE

GOLPE Receptor GPS de posicionamiento global NASA

DCS Sistema de Recolección de Datos CONAE

MMP Instrumento de medición del campo geomagnético NASA/DSRI

ICARE Instrumento para determinar el efecto de partículas de alta CNES


energía en componentes electrónicos

INES Experimento de navegación y actitud ASI

IST Instrumento experimental de navegación ASI

Menéndez, M. A y V. Núñez
45
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

El SAC-C conforma, junto con los satélites Landsat 7, EO-1 y Terra de los EEUU, la
Constelación Matutina, constelación internacional para Observación de la Tierra.

CONSTELACION MATUTINA

La Constelación Matutina es una constelación internacional para la observación de la


Tierra, compuesta por los satélites Landsat 7, EO-1 y Terra de los Estados Unidos de América
y el SAC-C de la Argentina.

La Constelación incrementa la sinergia entre los diversos instrumentos, provee nuevas


capacidades para la observación de la Tierra, explora la utilidad de técnicas de navegación
autónoma y permite a los instrumentos a bordo de los distintos satélites obtener imágenes de
distinta resolución en diferentes bandas espectrales en forma casi simultánea y efectuar
experiencias con la constelación de satélites GPS para estudios atmosféricos de importancia,
navegación, control de actitud y determinación de órbita.

En caso de desastres naturales, tales como incendios, inundaciones, etc., ambas


agencias programan los satélites para la adquisición de imágenes con la mayor eficiencia
posible.

El SAC-C y el EO-1 fueron puestos en órbita por el mismo lanzador Delta 2 - 7320 a
fines del año 2000, cuando el Landsat 7 y el Terra ya se encontraban operativos.

Menéndez, M. A y V. Núñez
46
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Hoy en día, en percepción remota se han desarrollado y usado con marcado éxito muchos
sensores con alta resolución espacial y temporal para la integración de evaluaciones de
peligros naturales y en los estudios de planificación para el desarrollo; entre los más comunes
están los siguientes:

ASTER (Advanced Spaceborne Termal Emisión – Reflection Radiometer)

ASTER es uno de los cinco sistemas de


sensores a bordo de un satélite Terra puso
en marcha en diciembre de 1999. Fue
construido por un consorcio del gobierno
japonés, la industria y grupos de
investigación. ASTER monitorea la
cobertura de nubes, los glaciares, la
temperatura de la tierra, el uso de la tierra,
los desastres naturales, el hielo marino, la
cubierta de nieve y la vegetación en una
resolución espacial de 15 a 90 metros. Las
imágenes multiespectrales obtenidas a
partir de este sensor con 14 colores
diferentes, que permiten a los científicos a
interpretar las longitudes de onda que no
pueden ser vistas por el ojo humano, como
infrarrojo cercano, infrarrojo de onda corta
e infrarrojo térmico.

ASTER es el único instrumento de alta resolución espacial de Terra que es importante para la
detección de los cambios, la calibración y / o validación, y estudios de la superficie terrestre.
De los datos de ASTER se espera contribuir a una amplia gama de los cambios mundiales
relacionados con áreas de aplicación, incluyendo la vegetación y la dinámica de los
ecosistemas, vigilancia de los riesgos, la geología y los suelos, la superficie terrestre la
climatología, la hidrología y la generación de modelos digitales de elevación (DEMs ).

1.5. ASTER: Características del sensor

Fecha de 18 de diciembre de 1999 en Vandenberg Air Force Base, California,


Lanzamiento EE.UU.

Cruce del Ecuador 10:30 AM (de norte a sur)

Órbita 705 km de altitud, heliosincrónica

Menéndez, M. A y V. Núñez
47
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Inclinación órbita 98,3 grados desde el ecuador

Periodo de órbita 98,88 minutos

Resolución temporal 16 días

Resolución 15 a 90 metros

ASTER consta de tres subsistemas:

VAIC (visible infrarrojo cercano), un telescopio mirando hacia atrás que sólo se utiliza para
adquirir un par de imágenes estéreo

IROC (infrarrojos de onda corta)

TIR (infrarrojo térmico)

ASTER sensor de alta resolución es capaz de producir estereoscopía (tres dimensiones) y las
imágenes detalladas del terreno modelos de altura. Otras características clave de ASTER son
los siguientes:

Procesos de imágenes, incluyendo ortorectification, DSMs, DTMs, y conversiones


raster-a-vector
Proporciona la visualización 3D del terreno y modelado para la planificación de
proyectos y apoyo
Incorpora datos de SIG de terceros e internacionales
Consulta sobre combinaciones de bandas más adecuadas para llevar a cabo la
distribución geográfica y características artificial que son más pertinentes al proyecto, y
realiza el análisis espectral de la cubierta de la tierra / uso de las clasificaciones y los
cambios ambientales.
Datos de alta resolución espacial en Multiespectral e infrarrojo térmico

Resolución espacial más alta reflectancia espectral de superficie, temperatura y emisividad de


datos dentro de la suite instrumento Terra

Capacidad para programar en la demanda de adquisición de datos de las solicitudes

ASTER tiene 14 bandas de información:

Instrumento VNIR VAIC SWIR IROC TIR

Bandas 1-3 4-9 10-14

Resolución espacial 15m 30m 90m

Ancho de franja 60km 60 kilometros 60km 60 kilometros 60km 60 kilometros

Menéndez, M. A y V. Núñez
48
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Cuantificación (bits) 8 8 12

Banda 4: 1.6 -1.7


Banda 10: 8.12-8.47
Banda 5: 2.14-2.18
Resolución Banda 1: 0.52-0.60 Banda 11 8.47-8.82
Banda 6: 2.18-2.22
espectral Banda 2: 0.63-0.69 Banda 12: 8.92-9.27
Banda 7: 2.23-2.28
(micrones) Banda 3: 0.76-0.86 Banda 13: 10.25-10.95
Banda 8: 2.29-2.36
Banda 14: 10.95-11.65
Banda 9: 2.36-2.43

2. SATELITES DE ALTA RESOLUCIÓN

2.1. SATELITE QUICK BIRD 2


El QuickBird es un satélite comercial de teledetección que fue puesto en órbita el 18 de
octubre de 2001 y quedó situado en una órbita polar heliosincrónica a 450 Km. de la superficie
terrestre.

Resolución temporal: cada 2 a 3 días dependiendo de la latitud y ángulo de visión.

Ancho de faja: 16.5 Km.. Imagen: 16.5x16.5 Km.

Quick Bird 2, con 60 cm. de resolución en


pancromático (blanco y negro) y con 2.44 m
en multiespectral en las bandas azul (0.45 -
0.52 µ), verde (0.52 – 0.6 µ), rojo(0.63 – 0.69
µ) e infrarrojo cercano(0.76 – 0.90 µ).

Fuente:www.emap-int.com

Menéndez, M. A y V. Núñez
49
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Imagen multiespectral en falso color


bandas 4, 3, 2 del volcán Miyake –
jima recogida por el satélite Quick bird
el 14 de Marzo de 2002. Obsérvese
que la zona donde escurre la lava no
hay desarrollo de vegetación que se
manifiesta en color rojo. La isla Miyake
– Jima de encuentra a 200Km. al sur
suroeste de Tokio. La erupción
comenzó en el año 2000 y fueron
evacuados todos los habitantes.

Fuente:www.eduspace.esa.int/subtopic/default.

2.2. SATELITE IKONOS


Introducción

El satélite IKONOS es el primer satélite de tipo comercial que posibilita la captación de


imágenes con un metro de resolución espacial. El término "IKONOS" proviene del griego y
significa "imagen".

Estas imágenes son consecuencia directa de la liberación tecnológica promovida en 1994 por
el gobierno de los Estados Unidos de América. Anteriormente a esa época esta tecnología
estaba disponible para satélites con fines militares.

IKONOS colecta información de cualquier zona en promedio dos veces al día, cubriendo áreas
de 20.000 km2 en una misma pasada y produciendo como resultado imágenes de 1 metro de
resolución cada tres días y de 2 m de resolución todos los días.

El satélite IKONOS pesa unos 720 kg y órbita la Tierra cada 98 minutos a una altitud de casi
680 km en forma sincronizada con el Sol, pasando sobre un determinado lugar
aproximadamente a las 10:30 a.m. hora local. La órbita cubierta por el satélite se concentra
lejos del área directamente debajo del recorrido del mismo, y los datos de un lugar
determinado pueden ser captados casi diariamente, si bien no en todos los casos con 1 m de

Menéndez, M. A y V. Núñez
50
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

resolución. El satélite fue diseñado y fabricado por la empresa Lockheed Martin Commercial
Space Systems.

El sensor digital de imágenes del satélite está diseñado para producir imágenes con elevado
contraste, resolución espacial y precisión, brindando a los clientes un producto preciso y nítido.
La compañía Eastman Kodak proveyó el mecanismo electro-óptico, incluyendo su ensamble
con el telescopio óptico, los detectores y su ajuste al plano focal, incluyendo asimismo el
mecanismo de procesamiento electrónico de alta velocidad basado en un diseño efectuado por
Space Imaging.

Resultando todo un suceso, las imágenes de alta resolución del satélite IKONOS son una grata
realidad y están revolucionando el mercado satelital. Anteriormente, ningún satélite comercial
logró conseguir un nivel de detalle semejante.

Villa Olimpica, Sydney, Australia

Principales características del satélite:


• Fecha de lanzamiento del satélite: 24/09/99
• Lugar de lanzamiento: Vandenberg Air Force Base, California /USA
• Altitud: 681 km
• Inclinación: 98.1º
• Velocidad: 7km/s
• Sentido de la órbita: descendente
• Duración de la órbita: 98 minutos
• Tipo de órbita: sincrónica con el sol
• Angulo de visada: rápida alternancia entre diferentes ángulos
• Tiempo de revista: 1 a 3 días
• Resolución en el terreno de cada banda:
▪ Pancromática: 1m (considerando posición nominal de 26º para el
▪ nadir)
▪ Multiespectral: 4m (considerando posición nominal de 26º para el
▪ nadir)
• Bandas espectrales:
▪ Pan: 0.45 - 0.90 µm
▪ Azul: 0.45 - 0.52 µm
▪ Verde: 0.52 - 0.60 µm
▪ Rojo: 0.63 - 0.69 µm
▪ Infrarrojo próximo: 0.76 - 0.90 µm
Menéndez, M. A y V. Núñez
51
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Productos IKONOS:

• Pancromática 1-metro: posibilita a


los usuarios distinguir rasgos con
dimensiones tan pequeñas como 1
m.

• Color Multiespectral 4-metros:


posibilita a los usuarios distinguir
rasgos con dimensiones tan
pequeñas como 4 m, a partir de
información tomada en tres bandas
del espectro visible (azul, verde,
rojo) e infrarrojo.

• Pan-Sharpened: este producto


combina digitalmente las imágenes
pancromáticas de 1 metro de
resolución con las imágenes
multiespectrales de 4 metros,
resultando un nuevo producto que
presenta la ventaja de contar con
una resolución de 1 m y con la alta
resolución espectral (mayor
discriminación) de las bandas del
visible y/o infrarrojo, lo cual la
convierte en un producto muy
superior a cualquier imagen de los
satélites actualmente operacionales.

Menéndez, M. A y V. Núñez
52
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Imagen Ikonos Pan-Sharpened 1-m de un sector del Gran Buenos Aires.


El área recuadrada corresponde al edificio del supermercado Carrefour de San Isidro.

o Ikonos Ortorectificadas: se trata de imágenes con precisiones de mapa


métricas. Comparativamente, son productos menos costosos y de obtención
más rápida que las tradicionales ortofotos aéreas.

o Los procesos de ortorectificación remueven las distorsiones introducidas por la


variabilidad y geometría de relieve y re-muestrean las imágenes en una
proyección de mapas escogida por el usuario. Incluye el proceso de unión o
mosaicos de diferentes imágenes.

APLICACIONES Y VENTAJAS DE LAS IMAGENES IKONOS:


Las imágenes IKONOS están cambiando actualmente las formas de utilización de los
productos satelitales. Por el hecho de ser IKONOS el primer satélite comercial que brinda un
producto de 1 m de resolución espacial, tenemos la posibilidad de definir los tipos de
estándares para imágenes de alta resolución. A través de la utilización de productos
elaborados por IKONOS y otros satélites tales como LANDSAT, actualmente es posible:
• Los agricultores pueden monitorear con mayor precisión la condición y vitalidad de sus
cultivos y predecir con mayor acierto sus volúmenes de cosecha; además, pueden
prevenir problemas y ahorrar importantes sumas de dinero a través de su
determinación en estados tempranos.

• Los científicos ambientalistas pueden predecir tendencias en áreas de elevada


fragilidad ambiental.

• Los funcionarios de gobierno pueden monitorear, evaluar y planificar políticas de tipos


específicos de utilización de la tierra.

• Los planificadores urbanísticos pueden evaluar los avances de planes comunales de


viviendas y las compañías de seguros pueden medir y mapear daños a propiedades
luego de desastres naturales.

• En las interpretaciones geológico-estructurales. A partir de la posibilidad que ofrece


IKONOS de generar productos con elevado nivel de resolución y recubrimiento
estereoscópico, estas imágenes resultan ser una alternativa mas junto a las fotografías
aéreas.
Las distintas imágenes generadas por los sensores del IKONOS tienen, para ciertas
aplicaciones, algunas ventajas respecto de las fotografías aéreas, entre ellas:

Menéndez, M. A y V. Núñez
53
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

• Mejor calidad métrica y geométrica ya que las fotografías aéreas originalmente no son
productos geométricamente corregidos. Con los productos de IKONOS es posible
obtener una ortoimagen que cubra totalmente el área de interés, a partir de pocos
puntos de control terrestre, reduciendo así considerablemente el tiempo de
procesamiento. Dichos puntos de control pueden seleccionarse a partir de información
precisa ya existente (intersección de caminos, líneas sísmicas, pozos de petróleo, obras
de infraestructura, etc.).

• En general no requieren procesos de unión de distintas imágenes (mosaicos).

• Mantienen uniformidad de tonos y contraste relacionada con la estabilidad de las


condiciones atmosféricas durante el período de captura del satélite.

• Posibilitan la visualización e interpretación estereoscópica tradicional, más la posibilidad


de realizar estéreo análisis digital.

• A diferencia de las fotografías aéreas, no es necesaria la superposición lateral, con lo


cual se optimiza el costo de los pares, a la vez que se facilita el manejo de los mismos y
la consecuente interpretación.

• La interpretación estereoscópica digital facilita el relevamiento y la integración de la


información en una base de datos georreferenciada, posibilitando la superposición y el
modelado espacial.

• Permite la utilización de diferentes combinaciones de bandas espectrales, incluyendo


productos en infrarrojo, lo que aumenta considerablemente las capacidades de
diferenciación y discriminación.

• Resultan más versátiles y menos costosas en el momento de extracción de información


mediante procesamientos digitales, tanto con filtrados direccionales para detección de
estructuras, como clasificaciones o relaciones de bandas orientadas a discriminación
litológica.

• Posibilitan la obtención de cartografía de alta calidad en diferentes escalas y


combinaciones de bandas, a partir de composiciones de mapas que incluyen diferentes
capas temáticas superpuestas, símbolos cartográficos, leyendas, etc.

Estereoproducto consistente en dos


imágenes satelitales en la misma
locación en la tierra tomadas en dos
diferentes perspectivas durante una
pasada orbital.

Fuente: www.satimagingcorp.com/svc/ikonos-
stereo-satellite-images.html

Menéndez, M. A y V. Núñez
54
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

2.3. GEOEYE
Fue lanzado el 6 de septiembre de 2008. Satélite de órbita polar, GeoEye-1 hace 15 órbitas
por día volando a una altitud de 684 kilómetros con una velocidad de orbita de alrededor de 7,5
km por segundo ó 27.200 km/hora. Su órbita sincrónica con el sol le permite pasar sobre una
zona determinada alrededor de las 10:30 de la mañana (hora local), cada día.

La totalidad del satélite es capaz de girar rápidamente en su órbita apuntando la cámara en las
áreas terrestres que se encuentran directamente debajo del mismo, de lado a lado y de
adelante hacia atrás. Esta característica le permite obtener mayor cantidad de imágenes
durante la misma pasada.

Geo: Es un producto que define el futuro de las imágenes de alta


resolución; está disponible tanto para imágenes pancromáticas
de (50 cm y 1 m de resolución) como para imágenes color o
multiespectrales de 4 m de resolución, lo cual resulta excelente
para una variedad de análisis y aplicaciones que requieren
bandas multiespectrales.

Geo es un producto para el análisis visual e interpretativo. Sirve


para la detección de cambios; vigilancia y supervisión del lugar.
Incluye RPC.

Este productos es de uso regional, utilizado para el mapeo de


Geo Professional: grandes áreas; aplicaciones generales de GIS, mapeo básico,
usos de suelo, desarrollo económico, análisis de propiedades
inmobiliarias y seguros. Posee alta precisión posicional para
aplicaciones urbanas. Es ideal para análisis detallado urbano,
catastral, mapeo de infraestructura para transporte,
infraestructura y planificación de servicios públicos. Este
producto es ortorectificado con DEM existente, sin puntos de
control en el terreno..

Geo Stereo:

Este producto permite generar DEM para luego ortorectificar.


Permite analizar planicies de inundación, contribuye a mejorar
la ingeniería en el transporte, infraestructura, planeamiento de
servicios públicos y desarrollo económico.

Menéndez, M. A y V. Núñez
55
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

Menéndez, M. A y V. Núñez
56
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

SENSORES SATELITALES VIGENTES A 2005


Órbita y
Satélite Fecha Sensor Bandas Resolución Más información
cobertura
VNIR 1 verde
Visible and 2 rojo 15 m
ASTER near infrared 3 IR cercano
(EEUU - Japón) 4 IR medio
(Advanced 5 IR medio
SWIR
Spaceborne polar helio 6 IR medio
Shortwave 30m
Thermal Diciembre sincrónica 7 IR medio Asterweb.jpl.nasa.gov/documents/aste
infrared
Emission and de 1999 60 x 60 8 IR medio r_user-guide_v2.pdf
Reflection km 9 IR medio
Radiometer) 10 IR termal
Con capacidad TIR 11 IR termal
estereoscópica Thermal 12 IR termal 90 m
infrared 13 IR termal
14 IR termal
B azul
G verde
LANDSAT 7
Abril 1999 R rojo 25 m
ETM+ polar helio
Falla NIR IR cercano Agrecon.canberra.edu.au
(Enhanced sincrónica ETM+
Mayo MIR IR medio Infoterra-global.com
Thematic Maper 185 km
2003 Thermal IR termal 60 m
Plus)
MIR IR medio 25 m
Panchro Pancromático 12.5 m
polar helio B1 verde
SPOT 5
sincrónica B2 rojo Agrecon.canberra.edu.au
(Francia) 10 m
2002 60x60 y Óptico B3 IR cercano Infoterra-global.com
Con capacidad
120x60 B4 medio www.digitalglobe.com
estereoscópica
km Panchr. PancromáticO 2.5 – 5 m
IKONOS Septiembr polar helio Pancromático 1m IKONOS MSP SATELLITE
(EEUU) e 1999 sincrónica Óptico 1 azul Agrecon.canberra.edu.au
4m
Con capacidad actual 11 km 2 verde Infoterra-global.com

Menéndez, M. A y V. Núñez 57
El Uso de los Sensores Remotos en los Recursos Naturales – Segunda parte: Teledetección

estereoscópica 3 rojo
4 IR cercano
polar helio Panchro Pancromático 0.6 – 0.7 m
sincrónica Azul
QuickBird
Octubre 16.5 km x Verde
Con capacidad Multiesp www.digitalglobe.com
de 2.001 16.5 km Rojo 2.4 a 2.8 m
estereoscópica ectral
272 km2
a 0 a 25º IR cercano
1 verde
JERS-1
Polar helio Escáner 2 rojo
Japanese Earth Feb 1992
sincrónica óptico 3 IR cercano 18 x 24 m
Resources hasta Oct.
75 x 75 OPS 4 IR cercano
Satellite-1 1998
km 5 IR cercano
Fuyo 1
Radar SAR banda L 18 x 18 m
MMRS 1 Azul verdoso
Multispectral 2 Verde
Medium 3 Rojo 175 m
SAC-C
Resolution 4 IR cercano
(Argentina- polar helio
Scanner 5 IR medio
EEUU, Brasil, Abril 2001 sincrónica www.conae.gov.ar/sac_c/
Dinamarca, 360 km HRC
Francia, italia) High
Resolution Pancromático 35 m
Technical
Camera

Menéndez, M. A y V. Núñez 58
Cátedra de Sensores Remotos

3. EL USO DEL RADAR EN LOS RECURSOS NATURALES

3.1. LOS RADARES AEROTRANSPORTADOS

3.1.1. RADAR SISTEMA SLAR

3.1.1.1. Principios Generales Y Fundamentos

El radar es de los sensores corrientemente empleados, el que produce su propia


iluminación en forma de ondas de radio (sensor activo).

Como se conocen exactamente las propiedades de la radiación emitida, se puede saber


exactamente el tiempo que demora la onda en ir hasta un objeto y regresar. Con ese tiempo y
conociendo la velocidad de propagación de la onda, se calcula la distancia al objeto. Con los
valores de distancia y velocidad calculados, se emplean en el radar para mejorar la resolución en
los sistemas que forman imagen.

El RADAR (Radio Detection and Ranging) se desarrolló alrededor de 1920 por grupos
militares para la detección y ubicación de aviones y barcos. Posteriormente, al finalizar la segunda
guerra mundial se desarrollaron los sistemas de radar para formar imágenes.

La mayor ventaja del radar es que puede operar bajo cualquier condición atmosférica, con
o sin nubes, tanto de día como de noche y sin influencia de radiaciones térmicas.

La banda activa del radar es la correspondiente al rango de microondas comprendida entre


0.75 cm (banda Ka) y 1 m (banda P), en esta ultima banda se facilita la penetración de nubes y
niebla. Si la longitud de onda es superior a 3 cm., también podrá penetrar parcialmente nubes
espesas (recargadas de agua) y precipitaciones pluviales.

http://webapp.ciat.cgciar.org/dtmmicroondas

Los radares aerotransportados de barrido circular, suelen caracterizarse por su pobre


definición, y se debe a que las antenas son bastante pequeñas. Para obtener una buena
resolución, es necesario usar un sistema cuya apertura sea grande respecto de la longitud de

59
Cátedra de Sensores Remotos

onda de la radiación recibida. En otras palabras, la resolución de una antena de gran apertura es
mayor que la de una antena de poca apertura.

Evidentemente, es difícil montar a bordo de un avión una antena giratoria de grandes


dimensiones, pero resulta fácil montar en su fuselaje una antena fija de 5 m de longitud, por
ejemplo, orientada hacia uno de los lados del aparato y que por sus características adquiere una
longitud virtual muy grande.

Los radares pueden ser instalados sobre aviones (aerotransportados) o sobre plataformas
espaciales (satélites), éstos poseen una antena que transmite y/o recibe señales generando
imágenes en las cuales se pueden observar características físicas de la superficie de la tierra.

El sistema de radar más empleado para producir imágenes es el SLAR (Side Loocking
Airborne Radar). En este sistema se registra la imagen de una franja de terreno paralela a la línea
de vuelo y ubicada hacia un lado o ambos del avión.

Tipo de radares

De acuerdo con el tamaño de la antena, los radares también pueden dividirse en dos
grandes grupos:

RAR (Radar de Apertura Real)

Los RAR son equipos donde el tamaño de la antena es controlado por la longitud física de
la antena. Se los denomina radares no coherentes. El que se utilizó en aspectos forestales es el
Westinghouse, con una longitud de onda de 0.86 cm. (banda Ka) en la mapificación de los
bosques húmedos tropicales de Colombia.

Este radar posee una antena de 4 metros de longitud; un alcance oblicuo máximo de 24
km. con una duración de impulso de 0.07 microsegundos y una resolución de objetos a 16 Km. de
distancia oblicua del radar de Ry (resolución en el eje y)= 12 m. Rx (resolución en el eje x) = 21 m.
Altura de vuelo sobre el terreno 6.000 metros. Escala media de imágenes 1:218.000.

La ventaja de los equipos RAR esta en su diseño simple y en el procesamiento de los


datos. Sin embargo su resolución es pobre para el rango cercano, misiones de baja altitud y
longitudes de onda baja. El uso de estos datos estaría limitado para longitudes de onda mas corta
y sería difícil aplicarlos a estudios atmosféricos o de dispersión, debido a que las misiones vuelan
a baja altitud y su cobertura es pequeña.

La resolución de la imagen es limitada por la longitud focal en los sistemas ópticos y por la
longitud de la antena en el radar. La antena necesita tener varias veces el tamaño de la longitud
de onda para reducir el ancho de banda de la señal emitida. Sin embargo es impráctico diseñar
una antena suficientemente grande como para producir datos de alta resolución.

SAR (Radar de Apertura Sintética)

La resolución en un sistema de radar es controlada por la longitud del pulso de la señal y el


ancho del rayo proveniente de la antena. La longitud del pulso determina la resolución en la
dirección de propagación de la energía (dirección del alcance). Pulsos más cortos dan lugar a una
alta resolución en el alcance. El ancho del rayo proveniente de la antena determina la resolución
en la dirección del vuelo o del azimut. La amplitud de la señal es directamente proporcional a la
longitud de onda del radar e inversamente proporcional a la longitud de la antena que la transmite.

Esto significa que la resolución se deteriora con la distancia a la antena. Para tener una alta
resolución en la dirección del azimut, la antena de radar debe ser muy larga.

60
Cátedra de Sensores Remotos

Fig….Generación de una antena de apertura sintética de longitud L

a partir de una antena real de longitud. http://webapp.ciat.cgciar.org/dtmradar

Principio de operación del Radar que forma imagen.

El campo electromagnético generado por el Radar (iluminación), depende únicamente de


las características del sistema. Los sistemas de radar son en general monocromáticos, es decir
que producen radiaciones en una sola  y con una pureza espectral comparable a la que se
obtiene en el rango visible o infrarrojo.

La figura 5.5.2 representa esquemáticamente el principio de funcionamiento de un radar


que transmite señales no en forma continua, sino a impulsos.

Fig.5.5.2. Diagrama de bloques de un radar de pulsos

Fuente: www.tecnoradar.es/partesradar.html

El ciclo comienza en el sincronizador, que produce una señal eléctrica o de ondas


electromagnéticas, la cual es enviada en forma de impulsos de varios kilovatios de potencia y de
0.01 a 0.1 microsegundos de duración. El receptor utiliza también esta señal para poner en
marcha su reloj interno en espera del eco devuelto por el obstáculo. El oscilador produce la señal
de frecuencia que se transmite por la antena e incluye un amplificador para obtener la potencia
necesaria. La unidad de control de tiempo establece la duración exacta del impulso y la señal es
transmitida a través de la antena, la cual controla la polarización y dirección de emisión y luego la
recibe.

La antena es metálica y puede ser sólida o estar formada por una malla. La forma de la
antena determina la configuración de la radiación emitida, por consiguiente se emplea
generalmente una antena parabólica para producir un haz en forma de abanico.

RADAR DE ILUMINACION LATERAL (SLAR- Side Loocking Airborne Radar)

61
Cátedra de Sensores Remotos

El equipo con que se realizó el Proyecto Radargramétrico del Amazonas en 1974 donde se
relevó el departamento Caquetá (Colombia) consta de un avión jet Caravelle de la empresa GEMS
(Good Year Electronic Mapping System) equipado con un sistema inercial de navegación, que
sirve para mantener el vuelo controlado con gran precisión, el radar de visión lateral, cámaras
cartográfica y multiespectral que proporcionan una información adicional sobre el terreno
observado.

La figura 5.5.1 muestra al radar aerotransportado de visión lateral con todo el instrumental
electrónico para la formación de imágenes.

El barrido del terreno en dirección perpendicular a la línea de vuelo, puede hacerse por giro
mecánico de la antena o electrónicamente.

62
Cátedra de Sensores Remotos

Figura 5.5.1. Sistema de Radar aerotransportado de visión lateral. Tomado de “Radar de imágenes laterales aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev.
Investigación y Ciencia. Dic. 1977.

63
Cátedra de Sensores Remotos

La antena fijada en el fuselaje emite impulsos cortos de microondas. El haz forma un abanico de pequeña apertura y su dirección es perpendicular a la línea de vuelo.
Cuando uno de dichos impulsos llega a tierra, es reflejado por ella y una fracción del impulso original vuelve al avión. Allí es recibido por la misma antena que lo emitió y
es enviado a un receptor de radio muy sensible. En el receptor se genera una señal cuya amplitud depende de la intensidad de microondas recibidas cada instante.
Esta señal controla la luminosidad del haz de un tubo de rayos catódicos. El haz se registra sobre una película. Puesto que las microondas se mueven en línea recta,

64
Cátedra de Sensores Remotos
las zonas tales como la ladera de la montaña más alejada no reciben y no devuelven impulsos y, por lo tanto, en las imágenes del radar aparecen en negro. La
radiación atraviesa la atmósfera, se refleja en el terreno y vuelve hacia la antena, donde es recibida. El tiempo que demora la onda desde que parte de la antena hasta
que regresa a ella, es función de la distancia del radar al objeto. El sistema de control E/R (emisión/recepción) tiene como principal objetivo separar en el tiempo la
señal emitida de la señal recibida, dando lugar a que llegue la señal de los puntos más distantes. La señal recibida es amplificada y registrada en cinta magnética, para
producir luego una imagen visual. También se puede formar directamente una imagen similar a una fotografía utilizando un TRC( tubo de rayos catódicos). Tomado de
“Radar de imágenes laterales aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev. Investigación y Ciencia. Dic. 1977.

65
Cátedra de Sensores Remotos

3.1.2. Características del radar

3.1.3. Reflexión

El hecho de que una superficie dada aparezca rugosa o lisa en la imagen del radar
viene determinado por el valor de la longitud de la onda electromagnética en relación
con el tamaño de los accidentes del terreno. Por ejemplo: una superficie que resulta
rugosa a la longitud de onda visible de 0.5 micrómetros puede aparecer relativamente
lisa (es decir sin detalles de accidentes) a una longitud de onda de tres centímetros.
Una superficie rugosa difunde la energía incidente en todas direcciones, devolviendo a
la antena solamente una pequeña fracción de dicha energía. En cambio una superficie
lisa refleja la energía incidente en una dirección determinada, comportándose como
un espejo. Si la superficie lisa es perpendicular al haz del radar incidente la energía
devuelta a la antena es intensa: en otro caso, el haz no vuelve a la antena. Algunas
características del terreno, como por ejemplo, un campo de maíz, son reflectores
difusos tanto para la región visible como para la región de las microondas del
espectro. Otras características del terreno, una zona de estacionamiento de cemento,
se muestran como reflectores difusos para la región visible y son reflectores
especulares para le región de las microondas. En conclusión, existen más reflectores
especulares en relación con la captación de imágenes con microondas que los que se
ponen de manifiesto en las fotografías realizadas con luz visible.

Los reflectores especulares por excelencia son las superficies lisas de agua.
Cuando hay oleaje se comporta como un reflector difuso.

En general, estas superficies no son perpendiculares al haz del radar y, en


consecuencia, reflejan toda la energía de las microondas que reciben hacia el espacio
y ninguna fracción de esta energía retorna a la antena del radar. Como resultado de
este hecho las imágenes de los ríos y de los lagos obtenidas mediante un sistema de
radar lateral suelen ser totalmente negras. Por el contrario, las superficies horizontales
y verticales relacionadas entre sí (tales como las de un edificio junto a una carretera)
pueden actuar en forma de diedro reflector, devolviendo a la antena una fracción
importante de la energía emitida. Por consiguiente estas superficies pueden parecer
en el receptor del radar miles de veces más brillantes que las superficies difusas de un
tamaño semejante. En las zonas urbanas existen muchos de estos reflectores
múltiples para las longitudes de onda situadas en la región de las microondas.

66
Cátedra de Sensores Remotos

Fig. 5.5.4. Un reflector difuso, un campo de maíz, por ejemplo, difunde la


energía de los impulsos de microondas en todas las direcciones, devolviendo una
fracción de la energía a la antena del radar. Tomado de “Radar de imágenes laterales
aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev. Investigación y Ciencia. Dic.
1977.

67
Cátedra de Sensores Remotos

Fig. 5.5.5. Reflector especular, una superficie lisa de agua o una superficie
pulimentada, se comporta como un espejo y refleja la energía de las microondas en
una dirección bien definida. Si la superficie no es perpendicular a la antena, la energía
no regresa a ésta (arriba) y en la imagen del radar la superficie aparece negra. Las
superficies que se hallan relacionadas entre sí, como las casas y las calles, actúan
conjuntamente como reflectores angulares (abajo). Tomado de “Radar de imágenes laterales
aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev. Investigación y Ciencia. Dic.
1977.

Geometría

La geometría de una imagen fotográfica viene determinada por el hecho de


que la relación angular de los rayos que llegan a una lente procedentes de un
determinado objeto o escena se mantiene por parte de los que salen de ella y,
finalmente, impresionan la película, como si todos hubiesen pasado a través de un
diminuto agujero común. El tamaño de la imagen de un objeto distante es
inversamente proporcional a la distancia entre el objeto y la lente.

Las relaciones geométricas existentes entre los tamaños de los diferentes


objetos situados en un mismo plano perpendicular al eje de la lente y colocado delante
del ella se mantienen sobre un plano imagen, paralelo al anterior y situado al otro lado
de la lente ; las relaciones existentes entre las superficies inclinadas respecto del plano
objeto se reproducen mediante relaciones trigonométricas sencillas sobre el plano
imagen.

Un sistema de radar lateral aerotransportado funciona de acuerdo con unas


consideraciones geométricas diferentes.

Una de las coordenadas de la imagen que proporciona este sistema es


paralela a la dirección en que avanza el avión: la otra coordenada es perpendicular a
dicha dirección. El proceso de observación se basa en la emisión de un impulso de
microondas de corta duración procedentes de un transmisor de alta potencia. El
correspondiente haz, en forma de abanico vertical, es emitido por una antena de gran
longitud situada en el fuselaje del avión y dirigida perpendicularmente a la dirección de
vuelo. El impulso se mueve con la velocidad de la luz: el tiempo necesario para que
este impulso alcance un objeto determinado y, tras ser reflejado, vuelva al avión es
proporcional a la distancia entre éste y el objeto.

68
Cátedra de Sensores Remotos

Hn: altura de vuelo

ß: Angulo de depresión

Øn: Angulo de incidencia del borde


cercano (near edge)

Øf: Angulo de incidencia del borde


lejano (far edge)

s: alcance inclinado (presentación


oblicua)

g: alcance terrestre (presentación


horizontal)

a: resolución en el alcance

b: resolución en la dirección del azimut

e: resolución en el alcance inclinado

Fuente:
http://webapp.ciat.cgciar.org/dtmradar

La resolución en distancia Re está dada por la fórmula: Re= c.t/2 . Siendo t el


intervalo entre impulsos (10-7 seg) y c la velocidad de propagación de la onda
(300.000 km/seg), la resolución será de 15 metros. Esto significa que si dos objetos
están separados por una distancia mayor a 15 metros serán reconocidos
individualmente.

La intensidad de la señal reflejada controla la intensidad de un punto brillante


que se mueve sobre la pantalla de un tubo de rayos catódicos con una velocidad
sincronizada proporcionalmente. Las posiciones sucesivas del punto corresponden a
otras tantas distancias según la coordenada perpendicular a la dirección del vuelo. En
conjunto, cada impulso del transmisor del radar da lugar a una línea de barrido de
intensidad variable a través de la pantalla de TRC. Las líneas de barrido se van
registrando sucesivamente sobre una película fotográfica que se mueve
perpendicularmente a la dirección de dichas líneas con una velocidad proporcional a la
velocidad del avión. Como resultado, sobre la película se obtiene una imagen continua
del terreno observado línea a línea.

69
Cátedra de Sensores Remotos

Fig. 5.5.6. Es distinta la geometría de las imágenes de radar y las


aerofotografías ordinarias realizadas con luz visible. En las imágenes de radar, dos
objetos cuya separación mutua sea menor que la anchura del correspondiente haz y
cuya distancia a la antena sea la misma, aparecerán juntos. Esto se debe a que los
impulsos de microondas llegarán a ellos al mismo tiempo y volverán a la antena
también al mismo tiempo, con lo cual los dos objetos se verán como uno solo. En
fotografía, dos objetos parecen coincidir si sus coordenadas angulares respecto a la
lente coinciden. En consecuencia, la perspectiva de las imágenes de radar es análoga
a la de la cámara, situada en el mismo plano vertical en que casi se hallan el avión y
los objetos, según una dirección perpendicular a la del haz del radar. Tomado de “Radar
de imágenes laterales aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev.
Investigación y Ciencia. Dic. 1977.

Fig….Relación directa entre el alcance inclinado y el alcance terrestre

Fuente: http://webapp.ciat.cgciar.org/dtmradar

70
Cátedra de Sensores Remotos

o
el
vu
de
a
ine
L
Alcance inclinado

Radar
A BC D E F G H I

A B C D E F G H I

Alcance terrestre

Figura …Geometría del radar de visión lateral (SLAR).

Fuente: Agencia Espacial Europea – ERS 1996.

Imagen en el alcance inclinado Imagen en el alcance terrestre

Fig. Imagen SLAR con alcance inclinado y terrestre.

Fuente: http://webapp.ciat.cgciar.org/dtmradar

Los diferentes detalles del relieve del terreno aparecen más o menos
desplazados en la imagen a lo largo de la dirección perpendicular a la del vuelo del
avión respecto a la posición que ocuparían si fueran observados verticalmente. La
razón de este hecho estriba en que la fracción del impulso de microondas reflejada por
las zonas mas elevadas del terreno (y, por lo tanto, más próximas al avión) retorna a la
antena antes que la energía reflejada por las zonas menos elevadas del terreno. En
consecuencia las imágenes de las zonas más elevadas del terreno, más próximas al
avión, aparecen un tanto desplazadas hacia la línea de vuelo del aparato. Este
desplazamiento por elevación es una de las características de las observaciones con
radar de terrenos accidentados. En cierto modo, este efecto es análogo a la distorsión
de la perspectiva que se pone de manifiesto en la fotografía ordinaria.

71
Cátedra de Sensores Remotos

Fotografía Geometría del Geometría del


aérea inclinada alcance terrestre alcance inclinado
imagen de radar

Fig…. Comparación de las geometrías de aerofotografías inclinadas e


imágenes de radar. Fuente: Agencia Espacial Europea - ERS 1996.

En este caso, todos los objetos con las mismas coordenadas angulares
respecto a la lente parecen coincidir en la película. En un sistema de radar, todos los
objetos situados a la misma distancia de la antena coinciden en la imagen, por
consiguiente, una imagen de radar es aproximadamente análoga a la imagen
fotográfica que proporcionaría una cámara hipotética enfocada en una dirección
perpendicular a la línea que une el objeto y la antena de radar.

La velocidad con que se mueve el avión es muy pequeña en comparación con


la velocidad del impulso de microondas, y el haz en forma de abanico de la
correspondiente radiación es siempre perpendicular a la línea de vuelo. Como
consecuencia de este hecho, las imágenes en la dirección perpendicular a la línea de
vuelo presentan una perspectiva normal (los objetos aparecen desplazados hacia el
avión en función de su altura) ; en cambio, las imágenes en la dirección paralela a la
línea de vuelo carecen totalmente de perspectiva. Así, mientras la escala y la
apariencia de la imagen del radar en la dirección perpendicular a la línea de vuelo
vienen determinadas por la velocidad de la luz, la escala y la apariencia de dicha
imagen en la dirección paralela al vuelo vienen determinadas por la velocidad del
avión. La operación de reconciliar e igualar estas dos escalas independientes sobre la
imagen final es una de las fases más importantes de la obtención de mapas de la
superficie terrestre mediante la utilización de sistemas de radar.

En la práctica, este problema y otros muchos relacionados con la obtención de


imágenes de radar satisfactorias se ha resuelto instalando en el avión un piloto
inercial. Este dispositivo utiliza un computador muy versátil, programado de forma tal
que sea capaz de proporcionar toda la información necesaria para que el radar
funcione correctamente. El piloto inercial controla el vuelo del avión, manteniendo una
altura operativa adecuada a lo largo de una serie de círculos de grandes dimensiones
(tanto como 1000 kilómetros), sobre la base que cada una de las correspondientes
rutas sea prácticamente paralela a la anterior ; la unión de las sucesivas bandas de
imágenes permite obtener un mapa completo del terreno en forma de mosaico. El
piloto inercial es capaz de guiar al avión sobre las nubes o a través de ellas, durante el
día o la noche, sin necesidad de introducir ninguna corrección de origen visual o de
radionavegación.

72
Cátedra de Sensores Remotos

El piloto inercial mantiene el vuelo regular del avión y evita maniobras erráticas,
cuya ocurrencia daría lugar a imágenes distorsionadas. Estos contenidos se llevan a
cabo mediante el envío de oportunas señales desde el dispositivo hasta el piloto
automático que gobierna el avión. Por otra parte, los sensores angulares del piloto
inercial controlan la posición de la antena de radar respecto a tres coordenadas
angulares, con el fin de garantizar que la antena esté constantemente dirigida hacia el
suelo formando un cierto ángulo con la línea de vuelo del aparato. El sistema inercial
determina tanto el ritmo de emisión de los impulsos del radar como la velocidad
conque avanza la película en que se registran las oportunas imágenes.

La velocidad con que el punto luminoso barre la pantalla del TRC controla
escala perpendicular a la línea de vuelo y la velocidad de la película en que se
registran las imágenes controla la escala paralela a línea de vuelo.

La distancia entre los objetos y el avión viene determinada por el tiempo


necesario para que los impulsos de microondas, cuya velocidad es igual a la de la luz,
lleguen al objeto y vuelvan a la antena.

73
Cátedra de Sensores Remotos

74
Cátedra de Sensores Remotos

Fig. 5.5.7.

La figura 5.5.7 pone de manifiesto el hecho de que los impulsos reflejados por las dos casas
más próximas a la antena llegarán a ésta antes que los procedentes de las dos casas más alejadas (1 y
2). La resolución en una dirección perpendicular a la del vuelo del avión resulta igual a la mitad de
duración del impulso. Dos objetos, tales como las 3ª y 4ª casas, que se hallan separados en dicha
dirección por una distancia menor que la duración del impulso del radar, quedarán detectados por la
antena, como si se tratara de un objeto único (3 y 4). Tomado de “Radar de imágenes laterales
aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev. Investigación y Ciencia. Dic.
1977.

Fig. 5.5.8 Los objetos elevados resultan desplazados hacia la línea de vuelo del avión, dando
lugar a que en las imágenes de radar las montañas parezcan más inclinadas de lo que son en realidad.
El pico de una montaña (A) está más próximo que su ladera (B) o su base; así pues, los impulsos
procedentes del pico vuelven a la antena antes que los otros. Tomado de “Radar de imágenes laterales
aerotransportado” H.Jensen, L.C.Graham, L.J. Porcello y E. Leite. Rev. Investigación y Ciencia. Dic.
1977.

La resolución acimutal empeora con la distancia antena - objeto, debido a que


el haz de un sistema de radar de imágenes laterales de apertura real se emite en una
dirección perpendicular a la del vuelo del avión y es más ancho para distancias
grandes que para distancias chicas. Dos aspectos próximos se verán separados si su
distancia al avión es pequeña (a), pero se verán como un solo objeto si dicha distancia
es grande (b). La resolución de una antena grande sería mejor, pero existe un límite
físico en la longitud máxima de la antena que se puede instalar en el avión.

75
Cátedra de Sensores Remotos

Fig.5.5.9. Tomado de “Radar de imágenes laterales aerotransportado” H.Jensen,


L.C.Graham, L.J. Porcello y E. Leite. Rev. Investigación y Ciencia. Dic. 1977.

El campo angular es función de la longitud de onda y de la dimensión de la


antena. Campo angular = λ / D.

3.1.3.1. La antena de apertura sintética

Dado que un sistema de radar lateral aerotransportado mide la distancia a que se


encuentran los objetos del terreno por medio de impulsos de microondas, la resolución
de la imagen en la dirección perpendicular a la línea de vuelo es proporcional a la
duración de dichos impulsos. Las señales reflejadas por dos objetos diferentes se
puede resolver si la distancia que los separa es mayor que la semilongitud del impulso
en cuestión. Por ejemplo, un impulso cuya duración sea de 10-7 segundos tiene una
longitud de 30 metros; el poder de resolución de este impulso es igual a 15 metros.
Para aumentar la resolución es necesario reducir la duración del impulso.

Sin embargo, la resolución de la imagen en la dirección paralela a la línea de


vuelo es proporcional a la anchura del haz de microondas que emerge de la antena.
Dos objetos situados a la misma distancia de la antena y separados entre sí en
dirección paralela a la línea de vuelo, se podrán resolver sólo en el caso de que su
separación mutua sea mayor que la anchura del haz para la distancia a la que se
encuentran. En caso contrario, los dos objetos serán alcanzados simultáneamente por
el citado haz; los impulsos de microondas reflejados por ellos llegarán a la antena al
mismo tiempo y, finalmente, ambos aparecerán sobre la pantalla en forma de una
imagen única e intensa. En consecuencia, la anchura angular del haz emitido por la
antena determina la resolución en la dirección en que avanza el avión. Puesto que
dicho ángulo se mantiene constante al variar la distancia antena - objeto, la anchura
del haz aumenta a medida que lo hace dicha distancia y, por lo tanto, la resolución en
la dirección paralela a la línea de vuelo empeora.

La anchura angular del haz emergente es inversamente proporcional a la


longitud de la antena. En consecuencia, la resolución aumenta considerablemente si
utilizamos una antena de grandes dimensiones con una anchura del haz pequeña.
Puesto que la longitud física de la antena que puede montarse en un avión resulta
limitada por el tamaño del avión, aún en el caso de utilizar una antena de la máxima
longitud posible en la práctica, la resolución de un sistema de radar lateral
convencional es mucho peor en la dirección de la línea de vuelo que en la dirección
perpendicular a ella, excepto para alcances muy pequeños.

76
Cátedra de Sensores Remotos

Sin embargo, aprovechando el movimiento del avión, se puede conseguir que


una antena relativamente pequeña “sintetice”, o se comporte como una antena muy
larga con un haz de poca anchura. Este efecto se puede lograr de la forma siguiente:
la pequeña antena trasmite impulsos a intervalos regulares a lo largo de la dirección
del vuelo. Cuando el avión sobrevuela un objeto determinado del terreno, nos
encontramos conque el objeto entra en el haz emitido, se mueve a través de él y
finalmente, lo abandona; durante todo este tiempo de tránsito, el objeto en cuestión
está sometido al haz y refleja una serie de impulsos de microondas. Ahora bien,
cuanto mayor es su distancia de la antena, tanto más tiempo permanece dentro del
haz emitido por ella. En otras palabras, desde el punto de vista del terreno, la antena
parecerá mas o menos grande, respectivamente, según los objetos observados estén
mas o menos alejados de ella. De hecho, la longitud efectiva de la antena es
directamente proporcional a la distancia que la separa del objeto considerado. Puesto
que la resolución es directamente proporcional a la longitud de la antena e
inversamente proporcional a dicha distancia, en un radar de apertura sintética los dos
efectos se compensan entre sí; la resolución de la imagen en la dirección paralela a la
línea de vuelo se mantiene constante y, por lo tanto, es independiente de la distancia
antena - objeto. El radar de apertura sintética permite obtener imágenes de alta
resolución del terreno situado a muchos kilómetros de distancia del avión.

Inversión por desplazamiento debido al relieve

En la imagen de una línea vertical, si un punto B se encuentra a cierta altura


del plano de referencia, se aprecia que su imagen en cualquiera de las dos
proyecciones aparece más cerca de la línea de vuelo que A, por lo que el
desplazamiento es perpendicular a la línea de vuelo y hacia la línea de vuelo por lo
que se produce una “inversión” de la imagen con respecto a lo que se observa en una
aerofotografía convencional.

Sombras

Entre el punto A y el C hay un rango de distancia comprendida entre la antena


y B y la antena y S para las cuales no hay señal reflejada donde la imagen aparece
oscura en esta zona porque es un área sin retorno también llamada área muerta y se
caracteriza porque:

- La dirección es siempre perpendicular a la línea de vuelo.

- Su longitud depende de las diferencias de altura relativa, forma del terreno,


altura de vuelo y distancia del objeto a la proyección de la línea de vuelo sobre
el terreno.

Un ejemplo claro es la imagen de la figura que muestra la sombra provocada


por la Sierra de La Macarena.

77
Cátedra de Sensores Remotos

B' A' Sombra C'


Antena

Nadir B'' A Sombra C''

Linea de
vuelo B A C

Antena

B C
D

Nadir B'' A C'' Sombra D'' E

Fig. Inversión del relieve y sombras de radar

78
Cátedra de Sensores Remotos

Imagen de radar (PRORADAM) escala 1:200.000 de los llanos orientales de


Colombia. Nótese las sombras provocadas por la Serranía de La Macarena.

3.2. Escorzo

Es la denominación que se le atribuye a la imagen de pendientes. Por ej.: si


dos pendientes iguales en sentido contrario o sea la pendiente AB hacia la línea de
vuelo y la pendiente CD alejándose de dicha línea. La ilustración muestra que
mientras la primera pendiente tiene una proyección de menor tamaño, la segunda
tiene una proyección mayor.

79
Cátedra de Sensores Remotos

A'' B'' C'' D''


Antena

B C

A D
Nadir A' B' C' D'

3.3. Fig… Escorzo

Paralaje de Radar

Al igual que las aerofotografías. Las paralajes de radar se utilizan para obtener
la visión tridimensional y calcular diferencias de altura.

El procedimiento para ver estereoscopía en radar puede tener dos variantes:

• Se vuelan dos fajas paralelas a igual altura y a diferente lado del objeto o
terreno. Fig…

En este caso es necesario intercambiar las imágenes como para observación


seudoscópica (la imagen izquierda se coloca a la derecha y viceversa)

80
Cátedra de Sensores Remotos

Fotos Aéreas

Radar Radar

Fig:

Definición de

Paralaje de
radar (DP)

Imágenes
tomadas desde
lados opuestos

• Se vuelan dos líneas paralelas a igual o distinta altura y sobre el mismo lado.

Aquí las imágenes se observan en la misma posición relativa en que fueron


tomadas.

81
Cátedra de Sensores Remotos

Fotos Aéreas

Radar
Radar

Fig: Definición de paralaje de radar (DP). Imágenes tomadas del mismo lado

Rango o alcance cercano y lejano

Antena
12 Km.

53.
3K
m.
20
.4
Km
.

82
Cátedra de Sensores Remotos

Angulo de incidencia

El ángulo de incidencia describe la relación entre la iluminación del radar y la superficie


de tierra. Específicamente, es el ángulo entre el rayo del radar y un objeto en la
superficie. El ángulo de incidencia ayuda a determinar el aspecto de un objeto en la
imagen. Esto incide en la variación del brillo del píxel. A menor ángulo de incidencia es
mayor el brillo del píxel y viceversa.

Angulo de incidencia

Debido a su mayor altitud, los ángulos de


incidencia de los satélites varían menos
que los ángulos de incidencia de
sistemas aerotransportados. Esto
conduce a una iluminación más uniforme
en imágenes de satélite que en imágenes
de radar aerotransportadas.

Radares Satelitales

Programa ERS: European Remote Sensing Satellite

El satélite europeo ERS 1 fue el primer satélite lanzado por la agencia espacial
europea (ESA) de observación de la tierra lanzado el 17 de julio de 1991, por un
cohete Ariane 4 desde Kourou (Guyana Francesa), a una órbita polar heliosincrónica
de 782 y 785 km.

83
Cátedra de Sensores Remotos

El radar de apertura sintética funcionaba con una longitud de onda de 5.6 cm. (banda
C) y una resolución de 25x25 metros y un período de revisita de 35 días que se podía
reducir hasta 4 días.
Una falla de la computadora y los giroscopios del ERS-1, dio por resultado finalizar las
operaciones el 10 de marzo de 2000.

El ERS-1 portaba los siguientes


instrumentos:

• Un altímetro radar operando en la


banda Ku

• Un radiómetro infrarrojo de cuatro


canales para medir temperaturas
en la superficie del mar y en la
cima de las nubes

• Un emisor de microondas

• Un radar de apertura sintética

• Un escaterómetro para el estudio


de vientos

Su sucesor, ERS-2, fue lanzado el 21 de abril de 1995 también por un Ariane 4 desde
Kourou. Es prácticamente igual al ERS-1, pero añadiendo el GOME (Global Ozone
Monitoring Experiment) y un espectrómetro de absorción. Cuando ERS-2 fue lanzado,
compartía el mismo plano orbital con el ERS-1, lo cual posibilitó una misión de
"tándem", con el ERS-2 pasando por la misma zona que el ERS-1 había recorrido un
día antes.

ERS-2 ha estado operando sin giroscopios desde febrero de 2001, lo cual ha


significado una degradación en algunos datos obtenidos por los instrumentos. El 22 de
junio de 2003, hubo un grave fallo a bordo, por lo que los instrumentos solo funcionan
cuando el satélite es visible desde alguna estación terrestre. Desde que se conoció
este fallo, se han habilitado algunas estaciones terrestres adicionales, para aumentar
la capacidad de recolección de datos del satélite. El escaterómetro y el GOME eran los
únicos instrumentos de su tipo en órbita hasta el lanzamiento en 2006 del MetOp.

El sucesor del ERS-2 es el Envisat que también operaba en la misma longitud de


onda, con una órbita de 800 Km.

Programa RADARSATEl programa RADARSAT se desarrolló por el gobierno de


Canadá, lanzado el 4 de noviembre del año 1995 equipado con radar de apertura
sintética. Posee una orbita heliosincrónica de 798 Km. con una resolución temporal de
24 días y el periodo es de 100.7 minutos.

84
Cátedra de Sensores Remotos

Características:

Longitud de onda: 5.6 cm. (banda


C)

Duración del impulso: 42 µs.

Frecuencia: 1270-1390 Hz.

Dimensiones de la antena: 15 x
1.5m

Resolución: 25 m.

Polarización: HH

3.4. El radarsat 2 se lanzó el 14/12/2007 con lanzador Soyuz con orbita casi polar
heliosincrónica y una altitud de 798 Km., período de 100.7 minutos y una dimensión
de antena de 15 metros x 1.5 m. Polarización HH HV VH VV

3.5. Aplicaciones del sistema.

Una de las importantes aplicaciones fue la realización del Proyecto Radar geométrico
del Amazonas (PRORADAM), con deficiente cartografía, se cubrió una superficie de 4
millones de Km2.

La eficiencia de la cartografía con este sistema permitió hacer, entre otros,


estudios de alternativas de construcción de diferentes tramos de la autopista
transamazónica.

85
Cátedra de Sensores Remotos

3.6. La misión SRTM

3.7. Debido a que la NASA realizó una misión para el Trasbordador Espacial que
parte el 11/02/2000, y cambió radicalmente los conceptos topográficos a los que
estábamos acostumbrados.

3.8. Ya, a mediados de Febrero de 2000 se habían recibido y procesado los


primeros datos recopilados por el Trasbordador Endeavour de lo que constituye una
de las más completas y elaboradas misiones en lo referente al mapeo topográfico.

3.9. ¿Qué es la SRTM?

3.10. La misión denominada Shuttle Radar Topography Mission (SRTM) es un


proyecto internacional liderado por la NASA que utiliza al Transbordador Espacial
equipado de un revolucionario sistema de radar, para efectuar relevamientos
topográficos tridimensionales de la superficie terrestre. Se pretende configurar la más
completa base de datos de imágenes topográficas de alta resolución en tres
dimensiones, inexistente hasta el momento. Las tareas científicas están divididas en
distintas etapas, muchas de las cuales ya fueron superadas, encontrándose a
principios de Febrero al comienzo de la última de ellas que es la recopilación de los
primeros datos.
La fase de comienzo consistió en la denominada STS-99 Mission Overview que
consistió en las operaciones que aseguraban el correcto funcionamiento del
instrumental que funcionaría durante los 11 días que orbitarían la Tierra, incluyendo:

➢ Operaciones de comando del sistema de radar.

➢ Recepción de datos telemétricos referentes a las operaciones del sistema de


radar a modo de reaseguro del correcto funcionamiento.

➢ Ensayo de comunicación con la tripulación del Transbordador Espacial a fines


deasegurar la correcta coordinación de maniobras entre ésta y el equipo de
Tierra.

La fase consecutiva y posiblemente la más crítica es la denominada On-Orbit Check-


Out (OOCO) la que tuvo lugar en las primeras 12 horas de la misión, consistente en el
chequeo general de todos lo sistemas y maniobras previas a la captura de datos,
efectuadas ya en el viaje orbital de la nave.

86
Cátedra de Sensores Remotos

3.11.
Estas fases fueron complementadas en tiempo real por una organización de
maniobras simuladas programadas, que minimizaban de antemano los problemas de
orden general que el equipo de astronautas y operadores podría encontrar en la
realidad.
Finalmente prosigue la última etapa consistente en la captura de información y
recopilación de la misma que realizó el Transbordador orbitando nuestro planeta
durante esos 11 días en el mes de Febrero.

3.12. Particularidades de la misión


El objetivo principal de este trabajo es atender las necesidades de diversos sectores
de la comunidad tales como organismos militares, científicos y civiles.

Pero otros usos de los datos obtenidos incluyen el mejoramiento del modelado
matemático sobre el escurrimiento de cursos de agua, sistemas simuladores de vuelo
más realistas, mejor monitoreo del terreno para la ubicación de torres de transmisión,
como por ejemplo de telefonía celular, seguridad en la navegación, y además mapas
más completos a disposición de los viajeros.
Por otra parte cualquier proyecto que requiera un preciso conocimiento del perfil y
altura de los terrenos se verá beneficiado con esta información. Algunos ejemplos los
constituyen el control de inundaciones, control de terrenos aprovechables,
reforestación, el monitoreo de volcanes, investigación de terremotos, y el monitoreo de
los desplazamientos de glaciares.
Para muchas regiones del mundo, los mapas topográficos de la Tierra son muy
limitados, imprecisos o inexistentes. Por ejemplo numerosas cadenas montañosas,
desiertos inhóspitos y densas selvas tropicales, poseen una cobertura topográfica que
resulta totalmente inadecuada, principalmente debido a la dificultad para acceder a
estos terrenos.
Aún donde los mapas topográficos existen, puede que hallan sido creados en estas
condiciones haciéndolos prácticamente inservibles.
También ocurre que países vecinos podrían haber generado datos topográficos
utilizando métodos completamente diferentes, ocasionando esta falta de
estandarización. Limitando la efectividad de las cartas obtenidas a la utilización
regional y por ende impidiendo su aplicación global.
SRTM porta instrumentos con la capacidad suficiente para lograr homogeneidad y
precisión en la captura de datos jamás vistas hasta el momento.
Para estas aplicaciones, el radar es una herramienta más adecuada que las cámaras
ópticas convencionales, debido a que puede operar de día o de noche y penetrar
mantos nubosos. Transportando el radar sobre el Trasbordador, el acceso físico a un
sitio ha dejado de ser un problema.

Características técnicas

SRTM utiliza una técnica denominada interferometría de radar, en la cual se toman


dos imágenes (en estas longitudes de onda) desde posiciones ligeramente
desplazadas. Las diferencias entre estas imágenes son una función de las diferencias
de elevación en los terrenos, con lo cual se puede efectuar el cálculo de la misma.
Para obtener dos imágenes de radar en estas condiciones el hardware consiste en
una antena ubicada en la playa de carga del Transbordador y una segunda antena
adosada al extremo de un mástil que se extiende 60 metros desde la nave.
La órbita se efectúa con una inclinación de 57º, lo que permite cubrir toda la superficie

87
Cátedra de Sensores Remotos

terrestre ubicada entre los 60º de latitud norte y 56º de latitud sur, que constituye
aproximadamente el 80 % de la masa de terreno del planeta.

Los radares utilizados en esta misión fueron verificados con anterioridad en misiones
realizadas en 1994. El radar SIR-C (Shuttle Imaging Radar-C) y el X-SAR (X-band
Synthetic Aperture Radar) volaron a bordo del Transbordador Espacial en Abril y
Octubre de 1994 recopilando datos sobre el medio ambiente terrestre.

SIR-C fue desarrollado por la NASA mientras que X-SAR lo fue a través de la
colaboración conjunta de las agencias Espaciales Alemana e Italiana. En conclusión,
SRTM no es más que un conjunto de instrumentos reutilizados más un adicional de
instrumental necesario para poder lograr los objetivos pretendidos actualmente.
La innovación más relevante de la misión lo constituye sin duda la adición de una
antena secundaria en el extremo de un mástil de 60m de longitud, el que permite al
sistema operar como un interferómetro de un solo paso logrando una precisión y una
eficiencia muy elevadas en la recopilación de datos.

Los fondos para SRTM provienen de la Agencia Nacional de Captura de Imágenes y


Mapeos (NIMA) perteneciente al Departamento de Defensa de los EEUU, mientras
que la NASA proporciona el instrumento SIR-C, el lanzamiento del Transbordador, los

88
Cátedra de Sensores Remotos

sistemas de Tierra, las operaciones de la misión y el soporte para procesamiento de


datos.
El centro Alemán AeroEspacial (DLR) y la Agencia Espacial Italiana (ASI) proveen el
X-SAR, y sus sistemas de apoyo.

PRINCIPALES CARACTERÍSTICAS DE LAS FOTOGRAFÍAS AÉREAS E


IMÁGENES SLAR Y MSS

Características Fotografía aérea SLAR-GEMS MSS-ERTS


Escala 1:50.000 1:400.000 1:3.369.000

Forma de la imagen cuadrada rectangular rectangular

Tamaño 230 mm x 230 mm 45 mm x 500 mm 55 mm x 55 mm

Ancho de la imagen en el 11.5 Km 18 Km 185 Km


terreno

Área aproximada 132 Km2 3600 Km2 34.225 Km2

Resolución 80 m 16 m 79 m

Longitud de onda 0.4 a 0.9  3.12 cm 0.5 a 1.1 

Número de bandas 1, 4, 9, etc. 1 4ó5

Visión tridimensional Sí (60 % recubrim.) Sí (60 % recubrim.) No

Aplicabilidad en Exploración Exploración Exploración


levantamientos
Reconocimiento Reconocimiento Reconocimiento

Semi-detallado

Detallado

Costo medio en U$S/ Km 2 4.50 2.60 0.00006


para Colombia

Sistema Pasivo (día) Activo (día y noche) Pasivo (día)

Rango de escalas 1:2.000 a 1:60.000 1:250.000 y 1:3.369.000


1:400.000

Registro de imágenes Emulsión Digital Digital


fotosensible

Procesamiento de la Revelado Digital (correlator) Digital (est. de


imagen rastreo)
Gráfico
Gráfico

Formación de la imagen Instantáneo Continuo Continuo


(tiempo)

89
Cátedra de Sensores Remotos

Banda espectral Visible- Infrarrojo Micro-ondas Visible- Infrarrojo

0.38 - 0.9  3,12 cm y 0.86 cm 0.5 a 1.1  y 10.4 a


12.6 

Procedimiento para Filtros y proceso de Correcciones en el Correcciones


mejorar la capacidad de revelado correlator radiométricas p/
imagen eliminar ruidos

Tono de la imagen Continuo Discreto Discreto

Sistema de proyección Central (punto) Oblicua u horizontal; Central (eje)


eje

Elementos de orientación

interna Exactamente Exactamente Bien conocidos


conocidos conocidos
externa Poca precisión
Exactamente Poca precisión
conocidos

Información cartográfica Mapas topográficos Información Mosaicos


(altimetría y altimétrica relativa
planimetría)
Mosaicos
Ortofotos, Mosaicos

Control terrestre Topográfico Geodésico Geodésico


(Geociver) (Geociver)
Geodésico

Medición de coordenadas ± 1 mc ± 1 mc ± 1 mc
en la imagen empleando
comparadores (x,y)

Medición de coordenadas 10-20 mc no hay restituidor -


de modelo (x,y, z) comercial

Medición radiométrica Micro-densitómetro Información original Información original


digital digital

Datos para automatización Coordenadas (x,y) Información original Información original


de la interpretación digital digital
Tono y color (I)

Mayor inconveniente para Condiciones Lluvia o nubes muy Nubes, lluvias y


tomar imágenes atmosféricas: nubes, densas niebla atmosférica
lluvia, niebla
atmosférica

90
Cátedra de Sensores Remotos

LIDAR

El LIDAR (Light Detection And Ranging) que significa detección y medición a través de
la luz (es un sistema láser), permite registrar las diferentes altitudes que hay en un
terreno, de tal manera que éstas puedan reproducirse en un mapa.

Diagrama de funcionamiento

Básicamente consiste en un láser pulsado sintonizable a dos longitudes de onda


[resonante y no resonante], con su telescopio y óptica de detección, que configuran el
sistema emisor y captador de señales. Desde un punto de vista operativo, su
funcionamiento es similar al RADAR. Es decir, un pulso de radiación es enviado a la
dirección deseada, son detectados y analizados para obtener información acerca de lo
que hay.

Figura.. Modificado de esrl.noaa.gov

Es un sistema que permite obtener una nube de puntos del terreno tomándolos
mediante un escáner láser aerotransportado (ALS). Para realizar este escaneado se
combinan dos movimientos: uno longitudinal dado por la trayectoria del avión y otro
transversal mediante un espejo móvil que desvía el haz de luz láser emitido por el
escáner.

Los componentes del LIDAR son:

• ALS Escáner Láser Aerotransportado. Este instrumento produce la emisión de


radiación infrarroja en pulsos que servirán para determinar la distancia entre el
sensor y el terreno.

91
Cátedra de Sensores Remotos

• GPS Diferencial. Calcula la posición y altura del avión utilizando un receptor en


el avión y colocando estaciones de control terrestre con coordenadas
conocidas.

• INS Sistema Inercial de Navegación. También conocido como IMU (Inertial


Measurement Unit) Entrega datos de giros y trayectoria del avión en su
navegación.

• Cámara de video digital (opcional), que permite obtener una imagen de la


zona de estudio, que servirá para la mejor interpretación de los resultados.
Esta puede montarse en algunos sistemas junto al ALS.

• El vehículo es un avión o un helicóptero. En los relevamientos


Primer de superficies
importantes se usa el avión, y si se necesita buena densidad
retorno de puntos se usa
el helicóptero, debido a que este puede volar más lento y bajo.

Las medidas obtenidas por los tres componentes principales, ALS, GPS e IMU, se
toman con una misma etiqueta de tiempos acorde con el GPS. De esta forma
después se pueden relacionar fácilmente en el cálculo posterior.

El sistema Lidar obtiene también la siguiente información.

• Por cada pulso emitido puede captar 2 o más ecos. Esto nos permite recoger
información a diferentes alturas. Por ejemplo, si estamos sobrevolando una
zona arbolada, el primer eco puede responder a la copa de los árboles y el
último a la superficie terrestre.

• La intensidad reflejada. Puede ser muy útil para la clasificación posterior.

Tomado de Aeroterra S:A.


Modificado de ESRI: Manual Análisis Lidar en
ArcGis 9.3.1. para aplicaciones forestales

El LIDAR es la única técnica de teledetección capaz de detectar simultáneamente el


terreno y la vegetación. Es sencillo obtener un modelo de altura de la vegetación,
calcular la altura predominante de una zona o detectar los árboles más altos.

En el ejemplo de arriba, el primer retorno es un rango de valor de la copa de los

92
Cátedra de Sensores Remotos

árboles; el último retorno mide el valor del suelo. El sistema LIDAR puede captar
múltiples retornos para cada punto del terreno, y cada uno de ellos registra también la
intensidad reflejada.

Tipos de lidar según el escaneado:

Lineal: Está construido con un espejo rotatorio en un solo sentido que va desviando
el haz láser. El resultado es una serie de líneas paralelas en el terreno como patrón de
escaneado. Adolece de problemas como ser que el giro del espejo en una sola
dirección no siempre efectiviza mediciones.

LIDAR de escaneado lineal

http://lidar.com.es/2010/09/15/airborne-altimetric-lidar-principle-data-collection-
processing-and-applications/

Zig Zag: Aquí el espejo es rotatorio gira en dos sentidos (ida y vuelta), realizando
líneas en zigzag como patrón de escaneado. Tiene la ventaja de que siempre esta
midiendo pero al tener que cambiar de sentido de giro la aceleración del espejo varia
según su posición. Esto hace que en las zonas cercanas al limite de escaneado lateral
(donde varia el sentido de rotación del espejo), la densidad de puntos escaneados sea
mayor que en el nadir.

93
Cátedra de Sensores Remotos

Escaneado en zigzag. Fuente:


http://forsys.cfr.washington.edu/JFSP06/lidar_technology.htm

Elíptico (Palmer): Aquí la trayectoria del haz láser es desviada por dos espejos que
producen un patrón de escaneado elíptico. La ventaja consiste en que el terreno es a
veces escaneado desde diferentes perspectivas aunque el tener dos espejos
incrementa la dificultad al tener dos medidores angulares.

http://www.automation-drive.com/fema-lidar-specifications

94
Cátedra de Sensores Remotos

Aspecto de una imagen lidar de


posproceso

www.jrcanmap.com/images/lidar-sample

Captura de pantalla de datos lidar de arbustos bajos antes y después del tratamiento.
wgsair.com

BIBLIOGRAFIA

www.wikipedia.org/.../European_Remote_Sensing_Satellite

http://www.radarsat2.info/

95
Cátedra de Sensores Remotos

www.wikipedia.org/wiki/LIDAR

http://forsys.cfr.washington.edu/JFSP06/lidar_technology.htm

96
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Por: Virgilio Núñez


Salta, 2012

1. GEORREFERENCIACIÓN
Las imágenes de satélites obtenidas con sensores basados en escáner óptico mecánicos,
de barrido o empuje, contienen una variedad de deformaciones geométricas inherentes a las
características propias del sistema; algunas de las principales anomalías son las provocadas por
la rotación de la Tierra durante el registro de una imagen completa o las causadas por el hecho de
que el campo visual instantáneo (IFOV acrónimo en inglés de Instantaneous Field Of View)
cubre más porción de terreno al final de las líneas del escáner, donde el ángulo visual es muy
oblicuo, a diferencia de la parte central donde el campo visual es vertical.
Para las imágenes satelitales comercializadas, como las del LANDSAT, IRS-P6
Resourcesat-1 o SPOT, la mayoría de los elementos de la restauración geométrica sistemática
asociados con la captación de imágenes son corregidos por los distribuidores. Entonces, para el
usuario final, la única operación que generalmente debe realizarse es la georreferenciación, con
el objeto de obtener un producto que pueda ser utilizado posteriormente en análisis del territorio
en un entorno de los Sistemas de Información Geográfica (SIG). Muchas empresas de
distribución comercial de imágenes satelitales realizan esta rectificación con un costo adicional.
La georreferenciación corresponde entonces al procedimiento mediante el cual se corrige
espacialmente un mapa o imagen digitales, asignándoles coordenadas en un sistema de referencia
determinado; esto sería, un cambio en el espacio de referencia, del espacio imagen al espacio de
proyección (Cuartero y Felicísimo, 2003) (Figura 1). Para los productos en formato raster la
georreferenciación involucra dos etapas: por un lado la asignación de nuevas coordenadas
(desplazamiento, rotación y escalado de la grilla de coordenadas) al producto resultante y, por
otro, la transferencia del atributo a las nuevas posiciones espaciales; para el caso de las imágenes
satelitales, el atributo corresponde al nivel digital (Nd) contenido en el píxel.

1
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 1. Cambio del espacio de referencia. Tomado de: Principios de georreferenciación


de un dataset ráster, Ayuda de ARCGIS 10.
Para fines cartográficos, es esencial que cualquier tipo de imagen registrada por un sensor
remoto sea ubicada correctamente en el espacio y proyectada en un sistema de referencia
determinado. Para las imágenes satelitales, la gran altura de la plataforma sensora resulta en
desplazamientos de la imagen provocados por el relieve y la curvatura de la tierra de escasa
magnitud. Normalmente, estas deformaciones no son consideradas al momento de la
georreferenciación en dos dimensiones (rectificación).
La ortorrectificación u ortocorrección (corrección en tres dimensiones) de una imagen
satelital involucra las elevaciones del terreno y la curvatura terrestre para cada posición de los
píxeles en una imagen. Algunas empresas distribuidoras de imágenes (DigitalGlobe, GeoEye
CNES, entre otras) entregan sus productos de alta resolución espacial (IKONOS, Quickbird,
SPOT, entre otros) con los Coeficientes Polinómicos Racionales (RPC: Rational Polynomial
Coefficients) que se requieren para la ortorrectificación, acompañado de un Modelo Digital de
Elevaciones (DEM: Digital Elevation Model) preciso. Los RPC corresponden a los coeficientes
de los valores de latitud, longitud y altitud necesarios para corregir ortogonalmente una imagen
satelital. Dichos coeficientes son generados a partir de la orientación exterior del sensor que
registra la imagen.

2
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 2. Parámetros de la orientación exterior de una cámara. Fuente: Erdas, 2005.


Al igual que en fotogrametría, la orientación exterior reconstruye la posición, inclinación
y rotación del sensor respecto al sistema de coordenadas terrestres durante el registro de la
imagen. Para la resolución de la orientación exterior se requiere entonces del conocimiento de
los siguientes parámetros: coordenadas x, y, z del centro de la lente de la cámara y sus
correspondientes rotaciones (ω, omega; φ, fi; κ, kappa), vinculadas con la actitud del satélite
(Figura 2). Por supuesto que se requieren también de los parámetros de la orientación interior:
coordenadas del punto principal, la distancia principal de la cámara y las distorsiones de la lente.
Los parámetros de ambas orientaciones son provistos por las empresas distribuidoras de
imágenes.

3
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 3. Arreglo del escáner lineal de empuje. Fuente: Morgan, 2004.


En la Figura 4 se muestran los parámetros de la orientación interior del escáner de empuje
con arreglo lineal (Figura 3), sensor HRV del satélite SPOT.

Figura 4. Parámetros de la orientación interior del escáner de arreglo linear del satélite
SPOT. Fuente: Erdas, 2005.
Pk: punto en la imagen
xk: coordenada x de la imagen para línea k de escaneo
f: distancia principal de la cámara

4
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Ok: centro de perspectiva para la línea k de escaneo, alineado con la órbita


PPk: punto principal para la línea k de escaneo
lk: rayo de luz para la línea k de escaneo, vinculado al centro de perspectiva Ok
Como resultado de la georreferenciación, la ubicación espacial correcta de las imágenes
puede lograrse generalmente a través del uso de un proceso de transformación sistemática
llamado rubber sheet (lámina de goma); dicha transformación deforma suavemente la capa raster
(haciendo uso de ecuaciones polinominales) basándose en las posiciones conocidas de un grupo
de puntos de control de terreno (PCT o GCP: Ground Control Points) ampliamente dispersados.
Esta capacidad es brindada en IDRISI por el módulo RESAMPLE (Remuestreo) y en ARCGIS
10 por la herramienta GEORREFERENCIACIÓN.

1.1. AJUSTE DE LA GRILLA DE COORDENADAS


Como ya se dijera, la primera etapa de la georreferenciación corresponde al ajuste de la
grilla original de coordenadas que involucra el desplazamiento, rotación y escalado hacia nuevas
posiciones correspondientes a un sistema de proyección cartográfica con referencia conocida y
precisa. En síntesis, la imagen proyectada se obtiene mediante la aplicación de una
transformación geométrica utilizando polinomios de diferente orden en base a la localización de
PCT.
En una primera instancia se debe especificar las coordenadas de origen y de destino, el
tipo de transformación geométrica (orden polinómico, Figura 5) que se realizará, cuya aplicación
depende de la cantidad de puntos de control introducidos.
La herramienta de rectificación polinómica es útil cuando el ráster requiere una
corrección geométrica sistemática que se pueda modelar con un polinomio. Una transformación
espacial puede corregir o quitar distorsiones utilizando una transformación polinómica del orden
apropiado. Cuanto más elevado sea el orden del polinomio utilizado, más compleja será la
distorsión que puede ser corregida y requerirá progresivamente más tiempo de proceso.

Figura 5. Georreferenciación, ajustes polinómicos. Tomado de: Principios de


georreferenciación de un dataset ráster, Ayuda de ARCGIS 10.

5
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Para determinar la cantidad mínima de vínculos (PCT) necesarios para un orden de


polinomios dado, se puede utilizar la siguiente fórmula:
n = (p + 1) (p + 2) / 2
donde:
n es la cantidad mínima de PCT requeridos para la transformación del orden polinómico
p elegido. Se recomienda enfáticamente utilizar más vínculos de lo que indica la cantidad
mínima.

1.1.1. Tipo de transformaciones geométricas en ARCGIS 10


Un polinomio de primer orden (lineal o afín) fija un plano chato en los puntos de entrada.
Los polinomios de segundo (cuadrática) y tercer (cúbica) orden fijan una superficie algo
más complicada en los puntos de entrada.
ADJUST (Ajuste): Es una transformación que optimiza la exactitud local y global que se
logra realizando primero una transformación polinómica, para luego ajustar localmente los
puntos de origen a los PCT de destino, con la aplicación de la técnica de interpolación de red
irregular de triángulos (TIN).
SPLINE (Regla o línea flexible): Transforma de manera precisa las posiciones de los
puntos de origen en las ubicaciones de los PCT de destino, pero no así en los sitios que se
encuentran entre los puntos de control.

PC 02 PC 02

PC 01 PC 01

PC 03 PC 03
PC 04 PC 04

PC 09 PC 09

PC 10 PC 10

PC 12 PC 12
PC 11 PC 11

PC 06 PC 06

PC 05 PC 05

a b

6
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

PC 02 PC 02

PC 01 PC 01

PC 03 PC 03
PC 04 PC 04

PC 09 PC 09

PC 10 PC 10

PC 12 PC 12
PC 11 PC 11

PC 06 PC 06

PC 05 PC 05

c d
PC 02

PC 01

PC 03
PC 04

PC 09

PC 10

PC 12
PC 11

PC 06

PC 05

e
Figura 6. Tipos de transformaciones geométricas: a, polinómica de primer orden; b,
polinómica de segundo orden; c, polinómica de tercer orden; d, ajuste (adjust);
y, e, línea flexible (spline).
En la Figura 6 se pueden ver las deformaciones que sufre una fotografía aérea (Núñez,
2003), por la aplicación de diferentes transformaciones geométricas en base a diez PCT. Los
errores y residuales máximos se pueden consultar en la Tabla 1.

Residual
RMS
Transformación geométrica máximo PCT
(m)
(m)
Polinómica de primer orden 9.311 14.357 02
Polinómica de segundo orden 2.134 3.689 03
Polinómica de tercer orden 0.006 0.011 06
Ajuste (adjust) 0.000 0.000 todos
Línea flexible (spline) 0.004 0.004 todos
Tabla 1. Error estándar (RMS: Root Mean Square) y residual máximo por la aplicación
de diferentes transformaciones geométricas sobre una fotografía aérea basado
en diez PCT.

7
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

1.2.1. Tipo de transformaciones geométricas en IDRISI


Solo están disponibles en IDRISI las tres primeras transformaciones geométricas, o sea
las polinómicas de primero, segundo y tercer orden.
Debe tenerse presente siempre que la calidad de la georreferenciación depende en
primera instancia de la precisión, distribución e identificación correcta de los PCT en la imagen a
rectificar.

2.1. TRANSFERENCIA DE POSICIONES DE LOS NIVELES DIGITALES


La imagen digital es una matriz de celdillas en una dimensión finita. Las posiciones de
los píxeles son de tipo discreto, debe recordarse el sistema fila, columna. Luego de la aplicación
de las funciones de ajuste (coordenadas de imagen a coordenadas en un sistema de referencia),
las nuevas posiciones de los píxeles estarán representadas por números reales, que en la mayoría
de los casos no coincidirá con la situación de las celdillas, expresadas para la imagen original,
como números enteros (fila, columna).

Figura 7. Posiciones definitivas de los píxeles luego de la transformación geométrica de la


imagen. Tomado de Pinilla, 1995. Pág. 142.
Luego de la transformación de la imagen original, esto es desplazamiento, rotación y
escalado de la grilla de coordenadas (Figura 7), es necesario asignar a las nuevas posiciones de
las celdas un único valor proveniente de los píxeles primitivos.
Existen varios métodos para la transferencia de los Nd a la nueva posición en la imagen
corregida, operaciones conocidas con el nombre de remuestreo o interpolación (RESAMPLE),
mediante las cuales se trasladan los Nd de las posiciones en la imagen transformada a las
localizaciones definitivas en la imagen corregida. La denominación de imagen transformada
corresponde a la resultante de la transformación geométrica una vez aplicadas las funciones de
ajuste; se reserva el calificativo de imagen corregida a la que resulta de la aplicación del
remuestreo o interpolación sobre la imagen transformada.

8
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

2.1.1. MÉTODO DEL VECINO MÁS CERCANO


El método del vecino más cercano (nearest neighbourg) consiste en un algoritmo que
asigna a cada celdilla de la imagen corregida el Nd correspondiente al píxel de la imagen
transformada cuyo centro esté más próximo al de la corregida (Figura 8); las expresiones
algebraicas correspondientes son:

ƒ(x,y) ∆x < 0,5 ∆y < 0,5

ƒ(x+1,y) ∆x ≥ 0,5 ∆y < 0,5


ƒ(m,n) =
ƒ(x,y+1) ∆x < 0,5 ∆ ≥ 0,5

ƒ(x+1,y+1) ∆x ≥ 0,5 ∆y ≥ 0,5

donde: ƒ(m,n) es el Nd asignado a la celdilla (m,n) de la imagen corregida, ƒ(x,y) es el


valor correspondiente al píxel de la imagen transformada, situado en una posición delimitada por
un número real, siendo:

m = x + ∆x 0 ≤ ∆x ≤ 1

n = y + ∆y 0 ≤ ∆y ≤ 1

donde: ∆x e ∆y son las diferencias respectivas en la dirección de las columnas y de las


filas entre el centro de la celdilla corregida y el de la transformada, expresada en fracciones de
píxel.
Este procedimiento no supone la alteración de los Nd de la imagen original, sino
solamente la traslación a otra localización. Presente el inconveniente de introducir fracturas y
quiebres en el trazado de los rasgos lineales de la imagen original, distorsión conocida como
efecto escalera. A pesar de ello, es el único método utilizable en la georreferenciación de
imágenes con datos cualitativos o temáticos e inclusive en aquellas imágenes que serán luego
utilizadas para calcular parámetros físicos como la biomasa a partir de los valores de Nd.

9
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 8. Remuestreo por el método de vecino más cercano. Tomado de Pinilla, 1995.
Pág. 144.

2.2.1. MÉTODO DE INTERPOLACIÓN BILINEAL


El algoritmo de interpolación bilineal (bilinear interpolation) asigna al píxel corregido la
media ponderada de los Nd correspondientes a las cuatro celdas más cercanas de la imagen
transformada (Figura 9); el peso asociado a cada Nd es proporcional a la cercanía de aquellas (1 -
∆x y 1 - ∆y), considerando la distancia medida entre los centros de las celdas.
ƒ(m,n) = c1 ƒ(x,y) + c2 ƒ(x+1,y) + c3 ƒ(x,y+1) + c4 ƒ(x+1,y+1)
donde ƒ(m,n) y ƒ(x,y) tienen el significado ya expresado y ci son los factores de
ponderación asignados a los cuatro Nd de entrada definidos de la siguiente manera:

c1 = (1 - ∆x) (1 - ∆y)
c2 = ∆x (1 - ∆y)
c3 = (1 - ∆x) ∆y
c4 = ∆x ∆y

10
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 9. Remuestreo por interpolación bilineal. Tomado de Pinilla, 1995. Pág. 145.
Este método produce resultados suavizados, pues las cuatro posiciones más cercanas a la
celdilla corregida son utilizadas para calcular un valor promedio que homogeniza las escalas de
grises: El método de interpolación bilineal se utiliza para georreferenciar imágenes con datos
cuantitativos, permitiendo salidas de mayor calidad visual.

2.3.1. MÉTODO DE CONVOLUCIÓN CÚBICA


El método de convolución cúbica (cubic convolution) es un algoritmo muy utilizado que
emplea polinomios bivariados de tercer orden. En esencia es similar al anterior, con la diferencia
que para calcular la media ponderada utiliza las dieciséis celdillas más próximas al píxel
considerado. Los Nd de las dieciséis celdas de la imagen transformada se interpolan linealmente
en cuatro grupos de cuatro líneas de cuatro píxeles, cada una de aquellas para formar cuatro
interpolantes. Con posterioridad se realiza una nueva interpolación entre los cuatro valores
anteriores obtenidos para asignar finalmente el Nd a la celda corregida (Figura 10). La expresión
que calcula la interpolación unidimensional en función de los cuatro valores más próximos de
una línea es:
ƒ(m,n) = ∆x{∆x(∆x[ƒ(x+2) - ƒ(x+1) + ƒ(x) - ƒ(x-1)] -
- [ƒ(x+2) - ƒ(x+1) + 2ƒ(x) – 2ƒ(x-1)]) +
+ [ƒ(x+1) - ƒ(x-1)]} +
+ ƒ(x)

11
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 10. Remuestreo mediante convolución cúbica. Tomado de Pinilla, 1995. Pág. 146.
que puesta en función de las luminancias de cada celdilla queda:
ƒ(m) = [(∆x)3 – (∆x)2] ƒ(x+2) -
- [(∆x)3 – (∆x)2 - (∆x)] ƒ(x+1) +
+ [(∆x)3 – 2(∆x)2 + 1] - ƒ(x) -
- [(∆x)3 – 2(∆x)2 + (∆x)] ƒ(x-1)
donde ƒ(m) es el interpolante asignado a la celdilla central (m) de cada una de las cuatro
líneas de la imagen corregida y ƒ(x) es el valor correspondiente al píxel de la imagen
transformada, situado en una posición delimitada por un número real. El polinomio de
interpolación entre los cuatro valores ƒ(m) obtenidos será de la forma:
ƒ(m,n) = [(∆y)3 – (∆y)2] ƒ(m+2) -
- [(∆y)3 – (∆y)2 - (∆y)] ƒ(m+1) +
+ [(∆y)3 – 2(∆y)2 + 1] - ƒ(m) -
- [(∆y)3 – 2(∆y)2 + (∆y)] ƒ(m-1)
Este método asegura que la interpolación pase por los valores conocidos en los centros de
las celdillas y que sus dos primeras derivadas sean suaves. Ello produce gran conservación en el
aspecto visual de la imagen resultante, pues el suavizado que introduce es menos severo que en
la interpolación bilineal. Sin embargo presenta el inconveniente de una mayor exigencia de
cálculo al sistema de tratamiento, lo que insume mayor tiempo.
En IDRISI solo están disponibles las dos primeras opciones de remuestreo (vecino más
cercano e interpolación bilineal), mientras que en ARCGIS 10 se ofrecen los tres métodos y se
incluye un cuarto llamado Majority (Mayoría). Este último corresponde a un remuestreo o
interpolación en el que se asigna el identificador dominante a la posición de la celda de salida; se
requiere que tres de cuatro o cinco de ocho celdas próximas (en un arreglo ortogonal) de la
imagen transformada tengan el mismo valor (identificador temático o Nd), en caso contrario se
asigna el dato del píxel más próximo.
Las opciones NEAREST y MAJORITY se utilizan para los datos temáticos, como los
mapas de uso del suelo en formato ráster. NEAREST es la opción predeterminada dado que es la

12
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

más rápida y también porque no cambiará los valores de los píxeles. No se deben utilizar
NEAREST o MAJORITY para datos continuos, como las superficies de elevación.
Las opciones BILINEAR y CUBIC son más adecuadas para los datos continuos. No se
recomienda la utilización de los algoritmos BILINEAR o CUBIC para datos temáticos ya que
pueden alterar los valores de las celdas.

2. CANTIDAD Y DISTRIBUCIÓN DE PUNTOS DE CONTROL PARA LA


GEORREFERENCIACIÓN
La siguiente presentación está basada en el trabajo de Juliá (1999). Si bien el trabajo del
profesor Juliá está referido a los puntos de enlace para los métodos de aerotriangulación de
fotografías aéreas – este caso en particular para el ajuste planimétrico -, las consideraciones y
conclusiones pueden resultar de utilidad para los trabajos de georreferenciación de imágenes
satelitales.

1.1. Introducción
La utilización de las técnicas de la Aerotriangulación y de la compensación por bloques
ha aumentado considerablemente en el país en los últimos años, y es probable que ese aumento
sea aún mayor en el futuro, si se tienen en cuenta los requerimientos cartográficos que
implicarán, por un lado las importantes inversiones previstas en obras de infraestructura y, por el
otro, el impacto trascendente que viene a significar la aparición y rápida generalización de los
Sistemas de Información Geográfica.
Ante este futuro promisorio, resulta conveniente brindar a los usuarios información
suficiente, inexistente en idioma español, sobre la relación entre la precisión de la compensación
y aquellos parámetros como forma y tamaño del bloque, distribución de puntos de control,
cantidad de puntos de enlace, recubrimiento (especialmente el transversal), tipo de fotografía etc.
Muchas de las dificultades encontradas en la práctica tienen su origen en un diseño
deficiente de la distribución de puntos de control o en la elección de la cantidad de puntos de
enlace, por ejemplo.
Este trabajo persigue principalmente fines didácticos y presenta los resultados de varias
investigaciones sobre el tema.

2.1. Estudio teórico de la precisión de la compensación en bloque por modelos independientes


Las investigaciones que a continuación se presentan fueron realizadas mediante la
obtención de las matrices de varianza covarianza de los parámetros de transformación y de las
coordenadas incógnitas, para lo cual fue necesario invertir las correspondientes matrices de las
ecuaciones normales reducidas de la compensación.

2.1.1. Planimetría
Ackermann (1967) ha estudiado el tema del ajuste planimétrico de bloques de fotografías
en detalle y sus investigaciones han dado lugar a muchas publicaciones. En una de ellas se
presentan la conclusiones principales mediante perspectivas muy expresivas que permiten
apreciar la influencia de la distribución de los puntos de control en la compensación (Figura 12 y
Figura 13). Al examinar estas figuras debe tenerse presente que ellas son una representación
gráfica espacial de los errores cuadráticos medios (σx = σy = σ) de las coordenadas planimétricas

13
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

(x,y) compensadas de los puntos de enlace del bloque, y no una representación de la deformación
planimétrica real del bloque, como podría interpretarse apresuradamente.

Figura 11. Influencia en la distribución de los puntos de control en la compensación por


bloques.

14
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 12. Influencia en la distribución de los puntos de control en la compensación por


bloques con pasadas adicionales.

El valor de σ está representado en la dirección vertical en unidades de σo, que es el error


cuadrático medio de la unidad de peso, cuyo valor oscila en los 10 µm según sea la precisión con
que se trabaje y representa la precisión con que se miden las coordenadas en el modelo. El valor
de σo será menor que 10 µm en los trabajos de alta precisión (puntos preseñalizados, por
ejemplo), pero ascenderá a los 25 o 30 µm si se trabaja con puntos “perforados” en la emulsión
por medio de aparatos de transferencia de puntos. µ es el valor medio cuadrático de los errores
medios de todos los puntos de enlace después de la compensación. σmáx es el máximo valor que
toma σ en el bloque. También se consigna el valor de σ para algunos puntos característicos del
bloque. Para los bloques f9 y f10 se consignan, además, los valores de (σmáx) y µi
correspondiente al espacio interior a los puntos de control.

15
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

( xi − x) 2
σo =σ = ∑ 2
Varianza de la unidad de peso, precisión.
n −1
( xi − x) 2 Promedio del error medio de los puntos de
µ =σ x = ∑
2
enlace luego de la compensación.
n * (n − 1)
RMS = 2 σ x2
σ Error estándar (Root Mean Square).
RMS = 2
n
σ = RMS 2 n Desvío estándar.
De los ejemplos presentados en la Figura 12 se extraen fácilmente las siguientes
conclusiones:
Con solo 4 puntos de apoyo en las esquinas del bloque la precisión se reciente
sensiblemente en el perímetro del bloque (bloques f6 y d10), pero en el interior de ella
es bastante mejor y de carácter uniforme.
El inconveniente de la poca precisión en los bordes desaparece empleando puntos de
apoyo a lo largo del perímetro de bloque (bloques f7, d11, d12 y d14). Cuanto mayor
sea la densidad de ese apoyo, mejor será la precisión final.
Por su parte, de lo mostrado en la Figura 13 se puede concluir:
No resulta necesario colocar una alta densidad de puntos de apoyo en el interior del
bloque (bloque f5).
El empleo de pasadas adicionales con un alargue de 2 modelos al principio y al final de
cada una de ellas brinda una interesante posibilidad de ahorrar puntos de control en el
perímetro. En los bloques f9 y f10, se puede apreciar que la precisión, dentro de la zona
definida por los puntos de control, es comparable a la obtenida en los bloques con
mayor apoyo planimétrico denso.

3. CORRECCIÓN MEDIANTE MODELIZACIÓN MATEMÁTICA


Los métodos de corrección mediante modelización matemática permiten restablecer las
condiciones reales de la escena a partir del conocimiento de los parámetros orbitales del satélite
en el instante de la adquisición; dichos parámetros son almacenados en el fichero de cabecera
(header) de la imagen. La corrección automática de las imágenes satelitales está basada en estos
procedimientos, los mismos se conocen también como correcciones de sistema (Figura 13).

16
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Figura 13. Transformaciones geométricas simples. Tomado de Pinilla, 1995. Pág. 148.

Este tipo de tratamientos consiste en realizar una serie de transformaciones geométricas


simples sobre una imagen, o bien, una combinación de ellas. Se presentan algunas de las más
elementales:
Traslación
u=x+a
v=y+b
Inclinación
u = x + ay
v=y
Cambio de escala
u = ax
v = by
Perspectiva
u = axy
v=y
Rotación
u = cos θ x + sen θ y
v = - sen θ x + cos θ y
para una rotación levógira de ángulo θ.
En cualquiera de los casos anteriores, todos los puntos de la imagen se habrán trasladado
a la posición corregida mediante la aplicación del operador de corrección sin la introducción de
error alguno en el proceso.

17
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

4. BIBLIOGRAFÍA
Ackermann, F. 1967. Theorestische Beispiele zur Lagegenautigkeit ausgeglichener
Bloecke. Bildmessung und Luftbildwesen, Helft 3.
Cuartero, A. y A. M. Felicísimo. 2003. Rectificación y ortorrectificación de imágenes de
satélite: análisis comparativo y discusión, GeoFocus (Artículos), nº 3, 2003, p. 45-57. ISSN:
1578-5157.
Erdas field Guide Lieca Geosystems, GIS and Mapping. 2005.
Juliá, J. E. 1999. Puntos de enlace y de control en la aerotriangulacion. ¿cuantos?
¿donde?. Universidad Nacional de Tucumán.
Morgan, M. 2004. Epipolar Resampling of Linear Array Scanner Scenes, University of
Calgary, CALGARY, ALBERTA, EEUU.187 pp.
Núñez, V. 2003. Levantamiento aerofotográfico con cámara de mediano formato sobre
Avenida Bolivia, Ciudad de Salta. IRNED, UNSa. Salta, Argentina.
Pinilla, C. 1995. Elementos de teledetección. Ed. RA-MA. Madrid, España. 282 pp.

18
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

PROCESAMIENTO DIGITAL
APUNTE EN PREPARACIÓN (2007)

La Matriz de datos en una imagen digital. El formato ráster (teselar)

El sensor explora secuencialmente la superficie terrestre adquiriendo a intervalos regulares la radiación que
proviene de los objetos sobre ella situados y detecta la radiancia media de una parcela de terreno que equivale a un
píxel, mínimo elemento de resolución a partir del cual se realiza el tratamiento digital de imágenes. Cada píxel viene
definido por un número entero y este valor se denomina nivel digital (ND). Este es un valor numérico no visual, que
puede traducirse a una intensidad visual o si se prefiere a un nivel de gris mediante un monitor.
La organización de datos en una imagen digital es una matriz numérica de tres dimensiones. Las dos
primeras coordenadas geográficas de la imagen, mientras la tercera indica su dimensión espectral. La orientación
aproximada norte – sur se expresa a través de las filas de la matriz (line) mientras que las columnas (column) indican
la disposición oeste – este. El origen de coordenadas se sitúa en la esquina superior izquierda (línea 1 columna 1),
en lugar del borde inferior izquierdo como ocurre el cualquier eje cartesiano y se debe a la secuencia de adquisición
de imágenes de norte a sur de acuerdo a la traza del satélite. La tercera dimensión corresponde a la resolución
espectral del sensor y habrá tantos planos en la imagen como bandas originalmente detectadas.

Figura 541: Teniendo presente el carácter matricial de cualquier imagen numérica, son más compresibles las
posteriores transformaciones aplicadas sobre ellas como: medidas de tendencia central y dispersión (media,
desviación típica en c/u de las bandas), cambiar su orientación geométrica (rotación de la matriz), realizar
combinaciones entre bandas (cocientes), sintetizar varias bandas reduciendo la información redundante
(componentes principales) o discriminar grupos de ND homogéneos dentro de la matriz (clasificación)

Formatos de almacenamiento
Estos indican la organización de los ND que forma la imagen dentro del soporte. Los ND se graban en
código binario (un bit 0 ó 1). La mayor parte de los sensores emplean grupos de 8 bit para almacenar el ND
correspondiente a cada píxel, en definitiva cada píxel se define por un byte, lo que equivale a un rango de 28= 256
niveles (0 a 255). Esta es la resolución radiométrica utilizada por mayoría de los sistemas satelitales dedicados al
estudio de los recursos naturales (LANDSAT y SPOT, entre otros).

1
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

En el caso de NOAA-AVHRR, la información está codificada en grupos de 10 bits, alcanzando un rango de


210 = 1024 valores de ND. Esto conlleva la necesidad de compresión del rango dinámico de los datos para poder
mostrarlos en pantalla.
Las imágenes digitales en un CD se organizan en una serie de ficheros (files) y cada uno de estos se
descompone en registros (record). Cada imagen incluye un fichero de cabecera (header file) en donde se almacena
el formato con el que están grabados los ND que lo componen, así como las condiciones en que se adquirió la
imagen: tipo de sensor, localización de la escena, día, elevación y azimut solar y el tipo de corrección aplicada por la
estación receptora.

A continuación se presenta como ejemplo, un header de la imagen LANDSAT 5 TM 230 076 de fecha 25/01/2004:

PRODUCT =04064510-01 WRS =230/07600 ACQUISITION DATE =20040125 SATELLITE =L5


INSTRUMENT = TM10 PRODUCT TYPE = MAP ORIENTED PRODUCT SIZE = SUBSCENE
TYPE OF GEODETIC PROCESSING = SYSTEMATIC RESAMPLING = NN RAD
GAINS/BIASES = 1.26880/-0.0100 2.98126/-0.0232 1.76186/-0.0078
2.81771/-0.0193 0.65277/-0.0080 3.20107/0.25994 0.44375/-0.0040
VOLUME #/# IN SET =1/1 START LINE #= 1 LINES PER VOL = 58072
ORIENTATION = 0.00 PROJECTION = TM USGS PROJECTION # = 9
USGS MAP ZONE = 0
USGS PROJECTION PARAMETERS = 6378137.000000000000000 6356752.314245179300000 1.000000000000000 0.000000000000000
-62.999999999631733 -89.999999999719449 4500000.000000000000000
0.000000000000000 0.000000000000000 0.000000000000000
0.000000000000000 0.000000000000000 0.000000000000000
0.000000000000000 0.000000000000000 EARTH ELLIPSOID =WGS84
SEMI-MAJOR AXIS =6378137.000 SEMI-MINOR AXIS =6356752.314
PIXEL SIZE = 25.00
PIXELS PER LINE= 9276 LINES PER IMAGE= 8296
UL 0643358.7792W 215424.3873S 4338137.500 7577662.500
UR 0621920.7026W 215446.2061S 4570012.500 7577662.500
LR 0621847.0682W 234707.0722S 4570012.500 7370287.500
LL 0643516.4977W 234643.1734S 4338137.500 7370287.500
BANDS PRESENT =1234567 BLOCKING FACTOR = 1 RECORD LENGTH = 9276SUN ELEVATION = 54 SUN AZIMUTH = 92 CENTER 0632834.3145W
225129.9515S 4451127.725 7473039.342 4521 4186 OFFSET= 162 REVB

Los tres formatos más habituales son:


Bandas secuenciales (BSQ): los ND de cada banda se disponen uno a continuación del otro hasta completar todos
los pixeles de una banda. Tras ellos, se sitúan los ND de la siguiente banda y así hasta completar todas las bandas
espectrales de la imagen.

2
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Bandas intercaladas por líneas (BIL): Los ND son organizados por líneas, de manera que la primera fila de datos
de la banda 1 es seguida por la primera fila de la banda 2, y así sucesivamente hasta completar la escena. Este
formato agiliza la captura de una sub-escena y es el utilizado para distribuir las imágenes SPOT – HRV.
Bandas intercaladas por píxel (BIP): Similar al criterio usado en el formato anterior, solo que en este caso los que
se alternan son los ND de un mismo píxel para todas las bandas y luego para el segundo píxel de todas las bandas
nuevamente y así sucesivamente hasta completar la escena. Este es un formato adecuado para las operaciones
píxel a píxel, ya que se requiere un mínimo reformateo de los datos. Este formato hoy es poco frecuente ya que fue
ideado para clasificar subimágenes cuando se usaban equipos de escasa memoria.
EQUIPOS DE TRATAMIENTO DIGITAL DE IMAGENES
Componentes físicos
Unidades de entrada de información: teclado, lectora grabadora de CD, pendriver, disqueteras y ziperas. Tabletas
digitalizadoras.
Unidades de proceso y almacenamiento: La unidad de control es el dispositivo que dirige las operaciones en la CPU.
RAM: memoria de acceso directo. ROM: memoria permanente. Disco rígido.
Unidades de salida: grabado de datos em CD y pendriver, impresoras, plotter.
Componentes lógicos: software

PROCESAMIENTO DIGITAL DE UNA IMAGEN SATELITAL

Histograma
Cualquier operación aplicada sobre la imagen parte de su carácter digital, por lo que conviene conocer las
estadísticas elementales que la definen y orientar los posteriores procesos de realce visual ó transformación.
El estiramiento del histograma (strech) da como resultado el realce de la imagen. Esta técnica se refiere al hecho de
que la información de una imagen puede ser desplegada en forma de un histograma de la frecuencia de los ND
presentes en la misma. Como ya se mencionó, las imágenes Landsat TM potencialmente pueden registrar 255
niveles de energía que pueden ser desplegados en un monitor como 255 tonos de gris. No todas las escenas
abarcan los 255 tonos por lo que el histograma presenta las frecuencias de los ND ubicados en un rango estrecho.
Mediante el estiramiento del histograma se puede mejorar los contrastes (Figura ).
Los histogramas pueden ser unidimensionales como se observa en la figura .. o sea para una sola banda, ó
multidimensionales cuando representa la distribución de 2 o mas bandas llamado también scattergrama y permite
analizar visualmente el grado de correlación entre dos bandas y decidir sobre la técnica de aumento de contraste a
aplicar en las imágenes multiespectrales.
La forma del histograma nos describe la intensidad media y la dispersión de los ND. A mayor dispersión
mayor es el contraste

3
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

COMPRESIÓN DEL CONTRASTE


La compresión del contraste se hace necesaria cuando, la placa gráfica del equipo de computación, no
permite la visualización de la resolución radiométrica completa registrada por el sensor.
Actualmente, la mayoría de los equipos de computación permite la visualización de los 256 niveles de gris y
2563 colores diferentes (256 por cada tono primario). Sin embargo, las placas de video EGA y SVGA solamente
disponen de 16 y 256, respectivamente, niveles diferentes por celdilla lo que impide la visualización de toda el rango
dinámico de la imagen original. Por otra parte, algunos sensores como el AVHRR, codifican la señal en 10 bits –
1.024 niveles de gris por banda. Este margen escapa a la mayoría de los equipos que codifican en 8 bits.

Compresión del contraste por eliminación de los valores extremos. Tomado de Pinilla, 1995. Pág. 157.
El problema podría solucionarse dejando afuera de la representación todos los valores que excedan la
capacidad del sistema, centrando la visualización en el rango de Nd que más interese. Esto no es aceptable, ya que
se despreciarían arbitrariamente datos que pueden ser de gran valor. El procedimiento adecuado exige establecer
funciones de compresión de los valores digitales.
La compresión del contraste consiste en construir un número de intervalos en el rango de ND igual al
número de niveles de gris que la placa gráfica pueda procesar, de modo que a cada clase se le asigne un mismo Nv.
La forma de distribuir los intervalos dependerá del histograma de la imagen. Pueden tomarse: intervalos de igual
ancho, lo que significa igual de ND para cada clase; o, intervalos de igual número de píxeles para cada clase, lo que
en el histograma se verá reflejado por idénticas superficies en cada barra representativa de las diferentes clases.
Existe, por último, un criterio arbitrario que permite resaltar alguna característica de la imagen sin pérdida
significativa de datos relevantes, este método se conoce como segmentación del histograma.

4
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Compresión del contraste por incremento en el ancho de la clase. Tomado de Pinilla, 1995. Pág. 158.

EXPANSIÓN DEL CONTRASTE


Las operaciones más comunes aplicadas al contraste son las de expansión. Lo dicho se debe a que
normalmente las bandas presentan un rango de Nd menor al rango dinámico o a las posibilidades de visualización
que brinda el equipo de tratamiento digital, aun habiendo sido registradas por sensores de igual resolución
radiométrica que el rango de Nv soportado por la placa gráfica.
La expansión del contraste consiste en la aplicación de una nueva paleta que haga corresponder todo el
rango de Nv disponibles al rango de ND presentes en la imagen, o bien a la creación de una nueva imagen z´, cuyos
ND se distribuyan ocupando todo el rango dinámico; este procedimiento es el más usual y se describe en los
apartados siguientes.

Opción - Mínimo Máximo

La manipulación de histograma por la opción MinMax es idéntica a la manipulación de una curva lineal. La diferencia
está en el momento en que fue hecha la selección de la opción.

Histograma Max/Min

Como puede ser visto en la figura anterior, el sistema calcula el valor de los niveles de gris mínimo y máximo de la
imagen original. Sobre estos valores se aplica una transformación lineal donde la base de la recta está localizada en
el valor mínimo y el otro extremo de la recta, en el valor máximo. De este modo no habrá pérdida de información por
“overflow”, es decir, todos los niveles de gris continuarán con el mismo número de pixels.

Un “overflow” ocurre cuando un grupo de pixels de niveles de gris diferentes es transformado en un único nivel, es
decir, cuando la inclinación de la recta de transferencia es exagerada. Observe en la figura a seguir, donde la flecha
está indicando “overflow”, significa pérdida de información, ya que los pixels de columnas vecinas del histograma de
entrada, que originalmente podían ser diferenciados con base en su nivel de gris, serán fundidos en una sola
columna y pasarán a tener el mismo nivel de gris (0 para el caso de la figura que sigue)

5
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Histograma con overflow

OBS.: La ocurrencia de “overflow” es muchas veces deseada, por ejemplo si el usuario sabe en que intervalo de
niveles de gris está lo que desea realzar. En caso contrario, estará definitivamente perdiendo información cuando
guarde la imagen realzada.

Opción - Lineal

El aumento de contraste por una transformación lineal es la forma más simple de las opciones. La función de
transferencia es una recta y sólo son controlados dos parámetros: la inclinación de la recta y el punto de intersección
con el eje X (vea figura a seguir). La inclinación controla la cantidad de aumento de contraste y el punto de
intersección con el eje X, controla la intensidad media de la imagen final.

La función de mapeo lineal puede ser representada por:


Y = AX + B donde:
Y = nuevo valor de nivel de gris;
X = valor original de nivel de gris;
A = inclinación de la recta (tangente del ángulo);
B = factor de incremento, definido por los límites mínimo y máximo suministrados por el usuario.

Histograma Lineal

En el aumento lineal de contraste, las barras que forman el histograma de la imagen de salida son espaciadas
igualmente, debido a que la función de transferencia es una recta. Como puede ser observado en la figura anterior,
el histograma de salida será idéntico en formato al histograma de entrada, excepto porque el valor medio y la
extensión del intervalo serán diferentes.

Opción - Raíz Cuadrada

La opción de transformación por raíz cuadrada se utiliza para aumentar el contraste de las regiones oscuras de la
imagen original. La función de transformación es representada por la curva como en la figura a seguir. Observe que
la inclinación de la curva es tanto mayor cuanto menores son los valores de niveles de gris.

La transformación por raíz cuadrada se puede expresar por la función:

Y=A donde:

6
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Y = nivel de gris resultante


X = nivel de gris original
A = factor de ajuste para que los niveles de salida se restrinjan al intervalo entre 0 y 255.

Histograma Raíz Cuadrada

NOTA: Este mapeo difiere del logarítmico porque realza un intervalo mayor de niveles de gris bajos (oscuros),
mientras que el logarítmico realza un pequeño intervalo.

Opción - Cuadrado

Este mapeo se utiliza cuando se desea aumentar el contraste de rasgos claros (altos niveles de gris en la imagen).
Observe en la figura siguiente que el aumento de contraste es mayor a partir de la media del histograma, inclusive
habiendo un dislocamiento general para la región de niveles más oscuros.

Histograma Cuadrado

La función de transformación es dada por la ecuación:

Y = AX2 donde:

X = nivel de gris original


Y = nivel de gris resultante
A = factor de ajuste para que los niveles de salida se restrinjan al intervalo entre 0 y 255

Opción - Logaritmo

El mapeo logarítmico de valores de niveles de gris, es útil para aumentar el contraste en rasgos oscuros (valores de
gris bajos). Equivale a una curva logarítmica como muestra la figura a seguir.

La función de transformación se expresa por la ecuación:

Y = A log (X + 1) donde:

7
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Y = nuevo valor de nivel de gris


X = valor original de nivel de gris
A = factor definido a partir de los límites mínimo y máximo de la tabla, para que los valores estén restrictos al
intervalo entre 0 y 255.

Histograma Logaritmo

NOTA: Observe en la figura anterior que hay un grupo menor de niveles de gris con un gran aumento de contraste,
si se compara con la transformación por raíz cuadrada, mencionada anteriormente.

Opción - Negativo

Es una función de mapeo lineal inversa, o sea, el contraste ocurre de modo que las áreas oscuras (bajos valores de
nivel de gris) se tornan claras (altos valores de nivel de gris) y viceversa. La figura a seguir muestra su
representación.

Histograma Negativo

La función de mapeo negativa puede ser representada por:

Y = - (AX + B) donde

Y = nuevo valor de nivel de gris


X = valor original de nivel de gris
A = inclinación de la recta (tangente del ángulo)
B = factor de incremento, definido por los limites mínimo y máximo definidos por el usuario.

NOTA: Esté atento al hecho que todas las opciones mencionadas hasta el momento pueden ocasionar un “overflow”.
NOTA: El modo de operación de todas las opciones de contraste mencionadas anteriormente, tienen el modo de
operación igual al descrito en el ítem Manipulando un Histograma.

8
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Opción - Ecualización de Histogramas

Es una forma de manipulación de histograma que reduce automáticamente el contraste en las áreas muy claras o
muy oscuras de una imagen. También expande los niveles de gris a lo largo de todo intervalo. Consiste en una
transformación no lineal que considera la distribución acumulativa de la imagen original, para generar una imagen
resultante cuyo histograma será aproximadamente uniforme (vea la figura siguiente).

La opción de ecualización parte del principio que el contraste de una imagen sería optimizado si todos los 256
niveles de intensidad posibles fueran igualmente utilizados o, en otras palabras, todas las barras verticales que
componen el histograma fueran de la misma altura. Obviamente esto no es posible debido a la naturaleza discreta de
los datos digitales de una imagen de percepción remota. Sin embargo, se consigue una aproximación al dispersar los
picos del histograma de la imagen, dejando intocadas las partes más chatas. Como se puede ver en la figura a
continuación, este proceso se obtiene a través de una función de transferencia que tiene una alta inclinación siempre
que el histograma original presenta un pico y una baja inclinación en el resto del histograma.

Ecualización de Histogramas

El SPRING presenta la siguiente función de ecualización de histograma:

Y = (faxi) . 255
Pt donde:

faxi = frecuencia acumulada para el nivel de gris xi


Pt = población total (número total de "pixels")

NOTA: La opción de ecualización es calculada y presentada automáticamente, por lo que el usuario no podrá alterar
la forma o posición de la curva.

ENTROPIA

Medida del desorden de un sistema Una masa de una sustancia con sus moléculas regularmente
ordenadas, formando un cristal, tiene entropía mucho menor que la misma sustancia en forma de gas con sus
moléculas libres y en pleno desorden. En el caso de una banda de imagen satelital cuando tiene sus píxeles con
gran variación de ND tiene una entropía mucho mayor que una imagen con poca variación de ND.

CAMBIOS DE ESCALA

Conviene manejar con cierta precaución el concepto de escala cuando se habla de sensores óptico
electrónicos. La escala final de la imagen está en función del tamaño con el que representemos el píxel. La superficie
real que ocupa el píxel es la misma, así como el ND que lo define, independientemente del tamaño con que se
represente en el monitor. Como la resolución física del monitor es constante (solo admite un número determinado de
píxeles) el cambio de escala debe realizarse a través del muestreo ó replicación de los píxeles que componen la
imagen. La ampliación suele realizarse en la memoria del procesador de imagen. En realidad los píxeles mantienen
suposición y valor; solo cambian de tamaño en la pantalla. Esta forma de zoom vía hardware es interactiva y puede
magnificarse la imagen repetidas veces retornando luego al tamaño original.

9
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

NOCIONES SOBRE TEORÍA DEL COLOR

Una composición en color puede conseguirse de acuerdo a dos procesos, denominados aditivo y sustractivo.
En el proceso aditivo, cualquier color se obtiene por suma de los tres colores elementales: azul, verde y rojo. La
suma de dos colores primarios permite lograr un color complementario: azul + verde, cian; azul + rojo, magenta; y
verde + rojo, amarillo, mientras los tres suman el blanco. Por el contrario, el proceso sustractivo se basa en la
absorción de la luz que ejercen los colores complementarios: el cian absorbe la luz roja, el magenta absorbe el
verde y el amarillo el azul. Los tres en combinación suponen por tanto el negro. El proceso aditivo es utilizado en los
sistemas electrónicos de visualización, cuando la imagen se representa en un monitor de rayos catódicos. El proceso
sustractivo se emplea en la reproducción mecánica del color, típica de las artes gráficas.

10
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Cociente de bandas.

Las imágenes pueden ser manipuladas aritméticamente para obtener información específica. Una serie de
índices han sido desarrollados para resaltar particularidades de los objetos en una imagen. Entre los más usados y
conocidos están el índice de vegetación, el índice normalizado de vegetación. En concreto, ésta técnica reduce la
información común entre dos bandas y resalta las particularidades de cada una. Así por ejemplo, es común utilizar el
radio de la banda 2 y la banda 3 (visible e infrarrojo cercano) del Landsat MSS o las 3 y 4 del TM, conocido como
índice normalizado de vegetación (NDVI):

INDV= Banda infrarroja - banda roja


Banda roja + banda infrarroja
Los valores resultantes de esta operación fluctúan entre cero u uno. Dado que los máximos y mínimos valores de
reflectancia de la vegetación se ubican en el Infrarrojo y el rojo respectivamente, los valores cercanos a uno
evidencian sitios con alta densidad de vegetación, mientras que áreas carentes tendrán cero.

Filtros.
La frecuencia espacial es una de las características de las imágenes de satélite. Se define como el número
de cambios en los valores de brillantez por unidad de distancia en un sector cualquiera de la imagen. Si hay pocos
cambios en la brillantez en un área dada, entonces se refiere a dicha área de baja frecuencia, al contrario, las
regiones de fuertes contrastes son regiones de altas frecuencias. Las modificaciones de las frecuencias de las
imágenes se realizan por medio de filtros, que no son otra cosa que algoritmos que modifican los valores originales
de la imagen. Dos grandes grupos de filtros se reconocen: los filtros pasa altas y los pasa bajas. Los primeros
permiten obtener imágenes de altas frecuencias, mientras que los segundos, de baja frecuencia. Los filtros “pasa
alto”, por ejemplo, se usan cuando se quiere resaltar diferencias, como es el caso de bordes de cualquier tipo
(parcelas, carreteras, costas, etc.). Existe toda una teoría matemática alrededor de estos procesos que escapan los
objetivos de este escrito (Figura ).

11
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

CORRECCIONES DE LA IMAGEN

FUENTES DE ERROR EN UNA IMAGEN SATELITAL


Las alteraciones sufridas por una imagen adquirida por un sensor de barrido óptico electrónico montado en un
satélite son fundamentalmente de carácter geométrico y radiométrico. Los factores principales que originan estas
anomalías se pueden agrupar de la siguiente manera:

Distorsiones provocadas por la oscilación de la plataforma


La ausencia de atmósfera le permite al satélite un movimiento orbital prácticamente uniforme con aceleraciones y
retardos resultantes prácticamente nulos en cualquier dirección, salvo las derivadas de la posible excentricidad de su
órbita.
De todas formas, el satélite en su trayectoria sufre una serie de variaciones en: altura de la órbita (z), velocidad (x) y
en la orientación de cualquiera de sus ejes x, y, z; los giros sobre los ejes son conocidos con los nombres de aleteo
(pitch), cabeceo (roll) y ladeo (yaw), aquellos y las variaciones en velocidad y altura provocan cambios constantes en
el IFOV.

Distorsión provocada por la rotación terrestre


Para adquirir una escena, el espejo oscilante invierte un tiempo determinado en el cual la tierra ha girado una cierta
magnitud provocando un desplazamiento progresivo de las líneas de barrido. Para el sensor MSS del LANDSAT, el
período de revolución es de 103 minutos y el tamaño (ancho) de la escena es de 185 km; en consecuencia, el
satélite invierte:
103 min
185km * 60s / min = 28s ,
40.000km
en recorrer la escena. Durante ese período, la tierra ha girado 28 s * 15”/s = 420” = 7´, ángulo que supone un
desplazamiento lineal en nuestras latitudes (Salta, 25° de latitud S) de:
40.000km
7´cos 25° = 11,8km
360° * 60´/1°
Todo ello, unido a la propia inclinación de la órbita del satélite, produce como resultado una imagen romboidal
orientada hacia la dirección NE-SO.

12
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Distorsión de oblicuidad debida al tiempo de barrido


El barrido de una línea completa consume un tiempo finito que, en el caso del MSS es de 33 micro segundos.
Durante ese lapso, el satélite se ha desplazado respecto a la situación que ocupaba al comienzo de la línea. Por este
motivo, los dos extremos de la línea no forman una perpendicular con la traza del satélite, sino que, para una
velocidad de 6,45 km/s del MSS, la variación de los extremos es de 213 metros sobre el terreno y en dirección de la
traza.

Distorsión de la oblicuidad debido al tiempo de barrido

Distorsión del aspecto


Se trata de la diferencia entre el tamaño nominal del píxel y el correspondiente IFOV del sensor sobre el terreno,
debido a cambios en la velocidad de barrido del espejo oscilante perpendicular a la órbita del satélite.
Como consecuencia de una variación en el tiempo calculado para el barrido, se produce un solapamiento (menor
tiempo de barrido) o una separación (mayor tiempo de barrido) entre los IFOV; de esta manera los píxeles registran
datos sobre pequeños sectores ya relevados o existen vacíos en el registro de la superficie terrestre.

Distorsión panorámica
Para los sensores montados sobre satélites, el tamaño del IFOV se supone constante para la vertical a la órbita; no
es el caso de los extremos de las líneas de barrido, situaciones en las cuales se agranda el área registrada (IFOV)
por cada píxel. De todas maneras, para el caso de los satélites LANDSAT, la deformación del IFOV es despreciable;
mientras que para la mira vertical del SPOT, la deformación no se presenta debido a que está dotado de un sensor
de empuje. La deformación es acusada para el caso del NOAA-AVHRR y especialmente en la mira lateral con
inclinación de ± 27° del SPOT.

13
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Distorsión provocada por la curvatura de la tierra


Esta distorsión, de escasa consideración en sensores aerotransportados, es importante para los satelitales,
ocasionando efectos de borde muy significativos en las imágenes NOAA, y especialmente en los satélites
geoestacionarios.

Distorsiones provocadas por los sensores


Durante el barrido, tanto lateral como por empuje, puede existir fallos en la calibración de los detectores. En los
sensores de barrido, se registran simultáneamente diferentes bandas, utilizando una línea completa de detectores
por banda. Los sensores de empuje, utilizan aún más detectores simultáneamente debido a que todo el ancho de
registro está cubierto por una línea de detectores ( en el caso del sensor HRV de SPOT llegan a ser 6.000 en el
canal pancromático). Por los motivos mencionados, es necesario que todos los detectores conviertan al mismo nivel
digital (Nd) una misma radiancia detectada; un eventual desajuste de algún detector produce como consecuencia un
bandeado longitudinal en la imagen.
Otra fuente de anomalías la constituyen los fallos momentáneos, o saturación, de algún detector durante el proceso
de captura de la señal, durante la conversión analógico-digital o en la transmisión de los datos desde la plataforma a

14
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

la estación recepto en tierra. La consecuencia es la pérdida de píxeles en sectores discretos e inclusive la ausencia
de líneas completas.

Distorsiones provocadas por la atmósfera


La composición material de la atmósfera introduce modificaciones a las radiancias originales procedentes de la
superficie terrestre. La repercusión más importante es el aumento de la radiación incidente sobre el sensor, como
consecuencia de la dispersión inducida por la presencia de aerosoles atmosféricos. El efecto resultante es la
disminución del contraste de la escena, especialmente acusado en las bandas de longitudes de honda más cortas, y
el corrimiento de los Nd a valores superiores.

Procesamiento de Imágenes Digitales

Resumen

Como resultado de los escáner de estado sólido y otros dispositivos raster de entrada, ahora tenemos disponibles
imágenes digitales raster de datos espectrales reflejados.
La principal ventaja de tener estos datos en formato digital es que nos permiten aplicar a los datos de las
imágenes técnicas de análisis por computadora un campo de estudio llamado Procesamiento Digital de Imágenes.

El Procesamiento Digital de Imágenes implica en gran medida cuatro operaciones básicas:


Restauración
Mejoramiento,
Clasificación y
Transformación de imágenes.

La restauración de imágenes está relacionada con la corrección y calibración de imágenes para obtener
una representación de la superficie terrestre tan real como sea posible, consideración fundamental para todas las
aplicaciones. El mejoramiento de imágenes está principalmente relacionado con la modificación de imágenes
para optimizar su apariencia ante el sistema visual. El análisis visual es un elemento clave, aún en el procesamiento
digital de imágenes, y los efectos de estas técnicas pueden ser cruciales.
La clasificación de imágenes se refiere a la interpretación de imágenes asistida por computadora,
operación vital para el SIG.
Finalmente, la transformación de imágenes se ocupa de la derivación de imágenes nuevas como resultado
de algún tratamiento matemático de las bandas originales de la imagen.

Restauración de Imágenes
Las imágenes del medio ambiente captadas con un sensor remoto son por lo general tomadas a una gran
distancia de la superficie de la tierra. Como resultado, hay una ruta atmosférica sustancial que la energía
electromagnética debe atravesar antes de llegar al sensor. Dependiendo de las longitudes de onda involucradas y de
las condiciones atmosféricas (como las partículas de materia, humedad y turbulencia), la energía entrante puede
estar bastante modificada. El sensor mismo puede entonces modificar el carácter de esos datos ya que puede
combinar una variedad de componentes mecánicos, ópticos y eléctricos que modifican o enmascaran la energía
radiante medida. Además, mientras la imagen está siendo escaneada, el satélite sigue una ruta que está sujeta a
variaciones menores al mismo tiempo que la tierra se mueve por debajo de éste. La geometría de la imagen está por
lo tanto en un constante flujo. Por último, la señal necesita ser medida de vuelta hacia la tierra, y subsecuentemente,
recibida y procesada para producir los datos finales que recibimos. En suma, una variedad de perturbaciones
sistemáticas y aparentemente aleatorias pueden combinarse para degradar la calidad de la imagen que finalmente
recibimos. La restauración de imágenes pretende remover estos efectos degradantes.
En general, la restauración de imágenes puede dividirse en dos subáreas de restauración: radiométrica y
geométrica.

Restauración Radiométrica

La restauración radiométrica se refiere a la eliminación o disminución del grado de distorsión de la energía


electromagnética registrada por cada detector. Una variedad de agentes puede provocar distorsión en los valores
grabados para las celdas de las imágenes. Algunas de las distorsiones más comunes para las cuales existen

15
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

procedimientos de corrección incluyen: valores uniformemente elevados, debido a la niebla atmosférica, la cual
dispersa preferentemente bandas de longitud de onda corta (particularmente las longitudes de onda azul); rayado,
debido a la descalibración de los detectores; ruido aleatorio, debido a la actuación impredecible y no sistemática del
sensor o de la transmisión de los datos; y caída de la línea del escáner, debido a la pérdida de la señal de algunos
detectores.

También corresponde incluir aquí los procedimientos que se usan para convertir los valores puros de reflejo relativo
sin unidad (conocidos como números digitales o DN) de las bandas originales en verdaderas medidas de poder
reflectivo (radiación).

Restauración Geométrica (georreferenciación)

Para fines cartográficos, es esencial que cualquier forma de imagen percibida por un sensor remoto sea registrada
correctamente en la base del mapa propuesto. Con las imágenes satelitales, la gran altura de la plataforma sensora
resulta en desplazamientos mínimos de la imagen provocados por el relieve. Como resultado, el registro puede
lograrse generalmente a través del uso de un proceso de transformación sistemática llamado rubber sheet (lámina
de goma) que tuerce suavemente la imagen (a través del uso de ecuaciones polinominales) basándose en las
posiciones conocidas de un grupo de puntos de control ampliamente dispersados. Esta capacidad es brindada en
IDRISI por el módulo RESAMPLE (Remuestreo).
Con las fotografías aéreas, sin embargo, el proceso es más complicado. No sólo existen distorsiones sistemáticas
relacionadas con el cabeceo del avión y la variación en la altitud, sino que también el relieve topográfico variable
provoca distorsiones muy irregulares (diferencia de paralaje) que no pueden ser eliminadas con el procedimiento de
transformación rubber sheet (lámina de goma). En estos casos, es necesario utilizar la rectificación fotogramétrica
para remover estas distorsiones y proveer medidas precisas de los mapas. Si esto falla, las porciones centrales de
las fotografías de gran altitud pueden ser remuestreadas con algo de éxito.
El módulo RESAMPLE es de gran importancia, y es esencial que uno aprenda a usarlo con efectividad. Aprender
esto también requiere un profundo entendimiento de los sistemas de referencia y de sus parámetros asociados tales
como los datos y las proyecciones. El capítulo de Georreferenciamiento brinda una discusión con detenimiento de
estos temas.

Mejoramiento de Imágenes

El mejoramiento de imágenes se ocupa de la modificación de imágenes para adecuarlas más a las capacidades de
la visión humana. Más allá de la cantidad de intervención digital, el análisis visual siempre juega un papel central en
todos los aspectos de la percepción remota. Mientras la gama de técnicas para el mejoramiento de imágenes es
amplia, los siguientes temas fundamentales forman la columna vertebral de esta área:
Área de Contraste
Los sensores digitales poseen un amplio rango de valores de salida para acomodar los valores de reflexión muy
variables que pueden encontrarse en diferentes ambientes. Sin embargo, en cualquier medio ambiente, a menudo se
presenta el caso en que sólo un pequeño rango de valores ocurre en la mayoría de las áreas. Las distribuciones de
los niveles de gris tienden entonces a estar bastante alteradas. Los procedimientos de manipulación de contraste
son por lo tanto esenciales para la mayoría de los análisis. La Figura 3-6 muestra la Banda TM 3 (rojo visible) y su
histograma. Fíjese que los valores de la imagen están bastante alterados. La imagen derecha de la figura muestra la
misma banda de imagen después de que un área lineal entre los valores 12 y 60 ha sido aplicada. En IDRISI, este
tipo de mejoramiento o ajuste de contraste puede realizarse interactivamente a través de las Propiedades de las
Capas del Diseñador (Composer’s Layer Properties) mientras se visualiza la imagen. Esto es normalmente utilizado
para análisis visuales únicamente los valores originales
Las imágenes de satélites basados en los escáners contienen una variedad de problemas geométricos inherentes como la
deformación (causada por la rotación de la Tierra debajo del satélite mientras éste se encuentra escaneando una imagen
completa) y la distorsión del escáner (causada por el hecho de que el campo visual instantáneo, IFOV, cubre más territorios al
final de las líneas del escáner, donde el ángulo visual es muy oblicuo, que en la parte central). Con las imágenes satelitales
comercializadas, como las del LANDSAT, IRS o SPOT, la mayoría de los elementos de la restauración geométrica sistemática
asociados con la captación de imágenes son corregidos por los distribuidores de las imágenes. Entonces, para el usuario final, la
única operación geométrica que generalmente necesita ser realizada es un remuestreo rubber sheet (lámina de goma) para
rectificar la imagen para una base cartográfica. Muchas distribuciones comerciales realizan esta rectificación con un costo
adicional.
La fotogrametría es la ciencia que realiza medidas espaciales a partir de fotografías aéreas. Para proveer una rectificación
completa, es necesario poseer imágenes estereoscópicas – fotos que se superponen lo suficiente (Ej., 60% en la dirección a lo
largo de la ruta y 10% entre las líneas de vuelo) como para brindar dos imágenes independientes para cada parte del paisaje. Al
usar estos pares estereoscópicos y los puntos de control del suelo de posición y altura conocidas, es posible recrear por
completo la geometría de las condiciones visuales y, por lo tanto, no sólo rectificar las medidas de dichas imágenes, sino

16
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

también derivar las medidas de la altura del terreno. Las fotografías rectificadas se llaman ortofotos. Las medidas de altura
pueden usarse para producir modelos de elevación digital. de los datos son usados en análisis numéricos. Los imágenes nuevas
con valores ampliados se producen con el módulo STRETCH (Estiramiento).

Figura 3-6: Generación de Compuestos

Para el análisis visual, los compuestos color hacen un uso total de las capacidades del ojo humano. Dependiendo del
sistema de gráficos en uso, la generación de compuestos va desde la simple selección de las bandas a utilizar, hasta
procedimientos más complejos de combinaciones de bandas y áreas de contraste asociadas.

RGB=bandas 3,2,1 RGB=bandas 4,3,2 RGB=bandas 4,5,3 RGB=bandas 7,4,2


Figura 3-7

La Figura 3-7 muestra varios compuestos hechos con diferentes combinaciones de bandas a partir del mismo grupo
de imágenes TM (Vea la Figura 3-5 para las definiciones de bandas TM). El módulo COMPOSITE (Compuestos) de
IDRISI se usa para construir imágenes compuestas de tres bandas y 24 bits para análisis visuales.
Una de las capacidades más intrigantes del análisis digital es la habilidad para aplicar filtros digitales. Los filtros
pueden ser usados para proveer un realce de los bordes (a veces llamado crispening), para eliminar la borrosidad de
las imágenes, y para aislar los lineamentos y las tendencias direccionales, para mencionar unas pocas. El módulo
FILTER (Filtros) de IDRISI se usa para aplicar los filtros estándar y para construir y aplicar filtros definidos por el
usuario.

Clasificación de Imágenes
La clasificación de imágenes se refiere a la interpretación asistida por computadora de imágenes de sensores
remotos. Los procedimientos involucrados son tratados en detalle en el capítulo titulado Clasificación de Imágenes
de Sensores Remotos. Esta sección brinda un breve resumen.
Aunque algunos procedimientos son capaces de incorporar información acerca de las características de las
imágenes tales como la textura y el contexto, gran parte de la clasificación de imágenes sólo se basa en la detección
de firmas espectrales (es decir, patrones de respuesta espectral) de las clases de cubierta terrestre. El éxito que esto
puede adquirir depende de dos factores: 1) la presencia de firmas distintivas para las clases de cubierta terrestre de
interés en el grupo de bandas en uso; 2) la habilidad para distinguir con precisión estas firmas de otros patrones de
respuesta espectral que pueden presentarse.
Existen dos enfoques generales en la clasificación de imágenes: supervisado y no supervisado. Se diferencian en la
manera de realizar la clasificación. En el caso de la clasificación supervisada, el sistema software delinea tipos de
cubierta terrestre específicos sobre datos estadísticos de caracterización extraídos de ejemplos conocidos en la
imagen (conocidos como sitios de entrenamiento). Con la clasificación no supervisada, en cambio, se utiliza un
software de agrupamientos (clustering) para descubrir los tipos de cubierta terrestre más comunes. Luego, en un
paso posterior, el analista provee interpretaciones de esos tipos de cubierta.

Clasificación Supervisada

17
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

El primer paso en la clasificación supervisada es identificar ejemplos de las clases de información de interés (es
decir, tipos de cubierta terrestre) en la imagen. Éstos se llaman sitios de entrenamiento (training sites). El sistema
software se usa por lo tanto para desarrollar una caracterización estadística de los reflejos para cada clase de
información. Este paso a menudo es llamado análisis de firmas (signature análisis) y puede incluir el desarrollo de
una caracterización tan simple como el medio o el rango de los reflejos sobre cada banda, o tan compleja como el
análisis detallado del medio, desviaciones y co -desviaciones sobre todas las bandas.
Una vez lograda la caracterización estadística de cada clase de información, la imagen es clasificada a partir del
examen de los valores por cada pixel y de la toma de decisión acerca de a cuál de las firmas ésta se asemeja más.
Hay varias técnicas llamadas clasificadores, para tomar estas decisiones. La mayoría de los software de
Procesamiento de Imágenes ofrece muchas de estas técnicas, basadas en reglas de decisión variable. IDRISI ofrece
una amplia gama de opciones que se dividen en tres grupos, dependiendo de la naturaleza de la producción
deseada y de la naturaleza de las bandas de entrada.

Clasificadores Rígidos

La característica distintiva de los clasificadores rígidos es que todos toman una decisión definitiva acerca de la clase
de cubierta terrestre a la que todo pixel pertenece. IDRISI ofrece cinco clasificadores en este grupo: Paralelepípedos
(PIPED), Distancia Mínima a la Media (MINDIST), y Máxima Verosimilitud (MAXLIKE), Análisis Discriminante Lineal
(FISHER), y Red Neural Artificial (NEURALNET). Sólo se diferencian en la manera en que desarrollan y utilizan la
caracterización estadística de los datos del sitio de entrenamiento. De los cinco, el procedimiento de Máxima
Verosimilitud es el clasificador, sin dudas, más usado en la clasificación de imágenes captadas por sensores
remotos.

Clasificadores Blandos

Al contrario de los clasificadores rígidos, los clasificadores blandos no toman una decisión definitiva acerca de la
clase de cubierta terrestre a la cual pertenece cada pixel. Éstos desarrollan declaraciones del grado al que pertenece
cada píxel en cada una de las clases de cubierta terrestre en consideración. Entonces, por ejemplo, un clasificador
blando puede indicar que un pixel tiene una probabilidad de 0,72 de representar bosque, una probabilidad de 0,24 de
ser pastura y una probabilidad de 0,04 ser suelo desnudo. Un clasificados rígido resuelve esta incertidumbre
concluyendo que el píxel representa bosque. Sin embargo, un clasificador blando pone esta incertidumbre
explícitamente disponible, para cualquier tipo de propósitos. Por ejemplo, el analista puede concluir que la
incertidumbre nace porque el pixel contiene más de un tipo de cubierta terrestre y puede usar las probabilidades
como indicadores de la proporción relativa de cada uno. Esto se conoce como clasificación sub-pixel.
Alternativamente, el analista puede concluir que la incertidumbre nace debido a datos de sitios de entrenamiento no
representativos y por lo tanto debe combinar estas probabilidades con otra evidencia antes de endurecer la decisión
hacia una conclusión final. IDRISI ofrece cuatro clasificadores blandos (BAYCLASS,
MAHALCLASS, BELCLASS y FUZCLASS). Los resultados de los cuatro pueden ser endurecidos usando el módulo
HARDEN (Endurecer). La diferencia entre ellos está relacionada con la lógica por la cual se especifica la
incertidumbre -
Bayesiana, Dempster-Shafer y Fuzzy Sets. Además, el sistema ofrece una variedad de herramientas adicionales
específicamente diseñadas para el análisis de mezclas sub-pixel (Ej., UNMIX, FUZSIG, MIXCALC y MAXSET).

Clasificadores Hiperespectrales

Todos los clasificadores mencionados anteriormente operan sobre imágenes multiespectrales – imágenes en donde
varias bandas espectrales han sido captadas simultáneamente como componentes de imágenes
independientemente accesibles.
Al extender esta lógica a muchas bandas, se produce lo que se ha conocido como imagen hiperespectral.
Aunque esencialmente no haya ninguna diferencia entre las imágenes hiperespectrales y multiespectrales (es decir,
sólo difieren en grado), el volumen de datos y la alta resolución espectral de las imágenes hiperespectrales sí
provoca diferencias en la forma en que son manejadas. IDRISI brinda utilidades especiales para crear firmas
hiperespectrales de sitios de entrenamiento o bien de bibliotecas de patrones de respuesta espectral desarrollados
bajo condiciones de laboratorio (HYPERSIG) y una rutina automática de extracción de firmas hiperespectrales
(HYPERAUTOSIG). Estas firmas pueden ser aplicadas entonces en cualquiera de los varios clasificadores
hiperespectrales: Ángulo Espectral Cartográfico (HYPERSAM), Distancia Mínima Hiperespectral (HYPERMIN),
Eliminación de la Mezcla de las Líneas Espectrales (HYPERUNMIX), Proyección Ortogonal Subespacial
(HYPEROSP), Análisis del Área de Absorción (HYPERABSORB). También se encuentra disponible un clasificador
no supervisado (vea la próxima sección) para las imágenes hiperespectrales (HYPERUSP).

18
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Clasificación No Supervisada

En contraste con la clasificación supervisada, en la que le indicamos al sistema el carácter (es decir, la firma) de las
clases de información que estamos buscando, la clasificación no supervisada no requiere un avance de información
acerca de las clases de interés. Ésta examina, en cambio, los datos y los divide en los grupos espectrales naturales
más prevalecientes, o grupos, presentes en los datos. El analista identifica, entonces, estos grupos como clases de
cubierta terrestre a través de una combinación de familiaridad con las visitas verdaderas a la región y el suelo.
La lógica con la que trabaja la clasificación no supervisada se conoce como análisis cluster o de grupos, y en IDRISI
es principalmente aplicado en el módulo CLUSTER. Este módulo realiza la clasificación basándose en un grupo de
imágenes de entrada usando una técnica máxima de histograma multi-dimensional. Es importante reconocer, sin
embargo, que los procedimientos de agrupamiento de clasificación no supervisada no son clases de información,
sino clases espectrales (es decir, agrupan características, pixeles, con patrones de reflexión similares). Es por lo
general el caso en el que el analista necesita reclasificar las clases espectrales en clases de información. Por
ejemplo, el sistema puede identificar clases para asfalto y cemento que el analista luego puede agrupar y crear una
clase de información llamada pavimento.
Aunque resulte atractivo conceptualmente, la clasificación no supervisada ha sido tradicionalmente entorpecida por
algoritmos muy lentos. Sin embargo, el procedimiento de agrupamiento brindado por IDRISI es extraordinariamente
rápido (sin dudas el más rápido del mercado) y puede por lo tanto usarse iterativamente en conjunción con datos
verdaderos del suelo para arribar a una clasificación muy precisa. Con los procedimientos correctos de la verdad de
campo y de evaluación de la exactitud, esta herramienta puede proveer un medio marcadamente rápido para
producir datos de calidad sobre la cubierta terrestre en una base continua.
Además de las técnicas mencionadas anteriormente, hay dos módulos que unen ambas clasificaciones: supervisada
y no supervisada. El ISOCLUST usa un procedimiento llamado Análisis de Cluster de Autoorganización para
clasificar hasta 7 bandas puras en las que el usuario especifica el número de grupos a procesar. El procedimiento
emplea el módulo CLUSTER para iniciar una cantidad de grupos que generan una aplicación iterativa del
procedimiento MAXLIKE, en el cual cada paso usa los resultados del paso anterior como los sitios de entrenamiento
para este procedimiento supervisado.
El resultado es una clasificación no supervisada que converge en una etapa final de elementos estables usando un
enfoque supervisado (por eso el concepto de “autoorganización”). El MAXSET es también, en su esencia, un
procedimiento supervisado. No obstante, mientras el procedimiento comienza con sitios de entrenamiento que
caracterizan clases individuales, éste resulta en una clasificación que no sólo incluye estas clases específicas sino
también (aunque se desconozcan) mezclas que pueden llegar a existir. Entonces, el resultado final tiene en gran
medida el perfil de aquel de un enfoque no supervisado.

Evaluación de la Exactitud

Un paso vital en el proceso de clasificación, tanto supervisada como no supervisada, es la evaluación de la precisión
de las imágenes finales. Esto implica identificar un grupo de lugares (con el módulo SAMPLE) que son visitados en el
campo.
La cubierta terrestre encontrada en el campo es luego comparada con aquella que fue confeccionada en la imagen
del mapa del mismo lugar. Las evaluaciones de precisión estadísticas pueden ser derivadas para toda el área de
estudio, así como también para clases individuales (usando el ERRMAT).
En un enfoque iterativo, la matriz de errores producida (a veces llamada matriz de confusión), puede ser usada para
identificar tipos de cubierta particulares para los cuales los errores son más de los deseados. La información en la
matriz acerca de qué cubiertas están siendo incluidas por error en una clase en particular (errores de comisión) y
aquellas que están siendo excluidas por error (errores de omisión) de esa clase pueden usarse para afinar el
enfoque de clasificación.

Transformación de Imágenes

El Procesamiento Digital de Imágenes ofrece un rango sin límites de posibles transformaciones de los datos de
sensores remotos. Aquí se mencionan dos, específicamente, debido a su significado especial en aplicaciones de
monitoreo ambiental.
Hay una variedad de índices de vegetación que han sido desarrollados para ayudar al monitoreo de la vegetación. La
mayoría están basados en las interacciones diferentes entre la vegetación y la energía electromagnética en las
longitudes de ondas del rojo e infrarrojo cercano. Observe la Figura 3-4, que incluye un patrón de respuesta
espectral generalizado para la vegetación de hoja ancha y verde. Como se puede ver, la reflexión en la región roja
(0,6-0,7 µ aprox.) es baja debido a la absorción hecha por los pigmentos de las hojas (principalmente la clorofila). La

19
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

región infrarroja (0,8-0,9 µ aprox.) en cambio, muestra una reflexión alta debido a la difusión por parte de la
estructura de las células de las hojas. Un índice de vegetación muy simple puede entonces lograrse comparando la
medida de la reflexión en el infrarrojo con la de la reflexión en el rojo.
Aunque se ha desarrollado un número de variantes de esta lógica básica, la que ha recibido más atención es el
índice de vegetación de la diferencia normalizada (NDVI). Éste se calcula de la siguiente manera:
NDVI = (NIR - R) / (NIR + R) donde NIR = Infrarrojo cercano R = Rojo
Índice de Vegetación de la Diferencia Normalizada

Figura 3-8

La Figura 3-8 muestra el NDVI calculado con las bandas 3 y 4 TM para la misma área que se muestra en las Figuras
3-5,3-6 y 3-7.
Este tipo de cálculo es bastante simple para un SIG raster o un sistema software de Procesamiento de Imágenes, y
el resultado se ha mostrado de manera tal que se relacione bien con las medidas de la biomasa. Aunque el NDVI
necesite una calibración específica para ser usado como una medida real de la biomasa, muchas agencias han
descubierto que el índice es útil como una medida relativa para fines de monitoreo. Por ejemplo, los programas
Sistema Africano de Información en Tiempo Real (ARTEMIS) de la Organización de Alimentación y Agricultura (FAO)
de las Naciones Unidas, y el Sistema de Alerta Temprana sobre el Hambre (FEWS) del USAID, usan imágenes NDVI
de escala continental derivadas del sistema NOAA-AVHRR para elaborar imágenes con el índice de vegetación para
todo el continente africano cada diez días.
Mientras la medida del NDVI ha demostrado ser útil en una variedad de contextos, un gran número de índices
alternativos han sido propuestos para tratar con medioambientes especiales, como tierras áridas. IDRISI ofrece una
amplia variedad de estos índices (más de 20 en los módulos VEGINDEX y TASSCAP combinados). El capítulo sobre
los Índices de Vegetación ofrece una discusión detallada de sus características y aplicación potencial.

Análisis de los Componentes Principales

El Análisis de los Componentes Principales (PCA) es una técnica de transformación lineal relacionada con el Análisis
de Factores. Dado un juego de bandas de imágenes, el PCA produce un nuevo juego de imágenes, conocidas como
componentes, no relacionadas entre sí y ordenadas en términos de la cantidad de discordancias que presentan con
el juego de bandas originales.
El PCA ha sido tradicionalmente usado en la percepción remota como medio de compactación de datos. Para un
juego típico de bandas de imágenes multiespectrales, es común encontrar que los dos o tres primeros componentes
son capaces de constituir virtualmente toda la variabilidad original en los valores de reflexión. Los demás
componentes tienden a estar dominados por los efectos del ruido. Al rechazar estos últimos componentes, el
volumen de datos se reduce sin una pérdida de información perceptible.
Dado que los demás componentes están dominados por el ruido, de igual forma es posible usar el PCA como una
técnica para eliminar el ruido. La producción del módulo PCA en IDRISI incluye los coeficientes de ambas
transformaciones, en avance y en reversa. Al ajustar los coeficientes de los componentes del ruido en cero en la
transformación reversa, se puede producir una nueva versión de las bandas originales con los elementos de este
ruido ya removidos.
Recientemente, el PCS también ha demostrado tener una aplicación especial en el monitoreo ambiental. En los
casos en que las imágenes multiespectrales están disponibles para dos fechas, las bandas de ambas imágenes son
enviadas a un PCA como si todas viniesen de la misma imagen. En estos casos, los cambios entre las dos fechas
tienden a aparecer en el resto de los componentes. Aún más, si una serie de tiempo de imágenes NDVI (o un índice
de única banda similar) es enviada al análisis, puede lograrse un análisis muy detallado de los cambios y las
tendencias ambientales. En este caso, el primer componente mostrará el típico NDVI sobre la serie entera, mientras
que cada componente subsiguiente ilustrará los cambios en una secuencia ordenada por grado de importancia. Al
examinar estas imágenes, junto con los gráficos de su correlación con las bandas individuales en la serie original,

20
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

pueden lograrse observaciones importantes sobre la naturaleza de los cambios y tendencias en la serie de tiempo. El
módulo TSA (Análisis de la Serie de Tiempo) de IDRISI es una versión del PCA especialmente confeccionada para
facilitar este proceso.

Un grupo de datos de archivo de imágenes NDVI mensuales para África se encuentra disponible en CD en Clark Labs. El cd de
datos NDVI de África contiene: imágenes NDVI mensuales compuestas con los valores máximos (1982-1999), desviaciones
promedio y estándar de imágenes NDVI mensuales por cada mes de un mismo período de tiempo, imágenes NDVI mensuales
con anomalías, y datos auxiliares (DEM, uso de la tierra y cubierta terrestre, límites del territorio nacional y costas) para África
en formato IDRISI. Para más información, comuníquese con Clark Labs.

21
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

TRANSFERENCIA DE POSICIÓN ENTRE LOS NIVELES DIGITALES


GEOREFERENCIACION
La imagen digital es una matriz de celdillas en una dimensión finita. Las posiciones de los píxeles son de tipo
discreto, debe recordarse el sistema de coordenadas fila, columna. Luego de la aplicación de las funciones de ajuste
(coordenadas de imagen a coordenadas en un sistema de referencia), las nuevas posiciones de los píxeles estarán
representadas por números reales, que en la mayoría de los casos no coincidirá con la situación de las celdillas,
expresadas para la imagen original, como números enteros (filas, columna).

Posiciones definitivas de los píxeles luego de la transformación geométrica de la imagen.


Tomado de Pinilla, 1995. Pág. 142.

Para poder proseguir con el tratamiento de la imagen es necesario asignar a las nuevas posiciones de las celdas un
único valor proveniente de los píxeles originales.

Existen varios métodos para la transferencia de los Nd a la nueva posición en la imagen corregida, operaciones
conocidas con el nombre de remuestreo (módulo RESAMPLE en IDRISI), mediante las cuales se trasladan los Nd de
las posiciones en la imagen transformada a las localizaciones definitivas en la imagen corregida. La denominación de
imagen transformada corresponde a la resultante de la transformación geométrica una vez aplicadas las funciones
de ajuste; se reserva el calificativo de imagen corregida a la que resulta de la aplicación del remuestreo sobre la
imagen transformada.

MÉTODO DEL VECINO MÁS CERCANO

El método del vecino más cercano (nearest neighbourg) consiste en un algoritmo que asigna a cada celdilla de la
imagen corregida el Nd correspondiente al píxel de la imagen transformada cuyo centro esté más próximo al de la
corregida; las expresiones algebraicas correspondientes son:

ƒ(x,y) ∆x < 0,5 ∆y < 0,5

ƒ(x+1,y) ∆x ≥ 0,5 ∆y < 0,5


ƒ(m,n) =
ƒ(x,y+1) ∆x < 0,5 ∆ ≥ 0,5

ƒ(x+1,y+1) ∆x ≥ 0,5 ∆y ≥ 0,5

22
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

donde ƒ(m,n) es el Nd asignado a la celdilla (m,n) de la imagen corregida, ƒ(x,y) es el valor correspondiente al píxel
de la imagen transformada, situado en una posición delimitada por un número real, siendo:

m = x + ∆x 0 ≤ ∆x ≤ 1

n = y + ∆y 0 ≤ ∆y ≤ 1

donde ∆x e ∆y son las diferencias respectivas en la dirección de las columnas y de las filas entre el centro de la
celdilla corregida y el de la transformada, expresada en fracciones de píxel.

Este procedimiento no supone la alteración de los Nd de la imagen original, sino solamente la traslación a otra
localización. Presente el inconveniente de introducir fracturas y quiebres en el trazado de los rasgos lineales de la
imagen original, distorsión conocida como efecto escalera. A pesar de ello, es el único método utilizable en la
georreferenciación de imágenes con datos cualitativos o temáticos e inclusive en aquellas imágenes que serán luego
utilizadas para calcular parámetros físicos como la biomasa a partir de los valores de Nd.

Remuestreo por el método de vecino más cercano. Tomado de Pinilla, 1995. Pág. 144.

MÉTODO DE INTERPOLACIÓN BILINEAL

El algoritmo de interpolación bilineal (bilinear interpolation) asigna al píxel corregido la media ponderada de los Nd
correspondientes a las cuatro celdas más cercanas de la imagen transformada; el peso asociado a cada Nd es
proporcional a la cercanía de aquellas (1 - ∆x y 1 - ∆y), considerando la distancia medida entre los centros de las
celdas.

ƒ(m,n) = c1 ƒ(x,y) + c2 ƒ(x+1,y) + c3 ƒ(x,y+1) + c4 ƒ(x+1,y+1)

donde ƒ(m,n) y ƒ(x,y) tienen el significado ya expresado y ci son los factores de ponderación asignados a los cuatro
Nd de entrada definidos de la siguiente manera:

23
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

c1 = (1 - ∆x) (1 - ∆y)

c2 = ∆x (1 - ∆y)

c3 = (1 - ∆x) ∆y

c4 = ∆x ∆y

Resmuestreo por interpolación bilineal. Tomado de Pinilla, 1995. Pág. 145.

Este método produce resultados suavizados, pues las cuatro posiciones más cercanas a la celdilla corregida son
utilizadas para calcular un valor promedio que homogeniza las escalas de gis: El método de interpolación bilineal se
utiliza para georreferenciar imágenes con datos cuantitativos, permitiendo salidas de mayor calidad visual.

MÉTODO DE CONVOLUCIÓN CÚBICA

El método de convolución cúbica (cubic convolution) es un algoritmo muy utilizado que emplea polinomios bivariados
de tercer orden. En esencia es similar al anterior, con la diferencia que para calcular la media ponderada utiliza las
dieciséis celdillas más próximas al píxel considerado. Los Nd de las dieciséis celdas de la imagen transformada se
interpolan linealmente en cuatro grupos de cuatro líneas de cuatro píxeles, cada una de aquellas para formar cuatro
interpolantes. Con posterioridad se realiza una nueva interpolación entre los cuatro valores anteriores obtenidos para
asignar finalmente el Nd a la celda corregida. La expresión que calcula la interpolación unidimensional en función de
los cuatro valores más próximos de una línea es:

ƒ(m,n) = ∆x{∆x(∆x[ƒ(x+2) - ƒ(x+1) + ƒ(x) - ƒ(x-1)] -


- [ƒ(x+2) - ƒ(x+1) + 2ƒ(x) – 2ƒ(x-1)]) +
+ [ƒ(x+1) - ƒ(x-1)]} +
+ ƒ(x)

24
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Remuestreo mediante convolución cúbica. Tomado de Pinilla, 1995. Pág. 146.

que puesta en función de las luminancias de cada celdilla queda:

ƒ(m) = [(∆x)3 – (∆x)2] ƒ(x+2) -


- [(∆x)3 – (∆x)2 - (∆x)] ƒ(x+1) +
+ [(∆x)3 – 2(∆x)2 + 1] - ƒ(x) -
- [(∆x)3 – 2(∆x)2 + (∆x)] ƒ(x-1)

donde ƒ(m) es el interpolante asignado a la celdilla central (m) de cada una de las cuatro líneas de la imagen
corregida y ƒ(x) es el valor correspondiente al píxel de la imagen transformada, situado en una posición delimitada
por un número real. El polinomio de interpolación entre los cuatro valores ƒ(m) obtenidos será de la forma:

ƒ(m,n) = [(∆y)3 – (∆y)2] ƒ(m+2) -


- [(∆y)3 – (∆y)2 - (∆y)] ƒ(m+1) +
+ [(∆y)3 – 2(∆y)2 + 1] - ƒ(m) -
- [(∆y)3 – 2(∆y)2 + (∆y)] ƒ(m-1)

Este método asegura que la interpolación pase por los valores conocidos en los centros de las celdillas y que sus
dos primeras derivadas sean suaves. Ello produce gran conservación en el aspecto visual de la imagen resultante,
pues el suavizado que introduce es menos severo que en la interpolación bilineal. Sin embargo presenta el
inconveniente de una mayor exigencia de cálculo al sistema de tratamiento, lo que insume mayor tiempo.

CORRECCIÓN MEDIANTE MODELIZACIÓN MATEMÁTICA

Este método de corrección permite restablecer las condiciones reales de la escena a partir del conocimiento de los
parámetros orbitales del satélite en el instante de la adquisición; dichos parámetros son almacenados en el fichero
de cabecera (header) de la imagen. La corrección automática de las imágenes satelitales está basada en estos
procedimientos, los mismos se conocen también como correcciones de sistema.

25
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Transformaciones geométricas simples. Tomado de Pinilla, 1995. Pág. 148.

Este tipo de tratamientos consiste en realizar una serie de transformaciones geométricas simples sobre una imagen,
o bien, una combinación de ellas. Se presentan algunas de las más elementales:

Traslación
u=x+a
v=y+b

Inclinación
u = x + ay
v=y

Cambio de escala
u = ax
v = by

Perspectiva
u = axy
v=y

Rotación
u = cos θ x + sen θ y
v = - sen θ x + cos θ y
para una rotación levógira de ángulo θ.

En cualquiera de los casos anteriores, todos los puntos de la imagen se habrán trasladado a la posición corregida
mediante la aplicación del operador de corrección sin la introducción de error alguno en el proceso.

26
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

PROGRAMAS SATELITALES

Hoy en día, en percepción remota se han desarrollado y usado con marcado éxito muchos sensores con alta
resolución espacial y temporal para la integración de evaluaciones de peligros naturales y en los estudios
de planificación para el desarrollo; entre los más comunes están los siguientes:
• Landsat 7 Enhanced Thematic Mapper (ETM), con 10 ó 15 m de resolución en el pancromático y tres bandas
espectrales de 30 m de resolución (figura 1).

DESCRIPCIÓN DE LOS PRODUCTOS DIGITALES

Satélite LANDSAT 5 TM

Correcciones

1. Nivel 4: Correcciones sistemáticas. Bandas 1 a 7.

2. Nivel 5: Correcciones sistemáticas. Georreferenciada utilizando las efemérides del satélite. El remuestreo se
realiza por primeros vecinos (convolución cúbica en forma opcional). Bandas 1 a 7.

3.Nivel 5+: Correcciones sistemáticas. Georreferenciada a partir de producto nivel 5 utilizando cartografía,
mediante un único punto de control. En formato IMG (Erdas). Bandas 1 a 7.

4.Nivel 6: Correcciones sistemáticas. Georreferenciada utilizando 6 o más puntos de control cartográficos o


medidos en el terreno. El remuestreo se realiza por primeros vecinos (convolución cúbica en forma opcional).
Rectificada a una proyección cartográfica. Bandas 1 a 7.

5.Nivel 6i: Correcciones sistemáticas. Georreferenciada utilizando 6 o más puntos de control, cartográficos o
medidos en el terreno, a partir del producto de nivel 4. El remuestreo se realiza por primeros vecinos (convolución
cúbica en forma opcional). Rectificada a una proyección cartográfica. En formato IMG (Erdas). Bandas 1 a 7.

Systeme Probatoire d'Observation de la Terre) de SPOT 5, con 5 m de resolución en pancromático y 2.5 m en


supermodo. Los telescopios del instrumento HRV (Haute Resolution Visible) trabajan con resolución de 5 m en
pancromático y con 10 m para imágenes multiespectrales; el funcionamiento en supermodo es posible usando un
nuevo concepto de barrido que consiste en duplicar y dislocar de medio píxel los detectores CCD que ya existen en
modo pancromático de 5 m de resolución. Esta tecnología permite que sean captadas dos veces más el área barrida,
y por el procesamiento digital de la imagen se alcanza la resolución mencionada (figura 2).

27
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

• Sistemas de radares de satélite: Advanced Very High Resolution Radiometer (AVHRR) en los satélites NOAA.
• EOS (MODIS), Indian Remote Sensing (IRS), Linear Imagining Self Scaning Sensor LISS III, con 23 m de
resolución y en pancromático con 5.8 metros. • Wide Field Sensor (WiFS near IR y Red con 188 m de resolución). •
IKONOS 1, primer satélite comercial con 1 metro de resolución espacial (figura 3).

Quick Bird 2, con 60 cm de resolución en pancromático (blanco y negro) y con 2.44 m en multiespectral en las
bandas azul, verde, rojo e infrarrojo cercano (figura 4).

28
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

SENSORES REMOTOS

TÉRMINOS Y UNIDADES DE MEDIDA

Para poder realizar la observación de la superficie terrestre con una perspectiva diferente
a la más común, desde el terreno, es preciso que los sensores remotos detecten un flujo
de energía proveniente de reflexiones de las distintas cubiertas del suelo. Dicho flujo
tiene una intensidad determinada proveniente de, o dirigida a, una unidad de superficie y
con una dirección concreta. Para entender y poder mensurar la energía, se definieron
unidades de medida, las que son comúnmente empleadas en teledetección; esto permitió
abordar los procesos de adquisición de datos.

El concepto de ángulo sólido


El ángulo sólido es el ángulo espacial que abarca un objeto visto desde un punto dado,
que se corresponde con la zona del espacio limitada por una superficie cónica. Mide el
tamaño aparente de ese objeto. Para calcular el ángulo sólido de un superficie, se
proyecta el objeto sobre una esfera de radio conocido.

Expresión diferencial e integral.

Figura 1. Ángulo sólido. Tomado de Wikipedia:


http://es.wikipedia.org/wiki/%C3%81ngulo_s%C3%B3lido.
La unidad del ángulo sólido en el Sistema Internacional de Unidades (SI) es el
estereorradián sr. Es el área del casquete esférico, en una esfera de radio unidad,
abarcado por un cono cuyo vértice está en el centro de la esfera. Es una magnitud
adimensional que se representa con la letra griega Ω. El área delimitada en la superficie
de la esfera es igual a la de un cuadrado cuyos lados son de la misma longitud que el
radio.
El estereorradián se mide en ángulo sólido y es el sustendido por un sector esférico de 1
m2 de superficie, perteneciente a una esfera de 1 m de radio. En general, se calcula
como el cociente entre la superficie esférica sustendida y el cuadrado del radio de la
esfera; la esfera completa ocupa un ángulo sólido de 4  sr.
Para calcular el ángulo sólido bajo el cual se ve un objeto desde un punto, se proyecta el
objeto sobre una esfera de radio R conocido, centrada en el punto de vista. Si la

1
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

superficie de la proyección del objeto sobre la esfera es S, el ángulo sólido bajo el cual se
ve el objeto es, por definición:

Normal a la
superficie
Flujo

Ángulo sólido

Superficie proyectada
Superficie radiante

Figura 2. Interpretación espacial de la radiancia.

Las definiciones de las magnitudes se presentan en la Tabla 1.

2
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Tabla 1. Definiciones de las magnitudes utilizadas en teledetección.


Concepto Símbolo Ecuación Unidad de medida Explicación
Total de energía transportada por la onda electromagnética procedente del
Energía radiante Q Julios (J) emisor, mide la capacidad de la onda para realizar un trabajo (calorífico,
fotoeléctrico, etc.)
Densidad de energía 3
radiante
W dQ/dV J/m Cantidad de energía radiante por unidad de volumen.
Flujo radiante  dQ/dt Watios (w) Energía radiada desde un objeto o superficie por unidad de tiempo.
Flujo radiante interceptado por unidad de superficie plana; concepto genérico
que engloba a dos parámetros físicos de importancia en teledetección:
Densidad de flujo 2
radiante
E, M d/dA w/m Irradiancia radiante (E), densidad de flujo radiante cuando éste penetra en la
superficie; y, Exitancia o emitancia radiante (M), densidad del flujo cuando
éste es saliente de la superficie.
Flujo radiante emitido desde una fuente puntual por unidad de ángulo sólido
Intensidad radiante I d/d w / sr
(Figura 1).
Determinada dirección por unidad de área proyectada perpendicularmente a
esa dirección (Figura 2). Siendo  el ángulo formado por la normal a la
2
Radiancia L (dI/dA) cos  w / sr / m superficie radiante y la dirección considerada; cuando la radiancia es
independiente de la dirección de emisión, la superficie se denomina
lambertiana (Figura 3).
2
Radiancia espectral L dL/d w / sr / m m El flujo espectral de una radiación sobre una banda (intervalo) del espectro.
Relación entre la emitancia de una superficie (M) y la que ofrecería un emisor
Emisividad  M/Mn perfecto, cuerpo negro, a la misma temperatura (Mn).
Reflectividad  r/i Relación entre el flujo incidente y el reflejado por una superficie.
Absortividad  a/i Relación Entre el flujo incidente y el que absorbe una superficie.
Transmisividad  t/i Relación Entre el flujo incidente y el transmitido por una superficie.
Referencias:
-3
Watios (W) – Vatios: magnitud de potencia que equivale a 1 julio por segundo (1 J/s). mW: milivatio (10 W).
sr - estereorradián
-6
m – micrómetro o micra (10 metros)
Mn – Emitancia de un cuerpo negro
i - flujo incidente
r - flujo reflejado
a - flujo absorbido
t - flujo transmitido
 - ángulo formado por la superficie y la dirección normal

3
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

 

Especular Lambertiana

Figura 3. Tipos de superficies reflectoras.

El concepto de radancia, así como los de emitancia e irradiancia, pueden ser


completados con el calificativo de espectral, entendiéndose entonces que se trata de
la misma magnitud pero referida a una determinada longitud de onda. El flujo
espectral de una radiación sobre una banda (intervalo) del espectro entre 1 y 2 se
obtiene mediante la integración del flujo espectral extendido al mencionado intervalo
de longitud de onda:

 1,  2   ( ) d
2

1

INTERACCIÓN MACROSCÓPICA

Cuando un flujo de energía i incide sobre un objeto, parte de él es reflejado por la


superficie de aquel, originando un flujo reflejado r; otra parte es absorbida por el
propio objeto, constituyendo un cierto flujo a. Finalmente, una fracción t del flujo
incidente será transmitida, normalmente en otras formas de energía. Por el principio
de conservación de la energía debe verificarse que:

 r + a +  t = i
o lo que es lo mismo:
r a t
  1
i i i
es decir:
++=1
siendo:
r a t
 ;  ; 
i i i

4
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Los términos , ,  reciben, respectivamente, los nombres de reflectancia (conocida


también como albedo), absorbancia y transmitancia; algunos autores resaltan el
carácter relativo de los parámetros denominándolos reflectividad, absortividad y
transmisividad.
Se conocen cuatro tipos generales de reflexión: especular, seudoespecular, difusa
y perfectamente difusa. (Figura 4).
Cuando la superficie de incidencia es lo suficientemente lisa en relación con la
longitud de onda la reflexión se denomina especular, en tal caso, la proporción de la
reflexión depende del índice complejo de refracción del material y del ángulo  de
incidencia del rayo. Por lo general, la reflexión no es especular, sucediendo, por el
contrario un grado de difusión más o menos acentuado y dependiendo del grado de
rugosidad de la superficie de incidencia. Un reflector es perfectamente difuso cuando
refleja igual cantidad de energía en todas las direcciones, incluida la opuesta a la
incidente. La medida de la reflectancia puede hacerse desde toda la semiesfera
superior a una determinada superficie – reflectancia hemisférica -, o solamente
desde una dirección determinada – reflectancia direccional -. Este último caso
corresponde a las mediciones efectuadas desde los satélites.

   

Especular Seudoespecular

   

Difusa Perfectamente difusa


Figura 4. Tipos de reflexión.

5
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

FORMATOS DE ALMACENAMIENTO E INTERCAMBIO

Como todo dato informático, los Nd de una imagen son almacenados en código
binario, normalmente en grupos de 8 bits; de tal manera que cada píxel es
representado por un byte que puede tomar un rango de valores (escala de grises)
entre 0 (cero) y 255, esto es 28 = 256. Esta es la resolución radiométrica utilizada
por mayoría de los sistemas satelitales dedicados al estudio de los recursos
naturales (LANDSAT y SPOT, entre otros).
En el caso de NOAA-AVHRR, la información está codificada en grupos de 10 bits,
alcanzando un rango de 210 = 1024 valores de Nd. Esto conlleva la necesidad de
compresión del rango dinámico de los datos para poder mostrarlos en pantalla.
Los datos almacenados, en cintas compatibles con computadoras o en CD´s, son
organizan en archivos, los que incluyen un encabezado o header, que en algunos
casos forma parte del archivo de imagen y en otras es un archivo independiente. El
encabezado guarda información del tamaño de cada una de las bandas
radiométricas, tipo del producto, identificación y localización de las escenas, tamaño
del píxel en el terreno (IFOV), fecha y condiciones de adquisición, entre ellas acimut
y elevación del sol, longitud de los registros, correcciones realizadas por la estación
receptora, etc.
A continuación se presenta como ejemplo, un header de la imagen LANDSAT 5 TM
230 076 de fecha 25/01/2004:
PRODUCT =04064510-01 WRS =230/07600 ACQUISITION DATE =20040125 SATELLITE
=L5
INSTRUMENT = TM10 PRODUCT TYPE = MAP ORIENTED PRODUCT SIZE =
SUBSCENE
TYPE OF GEODETIC PROCESSING = SYSTEMATIC RESAMPLING = NN RAD
GAINS/BIASES = 1.26880/-0.0100 2.98126/-0.0232 1.76186/-0.0078
2.81771/-0.0193 0.65277/-0.0080 3.20107/0.25994 0.44375/-0.0040
VOLUME #/# IN SET =1/1 START LINE #= 1 LINES PER VOL = 58072
ORIENTATION = 0.00 PROJECTION = TM USGS PROJECTION # = 9
USGS MAP ZONE = 0
USGS PROJECTION PARAMETERS = 6378137.000000000000000
6356752.314245179300000 1.000000000000000 0.000000000000000
-62.999999999631733 -89.999999999719449 4500000.000000000000000
0.000000000000000 0.000000000000000 0.000000000000000
0.000000000000000 0.000000000000000 0.000000000000000
0.000000000000000 0.000000000000000 EARTH ELLIPSOID =WGS84
SEMI-MAJOR AXIS =6378137.000 SEMI-MINOR AXIS =6356752.314
PIXEL SIZE = 25.00
PIXELS PER LINE= 9276 LINES PER IMAGE= 8296
UL 0643358.7792W 215424.3873S 4338137.500 7577662.500

6
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS
UR 0621920.7026W 215446.2061S 4570012.500 7577662.500
LR 0621847.0682W 234707.0722S 4570012.500 7370287.500
LL 0643516.4977W 234643.1734S 4338137.500 7370287.500
BANDS PRESENT =1234567 BLOCKING FACTOR = 1 RECORD LENGTH = 9276
SUN ELEVATION = 54 SUN AZIMUTH = 92 CENTER 0632834.3145W 225129.9515S
4451127.725 7473039.342 4521 4186 OFFSET= 162 REVB

Para poder almacenar los datos tridimensionales correspondientes a una imagen


satelital, se utilizan tres formatos:
Bandas secuenciales (BSQ): los Nd de cada banda se disponen físicamente uno a
continuación del otro y en un solo registro hasta completar la banda. Las bandas
pueden a su vez ser parte de un mismo registro o estar almacenadas en archivos
independientes. Para el primer caso, las bandas están separadas por un fichero de
cola y otro de cabecera que informa la longitud de honda registrada en los Nd. Este
formato presenta la dificultad de acceso secuencial para extraer una sub-escena; sin
embargo es muy adecuado cuando se requiere trabajar solo con algunas de las
bandas de la escena (imagen multiespectral). Este formato es propio de las
imágenes LANDSAT, y se llama FAST para el caso de las bandas en archivos
independientes.
Bandas intercaladas por líneas (BIL): Los Nd son organizados por líneas, de
manera que la primera fila de datos de la banda 1 es seguida por la primera fila de la
banda 2, y así sucesivamente hasta completar la escena. Este formato agiliza la
captura de una sub-escena y es el utilizado para distribuir las imágenes SPOT –
HRV.
Bandas intercaladas por píxel (BIP): Similar al criterio usado en el formato anterior,
solo que en este caso los que se alternan son los Nd de un mismo píxel para todas
las bandas y luego para el segundo píxel de todas las bandas nuevamente y así
sucesivamente hasta completar la escena. Este es un formato adecuado para las
operaciones píxel a píxel, ya que se requiere un mínimo reformateo de los datos.

7
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

CORRECCIONES DE LA IMAGEN

FUENTES DE ERROR EN UNA IMAGEN SATELITAL

Las alteraciones sufridas por una imagen adquirida por un sensor de barrido óptico
electrónico montado en un satélite son fundamentalmente de carácter geométrico y
radiométrico. Los factores principales que originan estas anomalías se pueden
agrupar de la siguiente manera:
Distorsiones provocadas por la oscilación de la plataforma
La ausencia de atmósfera le permite al satélite un movimiento orbital prácticamente
uniforme con aceleraciones y retardos resultantes prácticamente nulos en cualquier
dirección, salvo las derivadas de la posible excentricidad de su órbita.
De todas formas, el satélite en su trayectoria sufre una serie de variaciones en:
altura de la órbita (z), velocidad (x) y en la orientación de cualquiera de sus ejes x, y,
z; los giros sobre los ejes son conocidos con los nombres de aleteo (pitch), cabeceo
(roll) y ladeo (yaw), aquellos y las variaciones en velocidad y altura provocan
cambios constantes en el IFOV.

Distorsión provocada por la rotación terrestre


Para adquirir una escena, el espejo oscilante invierte un tiempo determinado en el
cual la tierra ha girado una cierta magnitud provocando un desplazamiento
progresivo de las líneas de barrido. Para el sensor MSS del LANDSAT, el período de
revolución es de 103 minutos y el tamaño (ancho) de la escena es de 185 km; en
consecuencia, el satélite invierte:
103 min
185km * 60s / min  28s ,
40.000km
en recorrer la escena. Durante ese período, la tierra ha girado 28 s * 15”/s = 420” =
7´, ángulo que supone un desplazamiento lineal en nuestras latitudes (Salta, 25° de
latitud S) de:
40.000km
7´cos 25  11,8km
360 * 60´/1
Todo ello, unido a la propia inclinación de la órbita del satélite, produce como
resultado una imagen romboidal orientada hacia la dirección NE-SO.

Distorsión de oblicuidad debida al tiempo de barrido


El barrido de una línea completa consume un tiempo finito que, en el caso del MSS
es de 33 micro segundos. Durante ese lapso, el satélite se ha desplazado respecto a
la situación que ocupaba al comienzo de la línea. Por este motivo, los dos extremos
de la línea no forman una perpendicular con la traza del satélite, sino que, para una

8
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

velocidad de 6,45 km/s del MSS, la variación de los extremos es de 213 metros
sobre el terreno y en dirección de la traza.

Distorsión del aspecto


Se trata de la diferencia entre el tamaño nominal del píxel y el correspondiente IFOV
del sensor sobre el terreno, debido a cambios en la velocidad de barrido del espejo
oscilante perpendicular a la órbita del satélite.
Como consecuencia de una variación en el tiempo calculado para el barrido, se
produce un solapamiento (menor tiempo de barrido) o una separación (mayor tiempo
de barrido) entre los IFOV; de esta manera los píxeles registran datos sobre
pequeños sectores ya relevados o existen vacíos en el registro de la superficie
terrestre.

Distorsión panorámica
Para los sensores montados sobre satélites, el tamaño del IFOV se supone
constante para la vertical a la órbita; no es el caso de los extremos de las líneas de
barrido, situaciones en las cuales se agranda el área registrada (IFOV) por cada
píxel. De todas maneras, para el caso de los satélites LANDSAT, la deformación del
IFOV es despreciable; mientras que para la mira vertical del SPOT, la deformación
no se presenta debido a que está dotado de un sensor de empuje. La deformación
es acusada para el caso del NOAA-AVHRR y especialmente en la mira lateral con
inclinación de ± 27° del SPOT.

Distorsión provocada por la curvatura de la tierra


Esta distorsión, de escasa consideración en sensores aerotransportados, es
importante para los satelitales, ocasionando efectos de borde muy significativos en
las imágenes NOAA, y especialmente en los satélites geoestacionarios.

Distorsiones provocadas por los sensores


Durante el barrido, tanto lateral como por empuje, puede existir fallos en la
calibración de los detectores. En los sensores de barrido, se registran
simultáneamente diferentes bandas, utilizando una línea completa de detectores por
banda. Los sensores de empuje, utilizan aún más detectores simultáneamente
debido a que todo el ancho de registro está cubierto por una línea de detectores ( en
el caso del sensor HRV de SPOT llegan a ser 6.000 en el canal pancromático). Por
los motivos mencionados, es necesario que todos los detectores conviertan al mismo
nivel digital (Nd) una misma radiancia detectada; un eventual desajuste de algún
detector produce como consecuencia un bandeado longitudinal en la imagen.
Otra fuente de anomalías la constituyen los fallos momentáneos, o saturación, de
algún detector durante el proceso de captura de la señal, durante la conversión
analógico-digital o en la transmisión de los datos desde la plataforma a la estación
recepto en tierra. La consecuencia es la pérdida de píxeles en sectores discretos e
inclusive la ausencia de líneas completas.
9
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SENSORES REMOTOS

Distorsiones provocadas por la atmósfera


La composición material de la atmósfera introduce modificaciones a las radiancias
originales procedentes de la superficie terrestre. La repercusión más importante es el
aumento de la radiación incidente sobre el sensor, como consecuencia de la
dispersión inducida por la presencia de aerosoles atmosféricos. El efecto resultante
es la disminución del contraste de la escena, especialmente acusado en las bandas
de longitudes de honda más cortas, y el corrimiento de los Nd a valores superiores.

10
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL


CURSO 2007

CLASIFICACIÓN

Introducción

Normalmente, en un proyecto que involucre el procesamiento de imágenes digitales, el objetivo


final lo constituye la clasificación del espacio geográfico analizado a partir de los datos de
teledetección. El proceso de clasificación conduce a la obtención de un mapa temático cuyas
unidades sean de fácil interpretación. Las diversas zonas de una escena quedan determinadas por
un agrupamiento de celdas cuyos valores iniciales (Nd registrados por el sensor) puedan
clasificarse a partir de sus características diferenciales. La clasificación se torna entonces en un
grupo de métodos automáticos que permite la traducción de los Nds de las bandas originales en
clases cuyos valores tienen un significado temático.

Para algunos métodos más sencillos la clasificación de la escena se realiza sobre una composición
color, obtenida a partir de la combinación lineal de las bandas originales. Se genera una nueva
imagen sumando tres bandas, seleccionadas por algún criterio, a cada una de las cuales se le asigna
uno de los tres tonos primarios: azul, verde, rojo. Los métodos más complejos involucran una
multi-dimensionalidad que supera a las tres dimensiones de la composición color tradicional; estos
métodos más complejos consideran muchas variables (bandas) – número superior a tres –
aprovechando la información contenida en los diferentes rangos espectrales para permitir una
mayor capacidad de discriminación.

Composiciones color

Las composiciones color constituyen un caso particular de combinación lineal analógica en el


periférico de visualización a partir de información multiespectral de la imagen suministrada por la
mayor parte de los sensores. Considerando el espacio tridimensional, tres ejes ortogonales,
correspondiendo a cada uno de ellos uno de los tres colores puros, la luminancia cromática de un
píxel vendrá dada por:

z = az1 a + vz2 v + rz3 r

donde: z es el color resultante para la visualización de un píxel, zi las luminancias de esa celda en
las tres bandas consideradas y a , v y r los tres coeficientes para el ajuste del contraste, todo ello
en el sistema de especificación de color RGB.

1
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Coordenadas de color RGB. Tomado de Pinilla, 1995, Pág. 175.

Transformación IHS

Cuando se utiliza el sistema RGB para una composición color, con frecuencia se tiende hacia los
tonos grises o pasteles en la imagen, esto, como consecuencia del nivel similar de reflectancia que
presentan muchas cubiertas en diferentes bandas. Para paliar la falta de contraste se utiliza la
transformación Intensidad-Tono-Saturación IHS (Intensity, Hue, Saturation). El método es una
transformación global consistente en extraer tres nuevas bandas basadas en el sistema de
coordenadas de color IHS y realizar una nueva composición coloreada con ellas.

Coordenadas de color IHS. Tomado de Pinilla, 1995, pág. 176.

2
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

El procedimiento se inicia calculando para cada píxel la variable intensidad I en el conjunto de las
tres bandas como el máximo valor de los tres ND que intervienen. La determinación de la
saturación S del color se realiza de la siguiente manera:

I–m
∀I≠0
S= I
0 ∀I=0

siendo m el mínimo de los tres Nd que intervienen en la transformación para cada píxel. La
saturación adoptará valores de la gama comprendida entre 0 (gris, color sucio) y 1 (color puro).
Para el cálculo de la variable tono H se calculan independientemente la separación que existe entre
el Nd correspondiente a cada uno de los tonos primarios y el máximo Nd, referido al rango de
variación de los tres Nd.

I − Nd r I − Nd v I − Nd a
R= ; V = ; A=
I −m I −m I −m
A partir de ese momento pueden existir seis posibilidades, según I y m coincidan con cada uno de
los colores que se indican, para cada una de las cuales H se define del modo indicado en la tabla
que sigue:

Valor del parámetro tono H.


I m H
rojo verde H = 5 + A
rojo azul H=1–V
verde rojo H=3–A
verde azul H=1+R
azul rojo H=3+V
azul verde H=5-R

El valor de H corresponderá al predominante de cada píxel, y se le asignará un valor comprendido


entre 0 (rojo) y 255 (violeta), resultante de dividir por 6 los resultados anteriores, multiplicarlos por
256 y restarles una unidad.

Asignación de tonos a los valores de H en la transformación HIS. Tomado de Pinilla, 1995, Pág. 177.

3
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Por último, a las tres imágenes así formadas se les atribuyen los tonos primarios rojo, verde, azul,
respectivamente, y se forma una imagen compuesta.

La transformación HIS se utiliza también para componer imágenes adquiridas por sensores de
diferente resolución espacial, como, por ejemplo, los multiespectrales procedentes de LANDSAT
TM y ETM+, con celdas de 30 m de lado en el terreno, y las pancromáticas del mismo LANDSAT
(banda 8), 15 m y del SPOT HRV, de 10 m.

Para mejorar la resolución espacial, entonces, se procede de la siguiente manera: se corrigen


geométricamente las escenas para permitir la superposición exacta; se genera una composición
color RGB con las bandas originales, se amplían las escenas de menor resolución hasta conseguir
el mismo tamaño en píxeles que la de mayor resolución (ampliación por 2, para mejorar a 15 m -
banda 8 LANDSAT ETM+, y por 3, para mejorar a 10 m – pancromática SPOT HRV); se
transforma la composición color RGB en el sistema HIS y se sustituye la imagen de intensidad I
por la banda pancromática de mayor resolución espacial y sin perder la resolución espectral
original, materializada en sus componentes tono H y saturación S; finalmente, se deshace la
transformación aplicando su inversa y consiguiendo de nuevo una imagen multiespectral con tres
bandas correspondientes a las coordenadas RGB.

La distribución de los Nd dentro de cada una de las bandas de la imagen tiende a asemejarse a una
distribución normal. Las probabilidades definidas para variables discretas tienen su equivalente en
las funciones de densidad de las variables aleatorias. La función de densidad de la distribución
normal es:

2
1  z −µ 
1 − 
2 σ 

f ( z) = e
σ 2π

Funciones de densidad de distintas distribuciones. En la figura de la derecha, f(x,y,z) viene


representada por la densidad de la nube probabilística, simbolizada por elipsoides concéntricos.
Tomado de Pinilla, 1995, pág. 220.

4
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Un resumen de los métodos de clasificación.


Tomado del Manual en Español de IDRISI KILIMANJARO

La clasificación de imágenes se refiere a la interpretación asistida por computadora de imágenes de


sensores remotos. Aunque algunos procedimientos son capaces de incorporar información acerca
de las características de las imágenes tales como la textura y el contexto, gran parte de la
clasificación de imágenes sólo se basa en la detección de firmas espectrales (es decir, patrones de
respuesta espectral) de las clases de cubierta terrestre. El éxito que esto puede adquirir depende de
dos factores: 1) la presencia de firmas distintivas para las clases de cubierta terrestre de interés en
el grupo de bandas en uso; 2) la habilidad para distinguir con precisión estas firmas de otros
patrones de respuesta espectral que pueden presentarse.

Existen dos enfoques generales en la clasificación de imágenes: supervisado y no supervisado. Se


diferencian en la manera de realizar la clasificación. En el caso de la clasificación supervisada, el
algoritmo del sistema - software - delinea tipos de cubierta terrestre específicos sobre datos
estadísticos de caracterización extraídos de muestras en la imagen y validadas a campo (conocidos
como sitios de entrenamiento). Con la clasificación no supervisada, en cambio, se utiliza un
algoritmo de agrupamientos para descubrir los tipos de cubierta terrestre más comunes. Luego, en
un paso posterior, el analista provee interpretaciones – descripciones - de esos tipos de cubierta.

Clasificación Supervisada

El primer paso en la clasificación supervisada es identificar ejemplos de las clases de información


de interés (es decir, tipos de cubierta terrestre) en la imagen. Éstos se llaman sitios de
entrenamiento (training sites). El software se usa por lo tanto para desarrollar una caracterización
estadística de las reflexiones para cada clase de información. Este paso a menudo es llamado
análisis de firmas (signature analisis) y puede incluir el desarrollo de una caracterización tan simple
como el medio o el rango de las reflexiones sobre cada banda, o tan compleja como el análisis
detallado del medio, desviaciones y co -desviaciones (covarianzas) sobre todas las bandas.
Una vez lograda la caracterización estadística de cada clase de información, la imagen es
clasificada a partir del examen de los valores en cada píxel y de la toma de decisión acerca de a
cuál de las firmas se asemeja más. Hay varios algoritmos llamados clasificadores, para tomar estas
decisiones. La mayoría de los software de Procesamiento de Imágenes ofrece muchas de estas
técnicas, basadas en reglas de decisión variable. IDRISI ofrece una amplia gama de opciones que
se dividen en tres grupos, dependiendo de los objetivos perseguidos y de la naturaleza de las
bandas de entrada.

Clasificadores Rígidos

La característica distintiva de los clasificadores rígidos es que todos toman una decisión definitiva
acerca de la clase de cubierta terrestre a la que todo píxel pertenece. IDRISI ofrece cinco
clasificadores en este grupo: Paralelepípedos (PIPED), Distancia Mínima a la Media (MINDIST), y
Máxima Verosimilitud (MAXLIKE), Análisis Discriminante Lineal (FISHER), y Red Neuronal
Artificial (NEURALNET). Sólo se diferencian en la manera en que desarrollan y utilizan la
caracterización estadística de los datos de los sitios de entrenamiento. De los cinco, el
procedimiento de Máxima Verosimilitud es el clasificador, sin dudas, más usado en la clasificación
de imágenes captadas por sensores remotos.

5
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Clasificadores Blandos

Al contrario de los clasificadores rígidos, los clasificadores blandos no toman una decisión
definitiva acerca de la clase de cubierta terrestre a la cual pertenece cada píxel. Éstos desarrollan
declaraciones del grado en que cada píxel pertenece a cada una de las clases de cubierta terrestre en
consideración. Entonces, por ejemplo, un clasificador blando puede indicar que un píxel tiene una
probabilidad de 0,72 de representar bosque, una probabilidad de 0,24 de ser pastura y una
probabilidad de 0,04 de ser suelo desnudo.

Un clasificador rígido resuelve esta incertidumbre concluyendo que el píxel representa la clase
bosque. Sin embargo, un clasificador blando pone esta incertidumbre explícitamente disponible,
para cualquier tipo de propósitos. Por ejemplo, el analista puede concluir que la incertidumbre nace
porque el píxel contiene más de un tipo de cubierta terrestre y puede usar las probabilidades como
indicadores de la proporción relativa de cada uno. Esto se conoce como clasificación sub - píxel.

Alternativamente, el analista puede concluir que la incertidumbre nace debido a datos de sitios de
entrenamiento no son representativos y por lo tanto debe combinar estas probabilidades con otra
evidencia antes de endurecer la decisión hacia una conclusión final. IDRISI ofrece cuatro
clasificadores blandos (BAYCLASS, MAHALCLASS, BELCLASS y FUZCLASS). Los
resultados de los cuatro pueden ser endurecidos usando el módulo HARDEN (Endurecer). La
diferencia entre ellos está relacionada con la lógica por la cual se especifica la incertidumbre -
Bayesiana, Dempster-Shafer y Fuzzy Sets. Además, el sistema ofrece una variedad de herramientas
adicionales específicamente diseñadas para el análisis de mezclas sub - píxel (Ej., UNMIX,
FUZSIG, MIXCALC y MAXSET).

Clasificadores Hiperespectrales

Todos los clasificadores mencionados anteriormente operan sobre imágenes multiespectrales –


imágenes en donde varias bandas espectrales han sido captadas simultáneamente como
componentes de imágenes independientemente accesibles.

Al extender esta lógica a muchas bandas, se produce lo que se ha conocido como imagen
hiperespectral. Aunque esencialmente no haya ninguna diferencia entre las imágenes
hiperespectrales y multiespectrales (es decir, sólo difieren en grado); el mayor volumen de datos, la
alta resolución espectral y el menor rango registrado por cada banda de las imágenes
hiperespectrales sí provoca diferencias en la forma en que son manejadas.

IDRISI brinda utilidades especiales para crear firmas hiperespectrales de sitios de entrenamiento o
bien de bibliotecas de patrones de respuesta espectral desarrollados bajo condiciones de laboratorio
(HYPERSIG) y una rutina automática de extracción de firmas hiperespectrales
(HYPERAUTOSIG).

Estas firmas pueden ser aplicadas entonces en cualquiera de los varios clasificadores
hiperespectrales: Ángulo Espectral Cartográfico (HYPERSAM), Distancia Mínima Hiperespectral
(HYPERMIN), Eliminación de la Mezcla de las Líneas Espectrales (HYPERUNMIX), Proyección
Ortogonal Subespacial (HYPEROSP), Análisis del Área de Absorción (HYPERABSORB).
También se encuentra disponible un clasificador no supervisado (vea la próxima sección) para las
imágenes hiperespectrales (HYPERUSP).
6
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Clasificación No Supervisada

En contraste con la clasificación supervisada, en la que le indicamos al sistema el carácter (es decir,
la firma) de las clases de información que estamos buscando, la clasificación no supervisada no
requiere un avance de información acerca de las clases de interés. Ésta examina, en cambio, los
datos y los divide en los grupos espectrales naturales más prevalecientes, o conglomerados,
presentes en los datos. El analista identifica, entonces, estos grupos como clases de cubierta
terrestre a través de una combinación de familiaridad con las visitas verdaderas a la región y el
suelo.

La lógica con la que trabaja la clasificación no supervisada se conoce como análisis cluster o de
grupos, y en IDRISI es principalmente aplicado en el módulo CLUSTER. Este módulo realiza la
clasificación basándose en un grupo de imágenes de entrada usando una técnica máxima de
histograma multi-dimensional. Es importante reconocer, sin embargo, que los procedimientos de
agrupamiento de clasificación no supervisada no son clases de información, sino clases espectrales
(es decir, agrupan características, píxeles, con patrones de reflexión similares). Es por lo general el
caso en el que el analista necesita reclasificar las clases espectrales en clases de información. Por
ejemplo, el sistema puede identificar clases para asfalto y cemento que el analista luego puede
agrupar y crear una clase de información llamada pavimento.

Aunque resulte atractivo conceptualmente, la clasificación no supervisada ha sido tradicionalmente


entorpecida por algoritmos muy lentos. Sin embargo, el procedimiento de agrupamiento brindado
por IDRISI es extraordinariamente rápido (sin dudas el más rápido del mercado) y puede por lo
tanto usarse interactivamente en conjunción con datos verdaderos de la cobertura del suelo para
arribar a una clasificación muy precisa. Con los procedimientos correctos de la verdad de campo y
de evaluación de la exactitud, esta herramienta puede proveer un medio marcadamente rápido para
producir datos de calidad sobre la cubierta terrestre en una base continua.

Además de las técnicas mencionadas anteriormente, hay dos módulos que unen ambas
clasificaciones: supervisada y no supervisada. El ISOCLUST usa un procedimiento llamado
Análisis de Cluster de Autoorganización para clasificar hasta 7 bandas puras en las que el usuario
especifica el número de grupos a procesar. El procedimiento emplea el módulo CLUSTER para
iniciar una cantidad de grupos que generan una aplicación iterativa del procedimiento MAXLIKE,
en el cual cada paso usa los resultados del paso anterior como los sitios de entrenamiento para este
procedimiento supervisado.

El resultado es una clasificación no supervisada que converge en una etapa final de elementos
estables usando un enfoque supervisado (por eso el concepto de “autoorganización”). El MAXSET
es también, en su esencia, un procedimiento supervisado. No obstante, mientras el procedimiento
comienza con sitios de entrenamiento que caracterizan clases individuales, éste resulta en una
clasificación que no sólo incluye estas clases específicas sino también (aunque se desconozcan)
mezclas que pueden llegar a existir. Entonces, el resultado final tiene en gran medida el perfil de
aquel de un enfoque no supervisado.

7
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Evaluación de la Exactitud

Un paso vital en el proceso de clasificación, tanto supervisada como no supervisada, es la


evaluación de la precisión de las imágenes finales. Esto implica identificar un grupo de lugares
(con el módulo SAMPLE) que son visitados en el campo.

La cubierta terrestre encontrada en el campo es luego comparada con aquella que fue
confeccionada como mapa de clases en la imagen del mismo lugar. Las evaluaciones de precisión
estadística pueden ser derivadas para toda el área de estudio, así como también para clases
individuales (usando el ERRMAT).

En un enfoque iterativo, la matriz de errores producida (a veces llamada matriz de confusión),


puede ser usada para identificar tipos de cubierta particulares cuyos errores superan con creces a
los deseados. La información presentada en la matriz de confusión nos indica cuales cubiertas están
siendo incluidas por error en una clase en particular (errores de comisión) y aquellas que están
siendo excluidas (errores de omisión) de una clase cuando en realidad son de esta; por lo tanto la
matriz de error pueden usarse para afinar el enfoque de clasificación.

Los métodos de clasificación se dividen en dos grupos: clasificación no supervisada y


clasificación supervisada.

MÉTODO NO SUPERVISADO

Este método busca la agrupación automática de los Nds de la imagen en una serie de grupos
homogéneos que respondan a similitudes espectrales de las cubiertas. En general, el procedimiento
está basado en un proceso de tres pasos:
1. determinación de las características de las celdas,
2. medida de la similitud o distancia estadística entre grupos, y
3. la aplicación de algún criterio de agrupamiento entre clases.

Para el caso del programa IDRISI 32, el módulo utilizado se denomina CLUSTER (agrupamiento o
conglomerado).

Agrupamiento de puntos en una nube de probabilidad o cluster y vector de medias asociado.


Tomado de Pinilla, 1995, Pág. 222.
8
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

1. CLUSTER usa una técnica de "picos" del histograma para el análisis de conglomerados. En ésta,
se buscan los picos en un histograma de una dimensión, definidos como valores de mayor
frecuencia que sus dos vecinos. Una vez definidos los picos, todos los valores son asignados al pico
más próximo y las divisiones entre clases se determinan en los puntos medios entre picos. En
nuestro caso, se utilizan histogramas de tres dimensiones ya que la composición se derivó de tres
bandas. Un pico es una clase donde la frecuencia es mayor que la de todos sus vecinos. Los
resultados son mejores si no se consideran los vecinos diagonales debido a la correlación existente
entre bandas.

Agrupamiento estadístico o clustering en el espacio de características formado por las bandas k y l.


Tomado de Pinilla, 1995, Pág. 229.

En la clasificación general, una clase debe poseer una frecuencia mayor que la de todas sus vecinas
no-diagonales. En la clasificación detallada, una vecina no-diagonal puede tener una mayor
frecuencia. Esto permite tener en cuenta los picos reales que de otro modo quedarían ocultos por un
pico próximo de mayor frecuencia.

2. CLUSTER funciona mejor si la composición se generó usando la opción lineal con saturación,
que asegura que los seis niveles por banda en la composición ocupan la zona en que se concentran
la mayor parte de los datos. No obstante, los resultados serán óptimos con un ajuste que use menor
saturación que la propuesta para el realce de la visualización. Generalmente, una saturación entre
1% y 2,5% ofrece los mejores resultados para el análisis de conglomerados.

3. CLUSTER sólo funciona con imágenes compuestas creadas con COMPOSIT. La composición
está formada por índices de color, donde cada índice = azul + (verde * 6) + (rojo * 36), asumiendo
un rango de 0-5 en cada una de las tres bandas. Por ejemplo un píxel con valores AVR de 3, 5, 1
tendría un índice de 3 + (5 * 6) + (1 * 36) = 69. CLUSTER descompone los valores de
COMPOSIT para generar un histograma tridimensional.

9
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

4. CLUSTER sólo funciona con composiciones de tres bandas. Esto puede suponer una fuerte
limitación, dado el rango de bandas disponibles con imágenes como LANDSAT TM. No obstante,
un Análisis de Componentes Principales revelaría rápidamente que si las tres bandas han sido
elegidas acertadamente, contendrán la mayor parte de la información. Por ejemplo, en muchos
casos la elección de las bandas TM 2, 3 y 4 (la composición en falso color más típica) o 3, 4 y 5
contendrán más del 95% de la información de la serie completa de bandas. No es recomendable
crear una composición de imagen para CLUSTER a partir de los tres primeros componentes de un
Análisis de Componentes Principales usando la opción de saturación. El resultado daría igual peso
a todos los componentes, obteniendo un resultado pobre – tanto el segundo como el tercer
componente (particularmente el tercero) no poseerán un gran peso -.

5. El algoritmo CLUSTER se ha modificado mediante una técnica de "picos" del histograma,


descrita por John A. Richards, Remote Sensing Digital Image Analysis: An Introduction. Berlin:
Springer, 1986.

Histograma de una imagen color compuesta.

CLUSTER ofrece dos niveles de generalización. Con el nivel amplio de generalización, los grupos deben
ocurrir como picos distintos en el histograma multidimensional según se indicó anteriormente. No obstante,
con el nivel fino de generalización, CLUSTER también reconoce los escalones en la curva como picos de
grupos. Los escalones ocurren cuando dos agrupamientos adyacentes se superponen en gran medida. Los
picos y los escalones son identificados en el histograma que se muestra en la figura anterior.
La experiencia en el uso de la rutina de CLUSTER ha demostrado que es rápida y capaz de producir
excelentes resultados. Por otra parte, hemos aprendido que la siguiente secuencia de operaciones es
particularmente útil.
1. Ejecute el CLUSTER usando las bandas más informativas disponibles (generalmente, estas incluyen
la banda roja visible, la banda infrarroja cercana y la banda infrarroja media – Ej.: las bandas del
LANDSAT TM 3, 4 y 5 respectivamente). Use el stretch (estiramiento) lineal con las opciones de:
saturación en un 1%, "fine generalization level" (nivel fino de generalización) y "retain all clusters"
(retener todos los grupos).
2. Despliegue un histograma de esta imagen. Este histograma muestra la frecuencia de pixeles
asociados con cada uno de los grupos que pueden localizarse en la imagen. Muchos de estos grupos
tienen frecuencias muy pequeñas, y por ello, son de alguna manera insignificantes. La Figura 16-8
presenta un ejemplo de dicho histograma. Como se puede observar, hay tres grupos que dominan la
imagen. Luego hay una ruptura profunda con un segundo conjunto de grupos fuertes hasta el Grupo
12. Luego hay un tercer conjunto que sigue hasta el Grupo 25, seguido por un pequeño conjunto de
grupos muy insignificantes. La experiencia sugiere entonces que una buena generalización de los

10
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

datos sería extraer los primeros 12 grupos, con un análisis más detallado puntualizando los primeros
25.
3. Una vez que el número de grupos para examinar ha sido determinado, vuelva a ejecutar el
CLUSTER, pero esta vez elija una "fine generalization" (generalización fina) y establezca un
"maximum number of clusters" (número máximo de grupos) hasta el número que Ud. determinó
(Ej.: 12).

4. Despliegue la imagen resultante con una paleta de colores cualitativos y luego trate de identificar
cada uno de los grupos por vez. Puede usar la opción interactiva de edición de leyenda (legend
editing) para cambiar la leyenda y grabar su propia interpretación. También puede cambiar el color
de esa categoría para que combine con un esquema lógico de colores. Además, recuerde que puede
resaltar todos los píxeles pertenecientes a una categoría presionando el botón del mouse sobre un
cuadro del color de categoría de la leyenda.
5. Al final del proceso de identificación, puede que necesite combinar varias categorías. Por ejemplo,
el análisis de grupos pudo haber descubierto varias categorías de pavimento, como el asfalto y el
concreto, que Ud. puede unir en una sola categoría. La manera más simple de realizar esto es usando
el Edit para crear un archivo de valores que contenga las reasignaciones enteras. Este archivo tiene
dos columnas. La columna izquierda registra el número original de grupos, mientras que la columna
derecha debe contener el número de la nueva categoría a la cual debe ser reasignado. Luego de que
este archivo ha sido creado, emplee el ASSIGN para asignar estos índices de categorías nuevas a los
datos originales de grupo.
El procedimiento CLUSTER en IDRISI es rápido y muy eficiente para descubrir la estructura básica de la
cobertura terrestre de la imagen. Además puede usarse como un paso preliminar para un proceso híbrido no
supervisado / supervisado donde los grupos se usan como los sitios de entrenamiento para un segundo paso
de clasificación usando el clasificador MAXLIKE - Esto es posible debido a que MAKESIG puede crear
firmas basadas en sitios de entrenamiento definidos por un archivo vectorial o por una imagen. En
cualquiera de los casos, se usa la opción de la imagen - . Esto tiene la ventaja de permitir el uso de un
número mayor de bandas de datos puros y también brinda un paso de clasificación más fuerte de píxeles
para su grupo más similar. En realidad, esta lógica se halla en el procedimiento ISOCLUST descrito a
continuación.

6. El módulo ISOCLUST ofrece un análisis de conglomerados para un máximo de 7 bandas.

Funcionamiento del algoritmo CLUSTER

CLUSTER requiere el nombre de la imagen de composición de bandas a clasificar y el nombre de


la imagen de salida. (Se debe ejecutar COMPOSIT para generar la imagen de composición a
11
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

utilizar en CLUSTER). A continuación, especificar si se realizará una clasificación "general" o


"detallada". La primera proporciona una descripción general de las clases espectrales, mientras que
la segunda proporciona información adicional. Se puede realizar una primera aproximación con la
clasificación general.

A continuación CLUSTER solicita las opciones de agrupamiento, que pueden ser utilizadas tanto
en la clasificación "general" como en la "detallada". Estas opciones son:

a) Eliminar los conglomerados menos significativos (< 1% de todos los conglomerados). Los
conglomerados son organizados en función de su contenido en información y se mantienen
aquellos que describen hasta el 99% de la imagen, los conglomerados restantes son eliminados. Las
celdas que habían sido asignadas a los conglomerados eliminados son ahora asignadas al
conglomerado más próximo de los que permanecen. Esta opción funciona correctamente como un
clasificador "ciego".

b) Número máximo de conglomerados: se debe introducir el máximo definido. Los conglomerados


se ordenan en función de la cantidad de imagen que describen. Se retienen los primeros N
conglomerados y los píxeles restantes se asignan al más similar de estos N conglomerados.

c) Mantener todos los conglomerados. Esta opción es más frecuente en clasificaciones "detalladas".
Los conglomerados se ordenarán, de mayor a menor, en función del área total que ocupan. Con
HISTO, se debe visualizar en modo gráfico el histograma de la clasificación con una anchura de
intervalo de 1. Buscar las rupturas más significativas en la pendiente del histograma, que son
indicativas de niveles de agrupamiento natural. Por último, ejecutar CLUSTER con el número
máximo de conglomerados sugerido por los puntos de ruptura del histograma. Ésta es,
probablemente, la función óptima para esta técnica.

ISOCLUST

El módulo ISOCLUST es un clasificador no supervisado auto-organizado iterativo basado en un


concepto similar a la reconocida rutina ISODATA de Ball y Hall (1965) y a las rutinas de grupo
como los procedimientos media-H y media-K.

La lógica típica es la siguiente:


1. El usuario decide el número de grupos para descubrir. Uno se encuentra verdaderamente ciego al
tomar esta decisión.
Como consecuencia, una estrategia común es pedir un número grande y luego agregar grupos
después de la interpretación. Una estrategia más eficiente para este problema se ofrece más abajo, y
está basada en la implementación específica en el IDRISI.
2. Un conjunto de grupos N luego es colocado arbitrariamente en el espacio de banda. En algunos
sistemas, estas ubicaciones son asignadas al azar. Aunque en la mayoría, son colocadas
sistemáticamente dentro de la región de reflectancias de frecuencia alta.
3. Luego los píxeles son asignados a su ubicación de grupo más cercano.
4. Después de que todos los píxeles han sido asignados, se computa una nueva ubicación media.
5. Los Pasos 3 y 4 se repiten interactivamente hasta que no se produzca ningún cambio
significativo en la producción.
La implementación de esta lógica general en IDRISI es diferente en varios aspectos. - Luego de
ingresar las bandas de imágenes crudas para utilizar, se le presentará un histograma de grupos que
12
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

expresa la frecuencia con la cual éstos ocurren en la imagen. Debe examinar este gráfico y buscar
rupturas significativas en la curva. Éstas representas cambios importantes en la generalidad de los
grupos. Especifique el número de grupos a crearse sobre una de estas rupturas principales.
- El proceso de generación de grupos en realidad se hace con el módulo CLUSTER del IDRISI.
CLUSTER es verdaderamente un algoritmo de agrupamiento (en oposición a una operación de
segmentación como la que se utiliza en muchas rutinas de agrupamiento así llamadas). Esto
conduce a una colocación de grupos mucho más eficiente y exacta que la colocación sistemática o
aleatoria.
- El proceso iterativo utiliza un procedimiento de Máxima Verosimilitud completo. En realidad,
Ud. notará que éste utiliza reiteradas veces los módulos MAKESIG y MAXLIKE. Esto provee un
procedimiento de asignación de grupos muy fuerte.

MÉTODO SUPERVISADO

En este método, el analista define sobre la escena una serie de polígonos, conocidos como campos
de entrenamiento (training fields), de los que se conocen su pertenencia a cada una de las clases
preestablecidas. Normalmente, para la aplicación de alguno de los algoritmos de clasificación
supervisada se requiere la utilización previa del método no supervisado y el reconocimiento de
campo del significado de cada una de las clases; además, se requiere de fuentes de información
secundaria – fotografías aéreas, mapas temáticos de: uso y cobertura del suelo, geológicos y
geomorfológicos - y de un adecuado conocimiento de la zona por parte del intérprete.

El vector de medias y la matriz de covarianzas de las celdas de los campos de entrenamiento


definirán las características de cada clase, siendo utilizadas posteriormente en la fase de asignación
del resto de los píxeles de la escena, suponiendo normalidad para la distribución de frecuencia de
las clases.

La selección de los campos de entrenamiento es una tarea delicada que requiere todo el rigor
posible, por que de ella dependerá el resultado final de la clasificación. En primer lugar, es
necesario que cada campo de entrenamiento sea definido sobre las celdas que representen una clase
pura en particular, que no se encuentre contaminada con píxeles de otras clases.

CREACIÓN DE LOS CAMPOS DE ENTRENAMIENTO

Para generar los campos de entrenamiento en IDRISI 32, se debe utilizar el elemento digitalizador
(término comúnmente utilizado para designar a un dispositivo que codifica datos gráficos
vectoriales (localizaciones de puntos) en un plano de coordenadas (X,Y). No obstante, este término
se aplica, también, a varios tipos de digitalizadores de barrido que codifican imágenes raster).
Accionando el elemento digitalizador, se procede a seleccionar el tipo de layer (polígono en este
caso), se coloca el nombre del archivo, tipo de dato entero y, finalmente, en el cuadro del
identificador (ID) el valor correspondiente al número de la clase a la que se le realizará el
muestreo.

Para generar las signaturas (firmas espectrales) se utiliza el módulo MAKESIG.

MAKESIG genera las signaturas espectrales de una serie de campos de entrenamiento (archivo de
signaturas), a partir de la información contenida en las distintas bandas de una imagen de satélite.

13
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Estas signaturas se utilizan en los módulos PIPED, MINDIST, MAXLIKE, BAYCLASS,


BELCLASS y FUZCLASS de clasificación de imágenes de satélite.

Previamente, hay que definir los campos de entrenamiento como un archivo vectorial de polígonos
o como una imagen raster. En el primer caso, MAKESIG realiza, en primer lugar, una conversión
de este archivo vectorial a imagen raster. Este archivo vectorial se genera con las herramientas de
digitalización en el sistema de visualización. En ambos casos, raster o vectorial, los campos de
entrenamiento se identifican con números enteros. Puede haber tantos campos de entrenamiento
para una sola clase como se desee, utilizando el mismo identificador para todos los campos de una
misma clase.

MAKESIG: Funcionamiento

En primer lugar, indicar si el archivo que contiene los campos de entrenamiento es una imagen
raster o un archivo vectorial. En el primer caso, MAKESIG utiliza una imagen raster ya existente
que define los campos de entrenamiento. Introducir el nombre de este archivo. Si se selecciona el
archivo vectorial, introducir el nombre del archivo que contiene la delimitación de los campos de
entrenamiento. El módulo "rasteriza" estos campos de forma que coincidan con las dimensiones de
la imagen de donde se extraerá la información (las bandas) y otorga a la imagen raster resultante el
mismo nombre del archivo vectorial. Esta imagen raster puede modificarse posteriormente con
UPDATE, o puede utilizarse para combinar información de varios archivos vectoriales que
contengan campos de entrenamiento.

Después, especificar el número y nombres de las bandas (cada una es una imagen raster) que se
utilizarán para generar las signaturas espectrales. Deben incluirse todas las bandas que
consideremos útiles, aunque posteriormente no utilicemos todas en la clasificación. Pulsar
Continuar para introducir los parámetros restantes.

Introducir el nombre de la signatura de cada uno de los campos de entrenamiento utilizados. Pulsar
sobre las flechas orientadas hacia arriba y abajo para introducir/modificar todos los identificadores.
MAKESIG extrae los píxeles en todas las bandas para cada clase informacional y calcula las
estadísticas de la signatura. Los píxeles se almacenan en un archivo con extensión ".spf", y las
estadísticas se almacenan en un archivo de signatura con extensión ".sig".

MAKESIG: Notas

1. Los archivos de signaturas con extensión ".sig", generados por MAKESIG, poseen formato
ASCII y pueden modificarse. La primera línea indica el número de bandas, los nombres de las
bandas aparecen, sucesivamente, en las siguientes líneas. No cambiar el orden de estos nombres.
Después de estos, hay tantas líneas de datos como bandas. Cada línea indica el mínimo, máximo,
media y varianza para la signatura en esa banda, así como las covarianzas entre ésta y las otras
bandas. Aparecen tantas covarianzas como bandas restantes. Así, una signatura generada para 4
bandas tendrá un total de 7 números, separados por uno o más espacios, por línea; el mínimo,
máximo, media, varianza, y tres covarianzas.

14
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Archivo de signaturas con extensión ".sig", generados por MAKESIG.


6
c:\sensores2\procesmiento digital\práctica\prac_b10geo.rst
71
84
7.82060165405273E+0001
4.65583535745360E+0000
9.77604859389728E-0002
2.78708133564748E+0000
-7.39885780706206E+0000
-1.16073622559727E+0000
8.12429816650957E+0000
c:\sensores2\procesmiento digital\práctica\prac_b20geo.rst
61
78
6.77175903320312E+0001
9.77604859389728E-0002
6.36088232761746E+0000
-1.57524445217336E-0001
2.44101245287123E+0001
4.71487547128770E+0000
-1.19833519884715E+0001
c:\sensores2\procesmiento digital\práctica\prac_b30geo.rst
56
73
6.45254592895508E+0001
2.78708133564748E+0000
-1.57524445217336E-0001
8.54690955354553E+0000
-1.16708066723462E+0001
-4.31424028082403E-0001
1.34058568826131E+0001
c:\sensores2\procesmiento digital\práctica\prac_b40geo.rst
53
116
7.49652786254883E+0001
-7.39885780706206E+0000
2.44101245287123E+0001
-1.16708066723462E+0001
1.46339907192575E+0002
2.66585611223898E+0001
-8.48220435759861E+0001
c:\sensores2\procesmiento digital\práctica\prac_b50geo.rst
126
145
1.35722229003906E+0002
-1.16073622559727E+0000
4.71487547128770E+0000
-4.31424028082403E-0001
2.66585611223898E+0001
1.54957697397041E+0001
-1.03605316940980E+0001
c:\sensores2\procesmiento digital\práctica\prac_b70geo.rst
73
120
8.57800903320313E+0001
8.12429816650957E+0000
-1.19833519884715E+0001
1.34058568826131E+0001
-8.48220435759861E+0001
-1 03605316940980E+0001

2. El archivo con los píxeles de la signatura, con extensión ".spf", posee formato byte-binario y no
puede ser modificado. Se utiliza con el módulo EDITSIG. Contiene todos los píxeles de los campos
15
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

de entrenamiento de una clase en todas las bandas, en el orden especificado en el archivo de


signatura. El primer byte indica el número de píxeles, los bytes sucesivos son los valores de los
píxeles para cada banda. Así, una signatura generada con 25 píxeles en 4 bandas, contendrá 101
bytes.

3. Todas las bandas (imágenes raster) utilizadas en MAKESIG deben tener formato byte-binario.
Se pueden incorporar pseudo-bandas, como los datos procedentes de un Modelo Digital del
Terreno, escalándolas a rango byte, utilizando STRETCH. Utilizar el mínimo y el máximo como
límites superior e inferior y especificar 256 niveles.

4. Los códigos de clase de los campos de entrenamiento deben estar en el rango de 1-255.

5. En esta versión de IDRISI para Windows cada "signatura" se almacena en dos archivos, ".sig" y
".spf". Para eliminar una signatura de la unidad en uso, se deben eliminar ambos. Esto se hace
automáticamente con el comando ELIMINAR, dentro del sub-menú Archivo. Los comandos de
clasificación PIPED, MINDIST y MAXLIKE utilizan el archivo ".sig". El archivo ".spf" se utiliza
para la edición de signaturas.

6. No es necesario definir todos los polígonos de campos de entrenamiento en el mismo archivo


vectorial. De hecho, cada campo de entrenamiento podría aparecer en su propio archivo vectorial,
ejecutando MAKESIG varias veces para crear la serie completa. ¡Sólo debemos asegurarnos que
todas las signaturas se refieren a las mismas bandas en el mismo orden!

7. El número máximo de bandas es siete.

8. Como norma general, el número de píxeles en el conjunto de los campos de entrenamiento de


una misma clase debería ser, al menos, diez veces el número de bandas utilizadas.

Comparación de las firmas espectrales – SIGCOMP -

SIGCOMP compara signaturas creadas con MAKESIG. Representa gráficamente y de forma


simultánea, hasta un máximo de 9 signaturas para todas las bandas mediante un diagrama de
signaturas espectrales (con los niveles digitales medios) o mediante un diagrama de confusión
espectral, que recoge el rango digital a partir de los valores mínimo y máximo.

16
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Diagrama de confusión utilizada para la clasificación por el método de paralelepípedos.

SIGCOMP permite detectar qué signaturas son similares. La opción de diagrama de confusión se
utiliza para la clasificación de paralelepípedos y el diagrama de signaturas (niveles digitales
medios) se utiliza para las clasificaciones de mínima distancia y máxima probabilidad. En una
clasificación de paralelepípedos, al menos una de las bandas debería mostrar categorías
completamente separables en el diagrama de confusión (mínimo/máximo). Si no es así, habrá
confusiones en la clasificación. En las clasificaciones de mínima distancia y máxima probabilidad,
las categorías con signaturas espectrales (medias) muy próximas serán difíciles de distinguir.

17
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Diagrama de signaturas (niveles digitales medios) utilizado para las clasificaciones de mínima
distancia y máxima probabilidad

SIGCOMP: Funcionamiento

En primer lugar, especificar el tipo de visualización: un diagrama de confusión espectral a partir


del mínimo y máximo o un diagrama de signaturas espectrales a partir de la media, o ambos. A
continuación, introducir el número de signaturas a comparar y sus nombres. Pueden compararse un
máximo de 9 signaturas. Pulsar sobre las flechas, orientadas hacia arriba o hacia abajo, para añadir
o eliminar signaturas.

Edición de las firmas espectrales – EDITSIG -

EDITSIG edita un archivo de signaturas generado con MAKESIG. Permite visualizar el histograma
de los valores de los píxeles utilizados para crear la signatura. También permite cambiar los valores
mínimo y máximo de los píxeles utilizados para la caracterización estadística de una determinada
banda. Cualquier cambio conlleva un nuevo cálculo de la media, varianza y covarianza para esa
banda. EDITSIG muestra la nueva media y desviación típica. Este comando se utiliza,
generalmente, en combinación con el proceso de clasificación de paralelepípedos, PIPED, que es
muy sensitivo a los valores mínimo y máximo registrados en cada signatura. Visualizar los
histogramas de cada banda para comprobar si la distribución presenta una curva "normal". Si la
signatura es multimodal, o si existen valores extremos aislados, excluirlos cambiando el mínimo y
el máximo.

EDITSIG: Funcionamiento

En primer lugar, introducir el nombre de la signatura a editar. Presenta una tabla que incluye el
número de bandas utilizadas para crear la signatura y el número de píxeles en el campo de
entrenamiento. También ofrece el mínimo, máximo, media y desviación típica de la signatura en la

18
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

primera banda. Pulsar sobre las flechas (orientadas hacia la derecha y hacia la izquierda) para
cambiar entre bandas.

Pueden cambiarse los límites de los datos incluidos en la signatura introduciendo nuevos valores
para el mínimo y máximo a utilizar en los cálculos. A continuación pulsar sobre la opción
"Actualizar". Por ejemplo, si elevamos el mínimo en una banda, todos los píxeles por debajo del
mínimo serán eliminados para el cálculo de la media y la desviación típica. A continuación se
presenta mayor información sobre el efecto de las modificaciones en las covarianzas: EDITSIG,
utilizado conjuntamente con PIPED, está diseñado, principalmente, para modificar el mínimo y el
máximo. En esta versión, al cambiar el mínimo o el máximo se eliminan solamente los píxeles de la
banda en uso, no los de las otras bandas. Este procedimiento se encuentra en revisión, por lo que
puede cambiar en fechas posteriores.

Presionar la opción "Ver Histograma" para ver el histograma de los datos de los campos de
entrenamiento para esa clase. Nota: el histograma incluye los valores mínimo y máximo para la
visualización del histograma.

También se puede volver a las estadísticas de la muestra original. Solamente presionar la opción
apropiada.

Cuando se abandona el comando, pregunta si se guardarán los cambios en el archivo actual o si se


abrirá un nuevo archivo.

MÉTODOS DE CLASIFICACIÓN SUPERVISADA

En este curso se utilizarán tres métodos de clasificación supervisada: Paralelepípedo, Mínima


distancia a la media y Máxima probabilidad (verosimilitud).

Método del Paralelepípedo (PIPED)

PIPED realiza clasificaciones supervisadas de imágenes de satélite mediante la técnica de


paralelepípedos, a partir de la información contenida en una serie de archivos de signaturas. La
clasificación de paralelepípedos se basa en una serie de umbrales bajos y altos de reflectividad para
cada categoría en cada banda, determinadas por la signatura espectral. Para asignar un píxel a una
clase determinada, éste debe poseer valores de reflectividad dentro del rango de la categoría en
cuestión en cada banda considerada. El proceso de paralelepípedos es el más rápido de los
clasificadores supervisados. También, potencialmente, el menos preciso.

Nd c (k ) − Rc (k ) < Nd (k ) < Nd c (k ) + Rc (k ) ∀1≤k≤n

19
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Clasificador de paralelepípedos. Tomado de Pinilla, 1995, pág. 238.

Funcionamiento

PIPED clasifica una imagen basándose en la información contenida en una serie de archivos de
signaturas. Estos archivos deben haber sido creados, previamente, con MAKESIG o FUZSIG.
Puede indicar, entonces, si desea introducir cada signatura separadamente o va a utilizar un archivo
de Grupo de Signaturas para especificar todo el grupo de una sola vez. Los archivos de Grupo de
Signaturas se crean con el módulo EDIT.

Independientemente de cómo se introduzcan las signaturas, deberá introducir en el cuadro de


diálogo el número de signaturas, el modo en el que se establecerán los umbrales y el nombre de la
imagen de salida.

Para definir los umbrales, existen dos opciones: los valores mínimo y máximo de los campos de
entrenamiento a utilizar o un número específico de desviaciones típicas desde la media (valores Z).
Es preferible utilizar el último y, de hecho, es el utilizado por defecto. Un valor Z de 1,96 excluiría
(p.e. deja sin clasificar) el 5% de los píxeles más alejados de cualquier signatura dada. Del mismo
modo, un valor de 2,58 excluiría el 1% de los píxeles más alejados.

Cuando se han introducido todos los datos, el cuadro de diálogo final mostrará un listado de las
bandas a utilizar en la clasificación. Se puede desactivar cualquiera de las bandas que no desee
utilizar en la clasificación.

Notas

1. El problema de este método es la posible pertenencia de un píxel a dos o más categorías. En


estos casos, el algoritmo de paralelepípedos lo asignaría a la última categoría. Por ello, cuando se
introducen los nombres de las signaturas, deben especificarse en orden inverso de importancia o

20
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

probabilidad, comenzando con el menos importante o probable y finalizando con el mas importante
o probable.

2. Los píxeles cuyo valor queda fuera del rango de todos los paralelepípedos definidos constituirán
la categoría de no clasificados (categoría cero).

Método de Mínima distancia a la media (MINDIST)

MINDIST realiza una clasificación, por Mínima Distancia a las Medias, de imágenes de satélite, a
partir de la información contenida en una serie de archivos de signaturas. La clasificación de
Mínima Distancia a las Medias se basa en la reflectividad media en cada banda para una signatura.
Los píxeles se asignan a la clase con la media más próxima a su valor. Para tener en cuenta las
diferencias en la variabilidad de las signaturas, MINDIST permite normalizar las distancias
espectrales. MINDIST es más lento que el clasificador de paralelepípedos, PIPED, y más rápido
que el clasificador de máxima probabilidad, MAXLIKE. MINDIST se utiliza, generalmente,
cuando el número de píxeles que define las signaturas es muy pequeño o cuando los campos de
entrenamiento no están bien definidos.

n
dc = ∑ ( Nd
i =1
i − Nd ci ) 2

donde: d c es la distancia desde la celda.

Clasificador de mínima distancia a la media. Tomado de Pinilla, 1995, pág. 236.

Funcionamiento

MINDIST clasifica una imagen a partir de la información contenida en una serie de archivos de
signatura. Estos archivos han de crearse, previamente, con MAKESIG o FUZSIG. Seguidamente,
puede introducir cada signatura individualmente o utilizar un Archivo de Grupo de Signaturas (para

21
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

introducir todo el grupo a la vez. Los Archivos de Grupo de Signaturas se crean con el módulo
EDITAR.

Independientemente de como se vayan a introducir las signaturas, es necesario especificar el


número de signaturas, el tipo de distancia (unidades originales o unidades de desviación típica
(dt)), el radio máximo de búsqueda y el nombre de la imagen de salida.

Es recomendable utilizar la distancia normalizada (unidades de dt), ya que esta opción considera
las diferencias en la variabilidad de las signaturas.

El radio máximo de búsqueda determina la distancia a partir de la cual ningún píxel será
clasificado. Para los ND originales, se debe introducir un número entero de 0 a 255. Para unidades
de desviación típica, se introducirá el número deseado de desviaciones típicas. Estadísticamente, un
valor de 1,96 unidades de desviación típica dejaría cerca del 5% de los píxeles sin clasificar, no
obstante, este número varía considerablemente en función del tamaño de los campos de
entrenamiento usados. Independientemente del tipo de distancia elegido, se puede especificar una
distancia infinita. De este modo, todos los píxeles serán clasificados, independientemente de lo
lejos que se encuentre de la clase más próxima.

Cuando se haya introducido toda la información requerida, aparecerá un listado con las bandas a
usar en la clasificación. Puede suprimirse cualquiera de las bandas que no se desee utilizar.

Este módulo genera una imagen en la que a cada píxel se le asignó un código de clase igual al
número de orden de la signatura correspondiente en el listado de signaturas, y una leyenda que lista
las signaturas por su nombre.

Notas

1. La normalización de la distancia para cada píxel se realiza restando la media a su valor original y
dividiendo el resultado entre la desviación típica.

2. Se ha comprobado que este proceso suele ofrecer muy buenos resultados cuando se utiliza con
distancias normalizadas. Es más rápido que la Máxima Probabilidad y tiene menos restricciones en
la definición de los campos de entrenamiento.

Método de Máxima probabilidad o verosimilitud (MAXLIKE)

MAXLIKE realiza una clasificación de imágenes de satélite, por Máxima Probabilidad, a partir de
la información contenida en una serie de archivos de signaturas. Se basa en la función de densidad
de probabilidad asociada a la signatura de un determinado campo de entrenamiento. Los píxeles se
asignan a la clase más probable, tras comparar la probabilidad de que cada píxel pertenezca a cada
una de las signaturas consideradas. MAXLIKE es también conocido como un clasificador
Bayesiano, ya que puede incorporar conocimiento a priori utilizando el Teorema de Bayes. El
conocimiento a priori se expresa como la probabilidad a priori de que cada clase exista. Esto puede
especificarse como un valor aplicable a todos los píxeles, o como una imagen representando
diferentes probabilidades para cada píxel.

22
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

Considerando la probabilidad a priori, el clasificador bayesiano asignará el vector z a la clase wi y


no a cualquier otra wj si, y solo si:

P(z/wi) p(wi) ≥ P(z/wj) p(wj) ∀ j≠i; j = 1,...,n

Clasificador de máxima verosimilitud extendido a dos bandas. Tomado de Pinilla, 1995, pág. 242.

Funcionamiento

MAXLIKE clasifica una imagen basándose en la información contenida en una serie de archivos
de signaturas, que deben crearse previamente con MAKESIG o FUZSIG. En primer lugar, debe
especificar si desea introducir cada signatura por separado o utilizar un Archivo de Grupo de
Signaturas (que contenga todas las signaturas a utilizar). Los Archivos de Grupo de Signaturas se
generan con el módulo EDITAR.

Si selecciona introducir cada signatura por separado, deberá especificar el número de signaturas a
utilizar en la clasificación. Los tres siguientes parámetros son: definir el modo en que se
considerarán las probabilidades a priori, la proporción de píxeles que quedarán sin clasificar y el
nombre de la imagen de salida.

Existen varias opciones de introducir probabilidades a priori. Cuando no exista un conocimiento de


la probabilidad a priori de que aparezca cada clase, deberá utilizarse la opción "usar la misma
probabilidad para todas las signaturas" (opción por defecto). Si existe un conocimiento razonable
del área proporcional ocupada por cada clase en la imagen completa, podría utilizarse la segunda
opción "especificar un valor de probabilidad a priori para cada signatura". Así, si se estima que el
42% del área estará ocupada por un tipo dado de cubierta, la probabilidad a priori de esa clase es
0,42. La tercera opción es introducir probabilidades a priori mediante una imagen raster de
números reales (con valores entre 0 y 1) para cada signatura. Esto permite incorporar modelos
espaciales de predicción en la determinación de las probabilidades a priori. Por ejemplo, podríamos
pensar que la probabilidad a priori de que un área que en el pasado era forestal sea una zona
23
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

residencial en la actualidad es muy probable en los sectores próximos a carreteras y poco probable
lejos de éstas. Esto puede expresarse fácilmente mediante esta opción ya que cada píxel posee su
propia probabilidad a priori. La suma de probabilidades para cada píxel debe ser 1,0. La última
opción es una combinación de las dos anteriores, permite especificar un valor o una imagen de
probabilidades. En todos los casos, excepto en el de "usar la misma probabilidad", las
probabilidades a priori se especifican en el segundo cuadro de diálogo.

MAXLIKE permite excluir una proporción específica de los píxeles menos significativos de
cualquier clasificación. Esto hace que los píxeles con menores probabilidades de pertenecer a
cualquiera de las clases definidas por las signaturas, queden sin clasificar. Normalmente esta
proporción se especifica con la ayuda de una tabla de Distribución de la Ji-Cuadrado. En este
módulo, se ha creado una pequeña tabla para los casos de 0% (donde todos los píxeles son
clasificados) 1% y 5%. También puede introducirse el valor de la Ji-Cuadrado directamente.

Cuando se hayan completado todas estas opciones, el cuadro de diálogo final mostrará un listado
con las bandas a utilizar en la clasificación. Puede suprimirse cualquiera de las bandas que no se
desee utilizar en la clasificación.

Este módulo genera una imagen en la que a cada píxel se le asignó un código de clase igual al
número de orden de la signatura correspondiente en el listado de signaturas, y una leyenda que lista
las signaturas con su nombre.

Notas

1. El proceso utilizado en este módulo se basa en las ecuaciones publicadas en Richards, J.A.,
(1986) Remote Sensing Digital Image Analysis, (Berlin: Springer-Verlag).

2. Debemos asegurarnos que los datos son adecuados para utilizar este clasificador. En general, la
muestra de píxeles debe ser al menos igual a diez veces el número de bandas. Esto se puede
verificar usando EDITSIG.

3. El clasificador de Máxima Probabilidad ofrece buenos resultados cuando los campos de


entrenamiento están bien definidos (p.e., son razonablemente homogéneos). No obstante, cuando
no están bien definidos puede resultar poco adecuado. En estos casos es mejor utilizar el
clasificador de Mínima Distancia a las Medias (MINDIST).

4. El número máximo de signaturas es 200 y el número máximo de bandas es siete.

Análisis Discriminante Lineal (Clasificador Fisher)

El último clasificador a ser discutido en esta sección es más difícil para describir gráficamente. El
clasificador FISHER conduce un análisis discriminante lineal de los datos del sitio de
entrenamiento para formar un grupo de funciones lineales que expresen el grado de apoyo por cada
clase. La clase asignada a cada píxel es entonces esa clase que recibe el apoyo más alto luego de la
evaluación de todas las funciones. Estas funciones tienen una forma similar a la de una ecuación de
regresión lineal multivariada, donde las variables independientes son las bandas de la imagen, y la
variable dependiente es la medida del apoyo. En realidad, las ecuaciones son calculadas de manera
tal que maximizan la varianza entre clases y minimizan la varianza dentro de las clases. El número
24
Instituto de Recursos Naturales y Ecodesarrollo UNIVERSIDAD NACIONAL DE SALTA
ESCUELA DE RECURSOS NATURALES FACULTAD DE CIENCIAS NATURALES

SISTEMAS DE INFORMACIÓN GEOGRÁFICA Y ORDENACIÓN TERRITORIAL

de ecuaciones es igual al número de bandas, cada una describe un hiperplano de apoyo. Las
intersecciones de estos planos luego forman los bordes entre clases en el espacio de banda.

De los cuatro clasificadores supervisados rígidos, MAXLIKE y FISHER son los más poderosos.
También son los más lentos para calcular. Sin embargo, con sitios de entrenamiento de alta calidad
(es decir, homogéneos), ambos son capaces de producir excelentes resultados.

25

También podría gustarte