Está en la página 1de 22

MÓDULO 2: TEÓRICO

Índice

1. Los satélites y sus órbitas 1

1.1. Parámetros Orbitales ....................................................................................................................... 2

1.2. Plataformas Espaciales según su función ....................................................................................... 3

2. Sensores de teledetección Espacial 4

3. Resolución de un sistema satelital 5

4. La imagen satelital 12

4.1. La estructura de la imagen de satélite ...........................................................................................13

4.2. La adquisición de datos .................................................................................................................13

4.3. Detección digital de la energía electromagnética ..........................................................................15

5. Disponibilidad de datos satelitales 17

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Teórico Unidad 2: Plataformas satelitales

Esta unidad tiene como objetivo que los estudiantes incorporen conocimientos sobre las plataformas
satelitales, los tipos y clasificaciones de los satélites según su órbita y según su aplicación, así como
también las características de los sensores que lleva a bordo. Se desarrollarán conceptos comunes a todos
los sensores espaciales como su resolución espacial, temporal, radiométrica, revisita, etc. Se le brindará al
alumno, además, la información acerca de la disponibilidad de datos satelitales. Finalmente se brindará un
panorama sobre las misiones satelitales argentinas.

1. Los satélites y sus órbitas

Un satélite es cualquier objeto que orbita alrededor de otro. Los satélites de teledetección han sido
diseñados para la observación del medio ambiente de la Tierra y la evaluación de sus recursos naturales.
El primero y más conocido satélite de teledetección fue el Landsat-1 del programa Landsat lanzado en
1972. Desde entonces han sido lanzados muchos por diversos países. En general los satélites pueden
clasificarse a partir de su órbita y su función.

Según sus órbitas los satélites se clasifican en: geosincrónicos y heliosincrónicos, tal como se muestra
en la figura 1.

Los primeros, también llamados geoestacionarios, están colocados en órbitas muy alejadas, lo que les
permite sincronizarse al movimiento de rotación de la Tierra y observar siempre la misma zona. Además,
al estar en órbitas muy alejadas pueden observar una gran porción de la Tierra, que los hace aptos para
determinaciones meteorológicas. Al estar situados siempre sobre la misma posición relativa a la Tierra,
proporcionan la mejor resolución temporal posible. Estos satélites están a una altura de aproximadamente
36000 km y viajan a una velocidad de 3.08 km/s aproximadamente. Por el contrario, se denomina
plataformas móviles a aquellas que observan distintas zonas del planeta. Estas órbitas pueden ser elípticas
o circulares (es lo ideal para observar todos los puntos a la misma altura). Estas órbitas suelen ser
polares, de este modo se aprovecha el movimiento de la Tierra para observar el mismo punto cada cierto
tiempo y cubrir la mayor superficie. Durante el vuelo de polo a polo, la Tierra gira debajo del satélite y
este cubre franjas, que luego se juntan para formar la imagen global. Generalmente la altura y la
velocidad de la plataforma se calculan para que esta observe cada porción de la tierra a una hora fija,
estas órbitas se denominan heliosincrónicas. Para esto el plano orbital debe girar lentamente respecto a
la Tierra, aproximadamente 1 grado por día, para mantenerse sincronizado con el movimiento alrededor
del Sol. Estos satélites tienen una altura orbital de entre 600 y 850 km.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 1: Tipos de órbitas: geoestacionaria y polar.

La elección de la órbita de un satélite es determinada por las características de la misión. Si se


desean observar fenómenos globales, en una gran superficie y muy dinámicos, se trabaja con satélites
geoestacionarios. Por el contrario, si se necesita un mejor detalle en la observación se utilizan plataformas
con órbitas más bajas, con la correspondiente pérdida en frecuencia de cobertura (Chuvieco, 2002).

1.1. Parámetros Orbitales

Los parámetros orbitales son un conjunto de cantidades que permiten definir la órbita de un satélite
alrededor de la Tierra de forma unívoca. Permiten situar y controlar el objeto en órbita, como se muestra
en la figura 2. Definiremos antes el punto vernal: es el punto en el que el ecuador celeste (la proyección
del Ecuador geográfico) corta el plano de la eclíptica (el formado por la órbita de la tierra alrededor del
sol), el cuál determina el equinoccio de primavera. Actualmente está situado en la constelación de Piscis,
pero su posición se va desplazando, en un ciclo de varios miles de años, a causa de la precesión de los
equinoccios.

Inclinación: La inclinación de la órbita es el ángulo que forma su plano con el plano del Ecuador.
Define la latitud más alta alcanzada.

RAAN – Ascensión recta del nodo ascendente: Es el ángulo que forma el radio terrestre que pasa
por el nodo ascendente de la órbita, con la dirección del punto vernal (ver fig. 2).

Argumento del perigeo: Nos informa de la orientación de la órbita con el propio plano. Esta posible
inclinación es la del eje mayor de la órbita con la línea de nodos (ver fig. 3).

Excentricidad: Nos define el grado de excentricidad de una órbita respecto a un círculo. Estos valores
variarán entre 0 y 1. Su valor se obtiene del cociente entre la distancia de los focos de la elipse y el
eje mayor. Este parámetro afectará a la uniformidad de la velocidad del satélite, aumentando esta al
aumentar el radio.

Movimiento medio: Es el número de revoluciones completa que recorre el satélite en un día. Se mide
por el número de veces que atraviesa el perigeo en los 1440 minutos que dura el día solar. Se utiliza

TEÓRICO MÓDULO 2 – Plataformas


satelitales
para calcular la posición del satélite multiplicando este valor por el número de días desde una órbita
de referencia.

Decaimiento: Es la variación del movimiento medio, nos permite conocer la desaceleración del
satélite. Es producida por el rozamiento del satélite con las capas altas de la atmósfera durante el
perigeo, el resultado es una ligera disminución de la duración de las órbitas.

Anomalía media y efectiva: La anomalía media es la fracción de un período orbital que ha ocurrido,
expresada en ángulos, considerando que el satélite se mueve con una velocidad angular constante.
La anomalía efectiva es el ángulo que forma el vector que va desde el centro de la Tierra hasta el
satélite con el que va desde el centro de la Tierra hasta el perigeo. Si bien el valor real es la anomalía
efectiva, la media sirve para simplificar los cálculos computacionales.

Número de órbita: Es el número de órbitas que ha recorrido el satélite hasta el momento que se
toman los datos.

Epoch: Es un número que indica el momento en que fueron fijados los datos para un determinado
satélite.

Figura 2: Parámetros orbitales.

1.2. Plataformas Espaciales según su función

Existen varios tipos de plataformas usadas en la teleobservación, como por ejemplo satélites, barcos,
boyas, aviones, etc.; y muchos son los beneficios que motivan la utilización de plataformas espaciales
(Rees, 2001; CSC NOAA).

Según su función podemos distinguir varios tipos de plataformas espaciales: de investigación científica,
meteorológicos, comunicaciones, navegación, observación de la Tierra y militares (Chuvieco, 2002). Según
su tamaño podemos hablar de microsatélites con pesos menores de 50 kg, como el UNAMSAT-1 (1995)
que pesa 10.7 kg (Xe1RCS), o de satélites grandes de varias toneladas como la Estación Espacial MIR
(MIR) o la Estación Espacial Internacional (International Space Station).

Sputnik 1 fue el primer satélite artificial de la historia, lanzado en 1957 por la Unión Soviética y desde
entonces más de 26.000 objetos (entre satélites, naves y otros) han orbitado la Tierra. En la actualidad se

TEÓRICO MÓDULO 2 – Plataformas


satelitales
cree que hay más de 10.000 objetos fabricados por el hombre dando vueltas alrededor de nuestro planeta,
de los cuales, alrededor de 3000 son satélites en actividad (NASA Worldbook).

Algunas plataformas y constelaciones son:

Meteorológicos: METEOSAT, GOES, GMS, TIROS

Recursos: LANDSAT, SPOT, IRS, RADARSAT, SEASAT, The Global Precipitation Measurement
(GPM)

Comerciales de Alta Resolución: IKONOS, QUICKBIRD, ORBVIEW

Misiones Científicas: ENU, SAT, ERS, EOS, ARIES

Comunicación: Inmarsat, Morelos, Solidaridad

Constelaciones y Sistemas de Navegación: Globalstar, GLONASS, GPS, IRNSS, Galileo, Beidou

2. Sensores de teledetección Espacial

Un sistema satelital está formado tanto por la plataforma satelital (o plataforma de servicio) como por
los sensores que lleva a bordo (carga útil). Entre las variadas formas de clasificar los sensores remotos, se
pueden distinguir dos tipos básicos:

Sensores pasivos: se limitan a recibir la energía emitida o reflejada por un foco natural exterior a
ellos. Por ejemplo, los sensores ópticos, cuya fuente de iluminación es el sol. Los sensores pasivos
de antena se conocen con el nombre de radiómetros de microondas. (Chuvieco, 2002)

Sensores activos: son capaces de emitir su propio haz de energía mediante fuentes internas.
Un ejemplo lo constituye el RADAR ((Radio Detection and Ranging) que opera en la región del
microondas del espectro electromagnético.

A los sensores pasivos podemos clasificarlos según su procedimiento para recibir la radiación
procedente de los objetos: fotográficos, óptico-electrónicos y de antena.

En las cámaras fotográficas la imagen es registrada en una emulsión química sensible, generalmente,
a la radiación visible y al infrarrojo próximo, con el apoyo de un sistema óptico que permite controlar las
condiciones de exposición. Las cámaras convencionales tienen el inconveniente de que solo pueden
usarse en misiones de corta duración, puesto que la película fotográfica tiene una limitación material.
Para misiones de larga duración se usan cámaras del tipo Vidicon (Chuvieco, 2002; Sobrino, 2000). Los
sensores óptico-electrónicos combinan una óptica más o menos similar a la fotografía, con un sistema de
detección electrónica, y evitan la dependencia con una superficie sólida de grabación.

Los sensores recogen información de la superficie terrestre debido al movimiento de barrido del satélite
o bien del mismo sensor. Los más habituales en teledetección espacial son los exploradores de barrido
(scanners o whiskbroom): un espejo móvil, que oscila perpendicularmente a la dirección de la trayectoria,
les permite explorar una franja de terreno a ambos lados de la traza del satélite. La radiancia recibida por
este componente óptico se dirige a una serie de detectores, que la amplifican y convierten a una señal
eléctrica.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Con la puesta en órbita del satélite SPOT se introdujo un nuevo sistema de exploración que prescinde
del espejo oscilante, denominado explorador de empuje o tipo cepillo (pushbroom). Estos disponen de una
línea de detectores que cubre todo el campo de visión del sensor, y se va excitando con el movimiento
orbital del satélite.

3. Resolución de un sistema satelital

Debemos tener en cuenta que un sistema satelital real tiene distintas características que se deben
considerar al querer analizar un problema utilizando imágenes satelitales. Así, por ejemplo: ningún sensor
es sensible a todas las longitudes de onda. Es decir, tiene límites en la sensibilidad espectral. También
hay un límite en el objeto más pequeño sobre la superficie de la Tierra que puede distinguir del entorno.
Esta limitación se denomina resolución espacial. Por consiguiente, la elección de un determinado sistema
satelital para determinada tarea siempre involucra analizar ventajas y desventajas (trade-offs).

A continuación, analizaremos las principales características a tener en cuenta al elegir una fuente de
datos. Definiremos 4 resoluciones que son características de todo sistema satelital: Resolución espacial,
espectral, temporal y radiométrica. Incluiremos además la resolución angular, un concepto relativamente
nuevo. Trataremos cada una de ellas en detalle.

Resolución Espacial

Se refiere al objeto más pequeño que el sensor puede distinguir en una imagen. Suele medirse como
la distancia en el terreno que corresponde a la mínima unidad de información de la imagen (pixel). Se
relaciona con el campo instantáneo de visión IFOV (Instantaneous Field of View), del sensor. El IFOV
es una medida del área vista por un único detector en un instante de tiempo determinado.

En la figura 3 se presenta el IFOV, y en la 4 el ancho de barrido del sensor, dado por el ángulo de
visión FOV (Field of View) del sensor . El ancho de barrido (Swath) es el área sobre la tierra que cubre el
sensor en una pasada del satélite. Como veremos en la siguiente sección, un sensor lineal posee una
línea de detectores ubicados uno junto al otro en la cual, cada uno de ellos posee un IFOV, es decir, cada
uno de ellos ve un pixel sobre el suelo y en conjunto alineados barren el swath sobre la superficie de la
Tierra. El swath puede variar desde unos pocos kilómetros hasta 3060 km como el satélite Suomi National
Polar-orbiting Partnership (NPP).

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 3: Representación gráfica de los conceptos de FOV, IFOV, pixel, y líneas de barrido.

Figura 4: Ancho de barrido (Swath) de un sensor.

Se pueden detectar objetos más pequeños que el tamaño del píxel, si éstos contrastan con el medio en
el que se encuentran, como rutas, o patrones de drenaje por ejemplo. En las figuras 5, 6 y 7 se muestran
tres imágenes de baja a mediana resolución en las que se puede ver la Ciudad de Buenos Aires cada vez
con mayor detalle y a la vez, la pérdida de vista global en la medida que aumenta la resolución espacial.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 5: Imagen MODIS, 1 km de resolución espacial

Figura 6: Imagen SAC-C del Río de la Plata, 175 metros de resolución espacial (Fuente: CONAE).

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 7: Imagen Landsat de Ciudad de Buenos Aires, de 30 metros de resolución espacial.

En las Figuras 8 y 9 siguientes se presentan una imágenes de alta resolución


espacial donde puede observarse el aumento en el nivel de detalle de la imagen.
(http://www.comunidadism.es/blogs/los-satelites-de-alta-resolucion)

Figura 8: Imagen Ikonos de la Ciudad Olímpica de Barcelona, 1 metro de resolución espacial.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 9: Imagen QUICKBIRD de una zona portuaria, de 0.6 metros de resolución espacial.

Resolución espectral

La resolución espectral está definida por al intervalo de longitudes de onda en el espectro


electromagnético (ancho de banda, ∆λ) que un sensor puede registrar y por la cantidad de bandas
en las cuales registra la energía. El ∆λ registrado por el detector, está definido por el intervalo de λ donde
la intensidad de la señal es ≥ 50 % del pico de la señal. La figura representa el ancho de banda o resolución
espectral de un sensor de 10 µ m de ancho de banda (Figura 10).

Bandas más anchas significan resolución espectral más baja; las bandas más angostas significan
una resolución espectral más alta. Por ejemplo, la banda 1 del sensor del Thematic Mapper de Landsat
5 tiene alta resolución espectral pues registra energía entre 0,45 y 0,52 mm ( ∆λ = 0,07mm) de la parte
visible del espectro; mientras que, el sensor pancromático del SPOT se considera que tiene una resolución
espectral baja porque registra EMR entre 0,51 y 0,73 mm (∆λ = 0,22mm) . Un sensor que observa en tres
bandas o más, se denomina Multiespectral, mientras que si observa en más de 100 bandas se denomina
hiperespectral (Figura 11).

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 10: Resolución espectral o ancho de banda de un detector, en este caso es de 0,1 µm.

Figura 11: Resolución espectral: izquierda corresponde a un sensor multiespectral (más de tres bandas), derecha corresponde a
uno hiperespectral (más de 100 bandas). Créditos: Carlos Duarte

Resolución temporal

La resolución temporal se refiere a la frecuencia con que el sensor obtiene una toma de imágenes de
un área en particular. Se lo denomina tiempo de revisita. Por ejemplo, el satélite Sentinel 2 puede ver la
misma área sobre el Ecuador una vez cada 10 días. SPOT, por otro lado, visita la misma área de la tierra
cada 26 días.

Nota: la resolución temporal es un factor importante para considerar en el estudio de la detección de


cambios.

Resolución radiométrica

La resolución radiométrica se refiere al rango dinámico, o el número de niveles en los cuales se


almacena la energía registrada en cada banda. Esto tiene relación con el número de bits en los cuales se
divide la energía registrada. Por ejemplo, en datos de 8 bits, el rango de los valores de datos de 0 a 254
por cada píxel, pero en datos de 10 bits, el rango de los valores de datos por cada píxel es de 0 a 1024. Es
decir, los niveles de gris. Alta resolución radiométrica es útil para registrar las variaciones sobre el océano,
pues dichas variaciones son pequeñas.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Resolución angular

La resolución angular es un concepto relativamente nuevo, que se refiere a la capacidad de un sensor


de observar la misma zona desde distintos ángulos. Como las superficies en general no son Lambertianas
(es decir, no reflejan por igual en todas las direcciones) es necesario observar las cubiertas desde distintas
posiciones. Esto resulta de gran interés también para estimar algunas variables atmosféricas, ya que al
observar desde distinto ángulo varía también el espesor atmosférico. Hasta hace unos años los estudios
de este tipo se basaban en observaciones de sensores de amplio barrido que observaban la superficie
de distintos ángulos según la posición de su órbita. En los últimos tiempos se han diseñado sensores que
poseen capacidad de observación simultánea en distintos ángulos, siendo una solución mucho más
adecuada.

Figura 12: Relación entre resoluciones espaciales y temporales según la aplicación. Extraído de Jensen (2014).

TEÓRICO MÓDULO 2 – Plataformas


satelitales
4. La imagen satelital

Una imagen es una representación digital de un objeto. Las imágenes que brindan los sensores
montados sobre plataformas satelitales son representaciones digitales de la Tierra. Teniendo en cuenta
que los datos que capta el sensor son cantidades de energía electromagnética, es decir números que se
almacenan en “archivos imagen”.
Las imágenes como las vemos en la siguiente figura se obtienen cuando se despliega el archivo en sobre
una pantalla.
Lo que muestra cada pixel (picture element) es cuanta energía emitió y reflejó, en promedio, esa porción de
terreno registrada en ese momento por el sensor.

Figura 13: Diferentes ejemplos de una imagen satelital.

Las imágenes son el resultado de un instrumento Barredor (Scanner) o Radiómetro barredor (Scanning
Radiometer). Este instrumento tiene un campo visual angosto que barre una superficie para producir una
imagen. Los datos de la imagen vienen ordenados por líneas de barrido, cada una dividida en elementos o
pequeñas muestras conocidas como píxeles o “scan spot”.

El ancho del barrido (ancho de la escena observada) está definido por el ángulo (FOV). El ángulo de
observación instantáneo (IFOV), se expresa en mrad y subtiende un área sobre la superficie. El punto
subsatélite, es el elemento observado cuando el sensor está exactamente en la vertical. La figura 3 ilustra
las definiciones anteriores.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
4.1. La estructura de la imagen de satélite

Los datos que contiene una imagen satelital son números que indican la cantidad de energía reflejada.
Estos números se organizan en forma de matriz (filas x columnas), cada celda expresa el valor promedio
de la energía reflejada por la unidad de superficie captada por el sensor y corresponde a un pixel en la
imagen vista en la pantalla. Esto se esquematiza en la siguiente figura.

Figura 14: Esquema de la estructura matricial de la imagen satelital

A su vez, los sensores pueden captar datos en diferentes regiones del espectro electromagnético, que
se almacenan en matrices separadas, por lo que una imagen satelital puede estar conformada por 1 o
varias matrices, también conocidas como bandas espectrales.

Figura 15: Esquema de las bandas de una imagen satelital

4.2. La adquisición de datos

Hemos considerado hasta aquí las principales fuentes de energía electromagnética, la propagación de
la energía a través de la atmósfera y la interacción de la energía con los elementos de la superficie de la
Tierra.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Estos factores combinados dan como resultado la "señal"que es la energía de la cual queremos extraer
información.
Consideraremos entonces los procedimientos mediante los cuales las señales se detectan, se registran y
se interpretan.

La detección de la energía electromagnética se realiza por fotografía o electrónicamente.


El proceso fotográfico usa reactivos químicos sobre la superficie de una película sensible a la luz para
detectar variaciones de energía en la escena. Este sistema tiene la ventaja de que es relativamente simple,
económico y posee alto grado de detalle espacial y buena geometría.
En la actualidad se usan los sensores electrónicos que generan una señal eléctrica que corresponde a
las variaciones de energía de la escena original. Luego, la señal se convierte a una imagen por el uso
de una pantalla que despliega los datos registrados. Un ejemplo familiar de un sensor electrónico es una
cámara de video. Es más complejo y caro que la fotografía, los sistemas electrónicos tienen ventajas
puesto que registran en un rango espectral mayor, se calibran con mayor precisión y se puede hacer la
transmisión electrónica de los datos.

En Teleobservación es importante distinguir entre imagen y fotografía.


Una imagen se refiere a cualquier representación pictórica, independientemente de la longitud de onda o
el sensor remoto utilizado para detectar y registrar la energía electromagnética. Una fotografía se refiere
específicamente a imágenes que han sido detectadas y registradas en película fotográfica. Las fotos
normalmente se toman en un rango de longitudes de onda entre 0.3 a 0.9 micrones, es decir en el
visible e infrarrojo cercano. Basado en estas definiciones podemos decir que todas las fotografías
son imágenes, pero no todas las imágenes son fotografías. En Teleobservación, el término fotografía
se reserva para imágenes detectadas y registradas en película fotográfica. El término imagen se usa para
cualquier representación pictórica de los datos de la imagen, como por ejemplo, las imágenes térmicas.
El proceso de interpretación de los datos tomados por sensores remotos involucra un análisis visual de la
imagen y un análisis digital. La interpretación visual de la imagen ha tenido mucha importancia por mucho
tiempo en teleobservación. Las técnicas visuales hacen uso de la habilidad de la mente humana para
evaluar cualitativamente rasgos (patterns) en una imagen. La capacidad de hacer evaluaciones subjetivas
basadas en la selección de algunos elementos de la imagen es esencial para esta interpretación; aunque,
tiene desventajas porque, por ejemplo, las características espectrales no pueden ser bien evaluadas en la
interpretación visual. En aquellas aplicaciones donde los patrones espectrales son significativos en cuanto
a la cantidad de información que proveen, el análisis digital es prioritario.

El carácter digital de la imagen se ilustra en las siguientes figuras:

TEÓRICO MÓDULO 2 – Plataformas


satelitales
La imagen a la derecha parece una fotografía continua,
pero en realidad está compuesta por una matriz de dos
dimensiones de elementos discretos o píxeles. La
intensidad de cada pixel corresponde al brillo promedio de
la radiancia o reflectancia, medido electrónicamente sobre
un área en el suelo correspondiente a cada pixel.

En la figura a la derecha, se muestra la ampliación del


pequeño círculo negro de la figura anterior. Al contrario de
la figura anterior, donde los píxeles individuales son casi
imposibles de distinguir, en esta zona ampliada de 11 filas
por 11 columnas, los pixeles son fáciles de observar.

En la figura a la derecha, se muestran los números digitales


(DN) correspondientes a la radiancia promedio medida en
cada pixel. Estos valores son números enteros positivos
que resultan de cuantificar la señal eléctrica original del
sensor usando un proceso llamado conversión analógica a
digital (A-a-D). La señal eléctrica original del sensor es
una señal analógica continua.

4.3. Detección digital de la energía electromagnética

Los sensores digitales obtienen una señal eléctrica continua que corresponde a variaciones de energía
en la escena original. La siguiente figura es una representación gráfica del proceso de conversión A-a-D.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Figura 16: Proceso de conversión analógico a digital. Extraído de Lillesand y Kiefer. (1994)

Esta señal eléctrica continua se muestrea en una serie de intervalos de tiempo y se registra
numéricamente en cada punto de muestreo (a, b, c, , i, j,k, como se ve en la figura 4).
La frecuencia de muestreo de una señal particular está determinada por la frecuencia más alta de cambio
de la señal. La frecuencia del muestreo debe ser por lo menos el doble de la frecuencia más alta presente
en la señal original para que se represente adecuadamente la variación de la señal. En la figura 4 se
muestra la señal proveniente del sensor en términos de un voltaje en el rango de 0 a 2 voltios. Los DN
de salida son enteros en el rango de 0 a 255. Un voltaje de 0.46 registrado por el sensor en a, podría
quedar registrado como un DN de 59. Los DNs que constituyen una imagen digital se registran en rangos
numéricos de:

0 a 63
0 a 127
0 a 255
0 a 511
0 a 1023

Estos rangos representan el set de enteros que se pueden registrar usando 6, 7, 8, 9 o 10 bits.

26 son 64
27 son 128
28 son 256
29 son 512
210 son 1024

Con este formato numérico se puede analizar la imagen con la computadora. Estas técnicas permiten un
mejor estudio de los patrones espectrales obtenidos por teleobservación, permitiendo el análisis de gran
cantidad de datos. Así como el análisis computacional permite distinguir patrones espectrales que el ojo
humano no puede, el ojo puede realizar una mejor evaluación de patrones espaciales. Por lo tanto,
ambos análisis se complementan. Se debe destacar la importancia de la toma de datos in situ o de
campo. De referencia!!

TEÓRICO MÓDULO 2 – Plataformas


satelitales
5. Disponibilidad de datos satelitales

Frecuentemente ante la pregunta ¿De dónde bajo imágenes satelitales? la respuesta suele ser
Depende. Entonces: ¿de qué depende la descarga de imágenes?

Principalmente del objetivo de estudio o uso de la información espacial. Debemos definir claramente
nuestra meta antes de comenzar la búsqueda o el desarrollo de datos. Asimismo, debemos considerar los
detalles de los datos de censado remoto, para entender tanto su potencial como sus limitaciones (Weg,
2016).

Estos datos tienen la particular ventaja de habilitar una visión panóptica del terreno que no se obtendría
solamente con trabajo de campo. Dependiendo del objetivo de nuestro proyecto estos datos pueden
constituir la base de nuestro análisis o ser el punto inicial de un trabajo subsecuente(Weg, 2016).

Una vez definido nuestro o nuestros objetivos, el paso siguiente es aventurarse a descubrir que
información espacial está disponible, sea en formato de raster o de vector, de dato crudo o de producto ya
elaborado. Las chances de encontrar información sobre el área y tema de estudio, son frecuentemente
altas. Sin embargo, debemos estar preparados para hacer concesiones. Puede suceder que los sensores
disponibles no pasen sobre la totalidad del área de estudio, en la época requerida o que la cobertura de
nubes sea demasiado alta en la escena. Necesitamos tener un criterio en cuanto al año, las estaciones del
mismo que son mejores para el fenómeno en estudio o en todo caso, cual época o área sería aceptable
o las alternativas existentes, cuando las condiciones ideales no son las que se encuentran. En general,
los compromisos se hacen en cuanto al tiempo y al espacio de la información espacial. No hay datos
correctos o incorrectos, solo datos con ventajas y desventajas(Weg, 2016).

La siguiente no es una lista exhaustiva de portales web con descarga de información espacial, ya que
tanto la información espacial sobre recursos marinos y terrestres como la disponibilidad de la misma, crece
constantemente.
Sin embargo, en la misma podrán encontrar sitios de descarga de imágenes ópticas, radar, vectores, de
satélites de la CONAE, de la ESA y de la NASA, datos socioeconómicos y geoespaciales, del océano, de
la atmósfera y de la biósfera. Además, muchos de estos sitios ofrecen datos auxiliares como fronteras, ríos,
rutas. Los invitamos a que ingresen y exploren estos sitios y ante cualquier duda, por favor consulten.

(Catálogo CONAE)

(Datos de IGN)

(USGS Earth Explorer)

(NASA Ocean Color)

(Alaska SAR Facility ASF)

(Copernicus Services Data Hub)

(NASA Earthdata Search)

(NASA World View)

(NASA DAACs)

(CEOS: WGISS Integrated Catalog)

TEÓRICO MÓDULO 2 – Plataformas


satelitales
(NASA GIOVANNI)

(Landcover ESDI)

El sitio web de Remote Sensing for Biodiversity & Conservation mantiene actualizada la lista de portales
con acceso a información espacial.

Importante
Recuerden, como se vio en las secciones anteriores, que los sensores y los datos que proveen tendrán
diferentes resoluciones espaciales, temporales y espectrales. Por dicha razón es que enfatizamos el
tener claro el objetivo de uso de la información espacial al momento de bajar imágenes satelitales.

Band λ (nm) Bandwidth (nm) Coastal Spatial Global Spatial Applications


Resolution (m) Resolution (m)
B0 412 10 200 800 Coloured Dissolved Organic Matter-Chl separation
B1 443 10 200 800 Chl-a Absorption maximum,
band ratio for Chl-a retrieval
B2 490 10 200 800 Chl-a band ratio algorithm and other pigments
B3 510 10 200 800 Chl-a band ratio algorithm Turbidity,
red tides, strong O3 absorption
B4 555 10 200 800 Bio-optical algorithms, turbidity
B5 620 10 200 800 Cyanobacteria, suspended sediment
phycocyanin, Turbidity
B6 665 10 200 800 Chl-b, baseline of fluorescence signal, Turbidity
B7 680 7.5 200 800 Chl- a Fluorescence line peak
B8 710 10 200 800 FLH baseline, HABs detection,
Chl in highly turbid water,
turbid water atmospheric correction
B9 750 10 200 800 Atmospheric correction open ocean
B10 765 10 400 400 Atmospheric correction open ocean, aerosol altitude,
molecular absorption. Cloud altitude and screening
B11 865 20 200/400 800 Atmospheric correction open ocean,
water vapor reference over the ocean, Turbidity
B12 1044 20 400 - Atmospheric correction turbid water, Turbidity
B13 1240 20 400 - Atmospheric correction turbid water, Turbidity
B14 1610 60 400 - Atmospheric correction turbid water

Tabla 1: Bandas en el visible e infrarojo previstas para SABIA-Mar.

λ (nm) Wavelenght (nm) Bandwidth (nm) Spatial Resolution Spatial Resolution NE∆T ( ◦ K) Applications
Coastal (m) Global (m)
B15 10800 900 400 - 0.3 Cloud, SST.
B16 11800 900 400 - 0.3 Cloud, SST.

Tabla 2: Bandas en el térmico previstas para SABIA-Mar.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Lista de Acrónimos

GPS Sistema de posicionamiento Global

SPOT Satellite Pour l’Observation de la Terre (Satélite Para la Observación de la Tierra).

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Glosario

Satélite: Es un objeto qeu gira alrededor de otro.

Satélites de teledetección: satéltes han sido diseñados para la observación del medio ambiente de la
Tierra y la evaluación de sus recursos naturales.

Satélite Geoestacionarios: están colocados en órbitas muy alejadas, lo que les permite sincronizarse al
movimiento de rotación de la Tierra y observar siempre la misma zona.

Satélite Heliosincrónico: tienen órbitas elípticas o circulares (es lo ideal para observar todos los puntos
a la misma altura). Estas órbitas suelen ser polares, de este modo se aprovecha el movimiento de la
Tierra para observar el mismo punto cada cierto tiempo y cubrir la mayor superficie. Durante el vuelo
de polo a polo, la Tierra gira debajo del satélite y este cubre franjas, que luego se juntan para formar
la imagen global.

Sensores pasivos: se limitan a recibir la energía emitida o reflejada por un foco natural exterior a ellos.
Por ejemplo, los sensores ópticos, cuya fuente de iluminación es el sol. Los sensores pasivos de
antena se conocen con el nombre de radiómetros de microondas.

Sensores activos: son capaces de emitir su propio haz de energía mediante fuentes internas. Un ejemplo
lo constituye el RADAR ((Radio Detection and Ranging) que opera en la región del microondas del
espectro electromagnético.

Resolución Espacial: Se refiere al objeto más pequeño que el sensor puede distinguir en una imagen.
Suele medirse como la distancia en el terreno que corresponde a la mínima unidad de información
de la imagen (pixel). Se relaciona con el campo instantáneo de visión IFOV (Instantaneous Field
of View), del sensor. El IFOV es una medida del área vista por un único detector en un instante de
tiempo determinado.

Resolución Temporal: se refiere a la frecuencia con que el sensor obtiene una toma de imágenes de un
área en particular. Se lo denomina tiempo de revisita.

Resolución Espectral: La resolución espectral está definida por al intervalo de longitudes de onda en el
espectro electromagnético (ancho de banda, ∆λ) que un sensor puede registrar y por la cantidad de
bandas en las cuales registra la energía.

Resolución Radiométrica: se refiere al rango dinámico, o el número de niveles en los cuales se almacena
la energía registrada en cada banda. Esto tiene relación con el número de bits en los cuales se divide
la energía registrada.

Imagen Satelital: Una imagen es una representación digital de un objeto. Las imágenes que brindan los
sensores montados sobre plataformas satelitales son representaciones digitales de la Tierra.

Pixel: Picture Element.

TEÓRICO MÓDULO 2 – Plataformas


satelitales
Referencias

Remote Sensing and GIS for Ecologists: Using Open Source Software. Exeter: Pelagic Publishing, UK.,
2016.

Alaska SAR Facility ASF. URL https://earthdata.nasa.gov/about/daacs/daac-asf.

Catálogo CONAE. URL http://catalogos.conae.gov.ar/catalogo/catalogo-de-imagenes.


html.

CEOS: WGISS Integrated Catalog. URL http://ceos.org/ourwork/workinggroups/wgiss/access/


cwic/.

E. Chuvieco. Teledetección Ambiental: La observación de la Tierra desde el Espacio. 2002.

Copernicus Services Data Hub. URL https://scihub.copernicus.eu/.

CSC NOAA. URL http://www.csc.noaa.gov .

Datos de IGN. URL http://www.ign.gob.ar/content/datos-abiertos.

International Space Station. URL https://en.wikipedia.org/wiki/International_Space_


Station.

John R. Jensen. Remote Sensing of the Environment An Earth Resource Perspective Second Edition.
2014.

Landcover ESDI. Global land cover facility earth science data interface. URL http://www.landcover.
org/.

T.M. Lillesand y R.W. Kiefer. Remote Sensing and Image Interpretation 3rd. edition. 1994.

MIR. URL https://es.wikipedia.org/wiki/Mir_(estaci C3 B3n_espacial).

NASA DAACs. URL https://earthdata.nasa.gov/about/daacs .

NASA Earthdata Search. URL https://search.earthdata.nasa.gov/search .

NASA GIOVANNI. URL https://giovanni.gsfc.nasa.gov/giovanni/ .

NASA Ocean Color. URL https://oceancolor.gsfc.nasa.gov/.

NASA World View. URL https://worldview.earthdata.nasa.gov/ .

NASA Worldbook. URL http://www.nasa.gov/worldbook/artificial_satellites_worldbook.


html.

G. Rees. Physical Principles of Remote Sensing. 2001.

Remote Sensing for Biodiversity & Conservation. URL http://remote-sensing-biodiversity.org/


resources/.

J. Sobrino. Teledetección. 2000.

USGS Earth Explorer. URL https://earthexplorer.usgs.gov/.

Xe1RCS. URL http://www.xe1rcs.org.mx/colabora/unamsatb.html .

También podría gustarte