Está en la página 1de 11

Este capítulo revisa brevemente la detección de remate como una tecnología

de recopilación de datos que proporciona datos para SIG y usuarios de datos


referenciados espacialmente para análisis científicos. La discusión [acusa
sobre la importancia de vincular los sistemas de detección de remates raster
con el SIG vectorial para crear SIG integrado (/ SIG). El uso de / GIS se examina
en aplicaciones como la clasificación de imágenes, la calibración y el modelado
ambiental. Es evidente que existe una gran complementariedad entre la
detección de remate y los SIG. Ambas áreas se desarrollaron
independientemente en cierta medida, especialmente en los primeros días. Al
vincular la tecnología, los conceptos y las teorías de ambos en / SIG, se pueden
crear sistemas de información considerablemente más ricos y sofisticados para
su uso en aplicaciones sustantivas. Casi todos los proyectos que actualmente
emplean datos satelitales o tratan datos ambientales podrían beneficiarse del
desarrollo de SIG verdaderamente integrados.
Introducción
Este capítulo analiza la integración de datos digitales detectados remotamente
e información cartográfica para SIG. Se enfatizan las sinergias entre la
detección de remate y el SIG para el análisis de la superficie terrestre,
específicamente para la clasificación de la superficie, la calibración del sensor
y el modelado físico de los procesos de la superficie terrestre. Es necesario
distinguir desde el principio la diferencia entre las mediciones, como las
radiaciones obtenidas por un sistema de escáner de remate, y la información
geográfica, que es el conocimiento de los fenómenos geográficos obtenidos
por el análisis de mediciones de superficie u otros datos geográficos. La
información cartográfica es información geográfica obtenida de los mapas. Los
datos se refieren a mediciones o información ingresada a un análisis
geográfico. Estas distinciones son importantes al analizar la integración de la
detección remota y los SIG. Sin lugar a dudas, una gran proporción de las
mediciones de la superficie de la tierra ahora se obtienen de los satélites y
estos brindan la oportunidad de ampliar y revisar en gran medida la
comprensión de los sistemas terrestres. Para servir como entrada al SIG, los
datos satelitales deben estar bien calibrados y en un formato y estructura de
datos adecuados. También en el
En el contexto de los SIG, es de suma importancia saber cómo utilizar mejor la
información geográfica existente (e imperfecta) para maximizar el potencial
de información de las mediciones satelitales. Las primeras discusiones sobre la
relación entre la detección digital del remate y los SIG se centraron en los
beneficios de incorporar imágenes de satélite clasificadas en los sistemas de
información terrestre para el análisis basado en SIG (por ejemplo, Peplies y
Keuper 1975). Tratar la salida de un análisis de detección de remate como una
entrada al SIG tendió a aislar a los analistas respectivos y obstaculizó la
integración de la detección de remate y SIG (Marble et al. 1983). La separación
se hizo cada vez más artificial a medida que los analistas de detección de
remate confiaban en información geográfica auxiliar para mejorar la
clasificación de la imagen (por ejemplo, Hoffer et al. 1979; Strahler 1981;
Mason et al. 1988) y los analistas SIG confiaban en datos satelitales para fines
tales como la rectificación cartográfica y el mapa actualización (por ejemplo,
Hill y Kelly 1987). Varios documentos recientes han tratado la detección de
remate y los SIG en el marco más general del análisis espacial integrado,
considerando las imágenes de detección remota como un elemento de un SIG
para el modelado de la superficie terrestre (por ejemplo, Marble et al. 1983;
Jackson y Mason 1986; Ehlers, Edwards y Bedard 1989; Parker 1988; Star y
Estes 1990).
Esto ha ampliado la discusión sobre la teledetección y los SIG de los métodos
para mejorar la precisión de la clasificación de imágenes y la conversión de la
estructura de datos, hacia el problema más general de representar y analizar
conjuntamente datos geográficos dispares que pueden variar en estructura,
fecha de adquisición, resolución y nivel. de preprocesamiento o interpretación
humana (por ejemplo, Zhou 1989; Logan y Bryant 1987). El objetivo de este
capítulo es extender esta discusión a la luz de los avances recientes en la teoría
y aplicación de la detección remota. Para una revisión general de los principios
de la percepción remota, el lector debe consultar el Manual af Remate Sensing
(Colwell1983) y textos recientes de Richards (1986), Elachi (1987) y Asrar
(1989). La discusión se centra en los siguientes temas:
 Resolución espacial de mediciones satelitales digitales, y la
regularización de la variación espacial de la superficie mediante
sistemas de teledetección.
 Resolución temporal de mediciones satelitales y monitoreo remoto de
la dinámica de la superficie terrestre.
 Estructuras de datos para el manejo de datos de sensores remotos y
análisis geográfico integrado.
 Análisis SIG integrado para la clasificación de la superficie terrestre, la
calibración del sensor y el modelado físico de las propiedades de la
superficie.
Hay otros aspectos importantes de la integración de la teledetección y los SIG
que no se abordarán debido a restricciones de espacio. Los estrechos vínculos
entre la fotointerpretación aérea, los productos de mapas existentes y los SIG
no se analizarán explícitamente. Por ejemplo, desde 1957 todos los mapas
operativos producidos por el gobierno de los Estados Unidos han utilizado una
forma de datos de teledetección como base. Los avances en la producción de
ortofotografía digital son especialmente importantes para acelerar la
integración de la detección remota sin satélite y el SIG. La practica! Los
problemas que dificultan la integración de datos satelitales digitales en los
sistemas de información terrestre existentes para la planificación local
tampoco se abordan, aunque muchas de las cuestiones planteadas están
relacionadas con esta importante área temática. Del mismo modo, no se
consideran los impedimentos fiscales e institucionales significativos para
integrar la teledetección y las tecnologías SIG (Ehlers et al. 1989). Estos
problemas son abordados en parte por otros autores.
192
en este volumen En cambio, la discusión se concentra en algunos temas
científicos que deben considerarse para aprovechar al máximo los SIG
integrados para la investigación, el análisis de recursos y la gestión.
SENSACIÓN REMOTA COMO FUENTE DE DATOS GEOGRÁFICOS
La detección de recámara se define estrechamente como la medición de las
propiedades electromagnéticas de una superficie u objeto sin estar en
contacto con ella. La discusión aquí se limita a los datos digitales recopilados
por avión o satélite. Si bien la mayoría de las encuestas ambientales locales
todavía dependen de la interpretación manual de la fotografía aérea, el uso de
imágenes digitales para el análisis regional es ahora común y, sin duda,
aumentará en el futuro. Como fuente de información geográfica, la
teledetección digital representa más que una simple extensión de la fotografía
aérea convencional, y requiere enfoques fundamentalmente diferentes para
el análisis de las superficies terrestres (Everett y Simonett 1976).
Características espaciales de datos detectados remotamente
Los sistemas de teledetección van desde sistemas de microondas activos, que
miden cómo se dispersa la señal por la superficie, hasta sistemas pasivos, que
miden la reflectancia o emisión de la superficie. En un contexto SIG, las
características especialmente importantes de los datos de detección remota
son sus características de muestreo en los dominios de espacio y tiempo. Las
propiedades básicas de un sensor remoto se pueden resumir como:
• cobertura espectral (ubicaciones de banda espectral)
• resolución espectral (ancho de banda espectral)
• dimensionalidad espectral (número de bandas)
• resolución radiométrica (cuantificación)
• campo de visión instantáneo (IFOV)
• campo de visión angular
• función de dispersión de puntos (PSF)
 función de respuesta temporal (Strahler, Woodcock y Smith 1986).
La resolución espacial del sensor no se ha incluido deliberadamente, ya que
este término se puede definir en severa. formas que dan valores bastante
diferentes (Forshaw et al. 1983). La resolución de imagen es el área cubierta
por elementos de imagen (píxeles), que son en sí mismos una función del
sensor IFOV, las características de la escena y el preprocesamiento de datos.
Incluso las estimaciones del sensor IFOV pueden variar según los criterios
utilizados, y pueden cambiar a lo largo del tiempo según la altitud orbital del
satélite. Por ejemplo, las estimaciones de IFOV para el Landsat MSS han
oscilado entre 73,4 y 81 metros (Simonett et al. 1983). ¡De una práctica! Desde
el punto de vista, la resolución espacial se define por el tamaño del objeto más
pequeño que se puede detectar de forma confiable contra un fondo
espectralmente contrastante, denominado elemento de resolución efectiva
(ERE). El ERE es específico de la imagen, dependiendo no solo del sensor IFOV,
sino también de una serie de otros factores, incluido el sensor PSF, la
geometría del sensor de superficie, las condiciones atmosféricas, las
propiedades de la escena, como el contraste espectral y la geometría de los
objetos, y el procesamiento de datos, como la rectificación de la imagen. o
mejora (Billingsley et al. 1983; Duggin 1985; Strahler et al. 1986). Las
dependencias de la imagen se vuelven cruciales a medida que el tamaño de
píxel se acerca al límite de Nyquist para los elementos de interés de la escena
(ver más abajo). En un sentido más amplio, la resolución espacial de un sensor
remoto varía con la tarea a la que se aplican los datos, específicamente: (1)
detección, determinar la presencia de un objeto; (2) identificación o
etiquetado de un objeto; o (3) análisis, donde se obtiene información sobre un
objeto más allá de su detección e identificación inicial. Simonett y col. (1983)
sugieren que, para objetivos de bajo contraste, la resolución efectiva de los
sensores necesarios para el análisis puede ser hasta 10 veces menor que la de
identificación y 30 veces menor que la de detección.

Autocorrelación y regularización en imágenes satelitales


La variación espacial en una imagen satelital se produce por la convolución de
la variación intrínseca en las propiedades electromagnéticas de la superficie
con el campo de muestreo del sensor. La variación de la superficie se puede
clasificar como continua (gradientes), diserete (mosaicos), lineal o loalizada
(por ejemplo, eventos extremos intermitentes, procesos puntuales y procesos
de disco) (véase también Getis y Boots 1978). También es importante
reconocer si el proceso de superficie que se está investigando es estacionario,
de modo que sus propiedades estadísticas no dependan de la ubicación
espacial absoluta (Cliff y Ord 1981), y si el patrón de variación de superficie es
aleatorio, contagioso o regular. ¡Las propiedades estadísticas de los procesos
ambientales suelen ser altamente dependientes del mar / e !. La escala es el
intervalo de espacio o tiempo durante el cual se realiza una medición, de modo
que la persona dependiente del mar se refiere a la relación entre la magnitud
o la variabilidad de un proceso espacial y la escala de medición. La mayoría de
las superficies naturales no son estacionarias en grandes áreas, manifestando
muchos tipos diferentes de variación dentro y entre diferentes escalas de
medición. Esto hace que las mediciones satelitales sean altamente sensibles al
sensor IFOV, a los efectos de ángulo de Sean (p. Ej., El Radiómetro avanzado
de muy alta resolución (A VHRR) de la Administración Nacional Oceanográfica
y Atmosférica (NOAA) varía de 1.1 x 1.1 km en el nadir a 4 x 1.1 km a 55.4 °
apagado -nadir) y preprocesamiento con muestreo e interpolación de píxeles.
Múltiples escalas de variación de superficie también hacen que no sea
confiable calibrar sensores usando mediciones de terreno realizadas sobre
áreas de muestra que se apartan significativamente de la resolución del
sensor. Se necesita mucha investigación sobre la variabilidad espacial de las
superficies terrestres para utilizar completamente los datos satelitales.
Algunos estudios recientes han examinado la variación dependiente de la
escala en las variables del terreno, como la topografía y la radiación (por
ejemplo, Mark y Aronson 1984; Mulla 1988; Dubayah, Dozier y Davis 1990) y
los suelos (Burrough 1983; Oliver y Webster 1986). Los datos satelitales
digitales se analizaron para estudiar la dependencia de la escala en los
patrones de vegetación (por ejemplo, Woodcock y Strahler 1987; Davis,
Dubayah y Dozier 1989; Townshend y Justice 1990). Sin embargo, inferir la
variación de la superficie de la variación espacial en los datos satelitales no es
sencillo, porque las radiaciones satelitales se ven afectadas por factores no
superficiales como la geometría del satélite solar-terrestre y las características
atmosféricas. Además, como se mencionó anteriormente, el sensor filtra la
variación de la superficie en el proceso conocido como regularización de
escena. Esta es una característica importante de los datos satelitales que los
distingue de la mayoría de las otras fuentes de información geográfica (Star y
Estes 1990). El trabajo reciente de Jupp, Walker y Penridge (1986) y Jupp,
Strahler y Woodcock (1989) proporciona información útil sobre cómo los
satélites regularizan la variabilidad de la superficie. Algunos de sus resultados
se resumen a continuación. La radiación reflejada de una superficie en la
ubicación x en el tiempo t puede resumirse como (Moik 1980):
f(x,X.,t,p) = r(x,X.,t,p) i(x,X.,t)
Donde r(x ,X.,t,p) es la reftectancia de la superficie en función de la posición
(x), la longitud de onda (X.), el tiempo (t) y la polarización (p), e i (x, X., t) es la
iluminación incidente. Para simplificar, considere solo la variación en la
reftectancia con la posición espacial, f (x). Una propiedad importante de esta
variación es su autocorrelación espacial o autocovarianza, que mide cómo
varía f (x) en función de la distancia y la orientación entre las observaciones.
Ignorando los efectos direccionales, la autocovarianza espacial en la
reftectancia de una superficie en puntos separados por la distancia h,
denotada por cov (h), puede describirse utilizando el variograma isotrópico,
donde V(h) = cov(O)- cov(h) = 112 E(f(x) - f(x + h))2
En la teledetección, la variación espacial de la superficie se 'regulariza' a través
de la convolución desactivada (x) con el campo de muestreo del sensor, Z. Para
superficies intermitentes, la regularización de f (x) por Z conduce a una nueva
función espacial fz(y) = 1/Mes(Z)U(x) dlxl
donde Zy es el campo de muestreo (por ejemplo, píxel cuadrado) centrado en
la ubicación y y Mes (Z) es la muestra son a. El variograma para la imagen
regularizada se convierte en: Vz= (T*V)h-(T*V)i
donde * es convolución y [z es la función del indicador (! 2 (x) = 1 para x E Z, O
else e IZ (t) = [z (- t)). La ecuación [14.4] establece que el variograma que resulta
de la regularización de una superficie por un sensor de satélite está
relacionado con el variograma de la superficie convolucionado con la función
de covarianza del píxel.
Los variogramas que resultan como una superficie se regulariza a diferentes
tamaños de píxeles se pueden predecir a partir del variograma de puntos de
los no regularizados. Superficie (Jupp et al. 1986). Sin embargo, el variograma
no regularizado de superficies naturales generalmente no se conoce. Las
simulaciones basadas en la regularización de diferentes tipos de superficie han
demostrado ser útiles. Por ejemplo, Jupp et al. (1986) analizan superficies
binarias cubiertas por discos de diferentes tamaños y patrones, una analogía
simple de árboles dispersos en terreno uniforme, para relacionar la
regularización de la imagen con la textura de la imagen, el comportamiento
fractal y la cobertura estimada (ver también Goodchild 1980). El semi-
variograma de una imagen está relacionado con la variación local de la imagen,
que es la desviación estándar promedio del brillo de la imagen en una ventana
móvil de tres por tres:
Esta medida, que a menudo se usa para la detección de bordes y para la
segmentación y clasificación de imágenes, es el valor regularizado del
semivariograma en un tamaño de paso igual o ligeramente mayor que (para
diagonales) resolución de imagen o tamaño de píxel (Jupp et al. 1989) . Strahler
y col. (1986) distinguen dos modelos fundamentalmente diferentes, el modelo
de resolución H, en el que los elementos de la escena son grandes en
comparación con la resolución de la imagen, y el modelo de resolución L, en el
que los elementos son más pequeños que el área de resolución de la imagen y
no son detectables individualmente. La textura de la imagen aumenta a
medida que la resolución de la imagen se acerca a las dimensiones de los
elementos de la escena. La gran variación local puede ser problemática en la
clasificación de imágenes usando sensores de alta resolución como Landsat
Thematic Mapper (TM) y SPOT para mapear tipos de cobertura del suelo como
áreas urbanas o vegetación leñosa, donde la resolución del sensor se acerca al
tamaño de edificios individuales o claros. Los elementos de escena a menudo
se organizan en características más grandes (por ejemplo, edificios en bloques
y árboles en rodales) que se manifiestan como picos adicionales en la textura
de la imagen en tamaños de píxeles más grandes. En la medida en que los
diferentes procesos de superficie tengan dependencias de escala
características, las imágenes de resolución múltiple (pirámides de imagen) que
van desde la resolución H hasta la L pueden ser efectivas en el reconocimiento
y clasificación de la superficie (por ejemplo, Wharton 1989). La regularización
de la variación espacial de la superficie mediante sistemas de imágenes
significa que la información derivada del análisis de datos satelitales difiere
fundamentalmente de la mayoría de la información cartográfica, que
generalmente
deriva de la generalización de la variación espacial percibida (por ejemplo, en
la producción de mapas de suelos) o de la interpolación de mediciones
puntuales de la superficie (por ejemplo, mapeo de la topografía de la superficie
o datos del clima). La mezcla de superficies regularizadas, generalizadas e
interpoladas en SIG implica una variación de superficie intrínseca con los
efectos de la resolución y el procesamiento de los datos satelitales, la escala
del mapa y los procedimientos de generalización, estructura de datos y
conversión de datos, procedimientos de modelado, etc. La teoría de los SIG
sigue siendo muy lejos de una descomposición formal de estos efectos. Se
debe prestar especial atención a las dependencias de escala no lineal de
algunos tipos de superficie, ya que estas superficies serán muy sensibles a la
resolución de imagen (por ejemplo, Lovejoy y Shertzer 1985).
Características temporales de los datos detectados a distancia.
¡Los sensores satelitales brindan la oportunidad de ser consistentes!
mediciones multitemporales de grandes áreas durante períodos de días a
décadas. La cobertura del sensor y el intervalo de repetición están
determinados por la altitud de la plataforma, la velocidad angular, la
inclinación orbital en relación con el ecuador y la orientación orbital en
relación con el equinoccio vernal (Elachi 1987). ¡Muchos sensores ópticos se
colocan en órbitas síncronas cerca del polo solar para lograr una cobertura y
consistencia global! geometría de iluminación (por ejemplo, Landsat, A VHRR).
El intervalo de repetición varía entre estos sensores dependiendo de su altitud
y velocidad. Otros se colocan en órbitas geosíncronas para proporcionar
cobertura de alta frecuencia de la misma región (por ejemplo, los satélites
meteorológicos GOES). La capacidad de detectar cambios en una superficie
con imágenes a lo largo del tiempo depende de las propiedades espaciales
(registro geométrico y resolución), espectrales (ubicación y ancho de banda),
radiométricas y temporales (frecuencia de imagen) del sistema sensor
(Townshend y Justice 1988). La comparación de las imágenes adquiridas por el
mismo sensor en diferentes fechas se complica por cualquier cambio en la
ganancia y compensación del instrumento, así como por las diferencias en las
propiedades atmosféricas, especialmente en la capa de nubes subpíxel. La
detección de cambios es considerablemente más complicada cuando se usa
más de un sistema de sensores debido al uso de diferencias en las propiedades
del sensor IFOV, PSF, anchos de banda y respuesta espectral (Duggin 1985). Se
han desarrollado muchas técnicas para la corrección atmosférica y la
calibración radiométrica de imágenes satelitales para análisis multitemporales
(por ejemplo, Holben y Fraser 1984; Hall y Badhwar 1987; Singh y Sau111988;
Schott, Salvaggio y Volchok 1988; Suits, Malila y Weller 1988). Los cambios en
las propiedades de reftectancia de la superficie causados por la geometría de
la iluminación son menos fáciles de explicar. Estos son especialmente
problemáticos porque pueden afectar en gran medida la relación entre las
radiaciones satelitales y las propiedades de la superficie (Deering 1989). Por lo
tanto, extraer información cuantitativa detallada de imágenes de varias fechas
requiere algoritmos sofisticados para corregir la geometría de iluminación
específica de la escena, los efectos atmosféricos y las características del
sensor. Gran parte de la discusión previa sobre la variación ambiental espacial
se aplica también a la variación temporal. Un proceso que funciona a través
del tiempo puede describirse como continuo, discreto o intermitente, como
estacionario o no estacionario, y como aleatorio, autocorrelacionado o regular
(Jenkins y Watts 1968). Para muchas aplicaciones, la detección de remate
puede tratarse como un muestreo puntual en el dominio del tiempo (es decir,
el intervalo de tiempo durante el cual se adquiere la imagen puede suponerse
insignificantemente corto).
La ecuación [14.1] se puede reescribir en función del tiempo:

Si T es el intervalo de tiempo entre muestras sucesivas, una serie de


observaciones satelitales repetidas de una ubicación puede considerarse la
convolución del cambio espectral continuo en el entorno por el filtro de
muestreo temporal i (t), que puede modelarse como una serie de funciones
delta:
f (t) puede recuperarse de fr (t) para cambios temporales manifestados
durante períodos de ~ 2T, o menos que la frecuencia de Nyquist de 112T. Los
procesos que cambian a frecuencias más altas (períodos más cortos) se
dividirán en h (t).

También podría gustarte