Este capítulo revisa brevemente la detección de remate como una tecnología
de recopilación de datos que proporciona datos para SIG y usuarios de datos
referenciados espacialmente para análisis científicos. La discusión [acusa sobre la importancia de vincular los sistemas de detección de remates raster con el SIG vectorial para crear SIG integrado (/ SIG). El uso de / GIS se examina en aplicaciones como la clasificación de imágenes, la calibración y el modelado ambiental. Es evidente que existe una gran complementariedad entre la detección de remate y los SIG. Ambas áreas se desarrollaron independientemente en cierta medida, especialmente en los primeros días. Al vincular la tecnología, los conceptos y las teorías de ambos en / SIG, se pueden crear sistemas de información considerablemente más ricos y sofisticados para su uso en aplicaciones sustantivas. Casi todos los proyectos que actualmente emplean datos satelitales o tratan datos ambientales podrían beneficiarse del desarrollo de SIG verdaderamente integrados. Introducción Este capítulo analiza la integración de datos digitales detectados remotamente e información cartográfica para SIG. Se enfatizan las sinergias entre la detección de remate y el SIG para el análisis de la superficie terrestre, específicamente para la clasificación de la superficie, la calibración del sensor y el modelado físico de los procesos de la superficie terrestre. Es necesario distinguir desde el principio la diferencia entre las mediciones, como las radiaciones obtenidas por un sistema de escáner de remate, y la información geográfica, que es el conocimiento de los fenómenos geográficos obtenidos por el análisis de mediciones de superficie u otros datos geográficos. La información cartográfica es información geográfica obtenida de los mapas. Los datos se refieren a mediciones o información ingresada a un análisis geográfico. Estas distinciones son importantes al analizar la integración de la detección remota y los SIG. Sin lugar a dudas, una gran proporción de las mediciones de la superficie de la tierra ahora se obtienen de los satélites y estos brindan la oportunidad de ampliar y revisar en gran medida la comprensión de los sistemas terrestres. Para servir como entrada al SIG, los datos satelitales deben estar bien calibrados y en un formato y estructura de datos adecuados. También en el En el contexto de los SIG, es de suma importancia saber cómo utilizar mejor la información geográfica existente (e imperfecta) para maximizar el potencial de información de las mediciones satelitales. Las primeras discusiones sobre la relación entre la detección digital del remate y los SIG se centraron en los beneficios de incorporar imágenes de satélite clasificadas en los sistemas de información terrestre para el análisis basado en SIG (por ejemplo, Peplies y Keuper 1975). Tratar la salida de un análisis de detección de remate como una entrada al SIG tendió a aislar a los analistas respectivos y obstaculizó la integración de la detección de remate y SIG (Marble et al. 1983). La separación se hizo cada vez más artificial a medida que los analistas de detección de remate confiaban en información geográfica auxiliar para mejorar la clasificación de la imagen (por ejemplo, Hoffer et al. 1979; Strahler 1981; Mason et al. 1988) y los analistas SIG confiaban en datos satelitales para fines tales como la rectificación cartográfica y el mapa actualización (por ejemplo, Hill y Kelly 1987). Varios documentos recientes han tratado la detección de remate y los SIG en el marco más general del análisis espacial integrado, considerando las imágenes de detección remota como un elemento de un SIG para el modelado de la superficie terrestre (por ejemplo, Marble et al. 1983; Jackson y Mason 1986; Ehlers, Edwards y Bedard 1989; Parker 1988; Star y Estes 1990). Esto ha ampliado la discusión sobre la teledetección y los SIG de los métodos para mejorar la precisión de la clasificación de imágenes y la conversión de la estructura de datos, hacia el problema más general de representar y analizar conjuntamente datos geográficos dispares que pueden variar en estructura, fecha de adquisición, resolución y nivel. de preprocesamiento o interpretación humana (por ejemplo, Zhou 1989; Logan y Bryant 1987). El objetivo de este capítulo es extender esta discusión a la luz de los avances recientes en la teoría y aplicación de la detección remota. Para una revisión general de los principios de la percepción remota, el lector debe consultar el Manual af Remate Sensing (Colwell1983) y textos recientes de Richards (1986), Elachi (1987) y Asrar (1989). La discusión se centra en los siguientes temas: Resolución espacial de mediciones satelitales digitales, y la regularización de la variación espacial de la superficie mediante sistemas de teledetección. Resolución temporal de mediciones satelitales y monitoreo remoto de la dinámica de la superficie terrestre. Estructuras de datos para el manejo de datos de sensores remotos y análisis geográfico integrado. Análisis SIG integrado para la clasificación de la superficie terrestre, la calibración del sensor y el modelado físico de las propiedades de la superficie. Hay otros aspectos importantes de la integración de la teledetección y los SIG que no se abordarán debido a restricciones de espacio. Los estrechos vínculos entre la fotointerpretación aérea, los productos de mapas existentes y los SIG no se analizarán explícitamente. Por ejemplo, desde 1957 todos los mapas operativos producidos por el gobierno de los Estados Unidos han utilizado una forma de datos de teledetección como base. Los avances en la producción de ortofotografía digital son especialmente importantes para acelerar la integración de la detección remota sin satélite y el SIG. La practica! Los problemas que dificultan la integración de datos satelitales digitales en los sistemas de información terrestre existentes para la planificación local tampoco se abordan, aunque muchas de las cuestiones planteadas están relacionadas con esta importante área temática. Del mismo modo, no se consideran los impedimentos fiscales e institucionales significativos para integrar la teledetección y las tecnologías SIG (Ehlers et al. 1989). Estos problemas son abordados en parte por otros autores. 192 en este volumen En cambio, la discusión se concentra en algunos temas científicos que deben considerarse para aprovechar al máximo los SIG integrados para la investigación, el análisis de recursos y la gestión. SENSACIÓN REMOTA COMO FUENTE DE DATOS GEOGRÁFICOS La detección de recámara se define estrechamente como la medición de las propiedades electromagnéticas de una superficie u objeto sin estar en contacto con ella. La discusión aquí se limita a los datos digitales recopilados por avión o satélite. Si bien la mayoría de las encuestas ambientales locales todavía dependen de la interpretación manual de la fotografía aérea, el uso de imágenes digitales para el análisis regional es ahora común y, sin duda, aumentará en el futuro. Como fuente de información geográfica, la teledetección digital representa más que una simple extensión de la fotografía aérea convencional, y requiere enfoques fundamentalmente diferentes para el análisis de las superficies terrestres (Everett y Simonett 1976). Características espaciales de datos detectados remotamente Los sistemas de teledetección van desde sistemas de microondas activos, que miden cómo se dispersa la señal por la superficie, hasta sistemas pasivos, que miden la reflectancia o emisión de la superficie. En un contexto SIG, las características especialmente importantes de los datos de detección remota son sus características de muestreo en los dominios de espacio y tiempo. Las propiedades básicas de un sensor remoto se pueden resumir como: • cobertura espectral (ubicaciones de banda espectral) • resolución espectral (ancho de banda espectral) • dimensionalidad espectral (número de bandas) • resolución radiométrica (cuantificación) • campo de visión instantáneo (IFOV) • campo de visión angular • función de dispersión de puntos (PSF) función de respuesta temporal (Strahler, Woodcock y Smith 1986). La resolución espacial del sensor no se ha incluido deliberadamente, ya que este término se puede definir en severa. formas que dan valores bastante diferentes (Forshaw et al. 1983). La resolución de imagen es el área cubierta por elementos de imagen (píxeles), que son en sí mismos una función del sensor IFOV, las características de la escena y el preprocesamiento de datos. Incluso las estimaciones del sensor IFOV pueden variar según los criterios utilizados, y pueden cambiar a lo largo del tiempo según la altitud orbital del satélite. Por ejemplo, las estimaciones de IFOV para el Landsat MSS han oscilado entre 73,4 y 81 metros (Simonett et al. 1983). ¡De una práctica! Desde el punto de vista, la resolución espacial se define por el tamaño del objeto más pequeño que se puede detectar de forma confiable contra un fondo espectralmente contrastante, denominado elemento de resolución efectiva (ERE). El ERE es específico de la imagen, dependiendo no solo del sensor IFOV, sino también de una serie de otros factores, incluido el sensor PSF, la geometría del sensor de superficie, las condiciones atmosféricas, las propiedades de la escena, como el contraste espectral y la geometría de los objetos, y el procesamiento de datos, como la rectificación de la imagen. o mejora (Billingsley et al. 1983; Duggin 1985; Strahler et al. 1986). Las dependencias de la imagen se vuelven cruciales a medida que el tamaño de píxel se acerca al límite de Nyquist para los elementos de interés de la escena (ver más abajo). En un sentido más amplio, la resolución espacial de un sensor remoto varía con la tarea a la que se aplican los datos, específicamente: (1) detección, determinar la presencia de un objeto; (2) identificación o etiquetado de un objeto; o (3) análisis, donde se obtiene información sobre un objeto más allá de su detección e identificación inicial. Simonett y col. (1983) sugieren que, para objetivos de bajo contraste, la resolución efectiva de los sensores necesarios para el análisis puede ser hasta 10 veces menor que la de identificación y 30 veces menor que la de detección.
Autocorrelación y regularización en imágenes satelitales
La variación espacial en una imagen satelital se produce por la convolución de la variación intrínseca en las propiedades electromagnéticas de la superficie con el campo de muestreo del sensor. La variación de la superficie se puede clasificar como continua (gradientes), diserete (mosaicos), lineal o loalizada (por ejemplo, eventos extremos intermitentes, procesos puntuales y procesos de disco) (véase también Getis y Boots 1978). También es importante reconocer si el proceso de superficie que se está investigando es estacionario, de modo que sus propiedades estadísticas no dependan de la ubicación espacial absoluta (Cliff y Ord 1981), y si el patrón de variación de superficie es aleatorio, contagioso o regular. ¡Las propiedades estadísticas de los procesos ambientales suelen ser altamente dependientes del mar / e !. La escala es el intervalo de espacio o tiempo durante el cual se realiza una medición, de modo que la persona dependiente del mar se refiere a la relación entre la magnitud o la variabilidad de un proceso espacial y la escala de medición. La mayoría de las superficies naturales no son estacionarias en grandes áreas, manifestando muchos tipos diferentes de variación dentro y entre diferentes escalas de medición. Esto hace que las mediciones satelitales sean altamente sensibles al sensor IFOV, a los efectos de ángulo de Sean (p. Ej., El Radiómetro avanzado de muy alta resolución (A VHRR) de la Administración Nacional Oceanográfica y Atmosférica (NOAA) varía de 1.1 x 1.1 km en el nadir a 4 x 1.1 km a 55.4 ° apagado -nadir) y preprocesamiento con muestreo e interpolación de píxeles. Múltiples escalas de variación de superficie también hacen que no sea confiable calibrar sensores usando mediciones de terreno realizadas sobre áreas de muestra que se apartan significativamente de la resolución del sensor. Se necesita mucha investigación sobre la variabilidad espacial de las superficies terrestres para utilizar completamente los datos satelitales. Algunos estudios recientes han examinado la variación dependiente de la escala en las variables del terreno, como la topografía y la radiación (por ejemplo, Mark y Aronson 1984; Mulla 1988; Dubayah, Dozier y Davis 1990) y los suelos (Burrough 1983; Oliver y Webster 1986). Los datos satelitales digitales se analizaron para estudiar la dependencia de la escala en los patrones de vegetación (por ejemplo, Woodcock y Strahler 1987; Davis, Dubayah y Dozier 1989; Townshend y Justice 1990). Sin embargo, inferir la variación de la superficie de la variación espacial en los datos satelitales no es sencillo, porque las radiaciones satelitales se ven afectadas por factores no superficiales como la geometría del satélite solar-terrestre y las características atmosféricas. Además, como se mencionó anteriormente, el sensor filtra la variación de la superficie en el proceso conocido como regularización de escena. Esta es una característica importante de los datos satelitales que los distingue de la mayoría de las otras fuentes de información geográfica (Star y Estes 1990). El trabajo reciente de Jupp, Walker y Penridge (1986) y Jupp, Strahler y Woodcock (1989) proporciona información útil sobre cómo los satélites regularizan la variabilidad de la superficie. Algunos de sus resultados se resumen a continuación. La radiación reflejada de una superficie en la ubicación x en el tiempo t puede resumirse como (Moik 1980): f(x,X.,t,p) = r(x,X.,t,p) i(x,X.,t) Donde r(x ,X.,t,p) es la reftectancia de la superficie en función de la posición (x), la longitud de onda (X.), el tiempo (t) y la polarización (p), e i (x, X., t) es la iluminación incidente. Para simplificar, considere solo la variación en la reftectancia con la posición espacial, f (x). Una propiedad importante de esta variación es su autocorrelación espacial o autocovarianza, que mide cómo varía f (x) en función de la distancia y la orientación entre las observaciones. Ignorando los efectos direccionales, la autocovarianza espacial en la reftectancia de una superficie en puntos separados por la distancia h, denotada por cov (h), puede describirse utilizando el variograma isotrópico, donde V(h) = cov(O)- cov(h) = 112 E(f(x) - f(x + h))2 En la teledetección, la variación espacial de la superficie se 'regulariza' a través de la convolución desactivada (x) con el campo de muestreo del sensor, Z. Para superficies intermitentes, la regularización de f (x) por Z conduce a una nueva función espacial fz(y) = 1/Mes(Z)U(x) dlxl donde Zy es el campo de muestreo (por ejemplo, píxel cuadrado) centrado en la ubicación y y Mes (Z) es la muestra son a. El variograma para la imagen regularizada se convierte en: Vz= (T*V)h-(T*V)i donde * es convolución y [z es la función del indicador (! 2 (x) = 1 para x E Z, O else e IZ (t) = [z (- t)). La ecuación [14.4] establece que el variograma que resulta de la regularización de una superficie por un sensor de satélite está relacionado con el variograma de la superficie convolucionado con la función de covarianza del píxel. Los variogramas que resultan como una superficie se regulariza a diferentes tamaños de píxeles se pueden predecir a partir del variograma de puntos de los no regularizados. Superficie (Jupp et al. 1986). Sin embargo, el variograma no regularizado de superficies naturales generalmente no se conoce. Las simulaciones basadas en la regularización de diferentes tipos de superficie han demostrado ser útiles. Por ejemplo, Jupp et al. (1986) analizan superficies binarias cubiertas por discos de diferentes tamaños y patrones, una analogía simple de árboles dispersos en terreno uniforme, para relacionar la regularización de la imagen con la textura de la imagen, el comportamiento fractal y la cobertura estimada (ver también Goodchild 1980). El semi- variograma de una imagen está relacionado con la variación local de la imagen, que es la desviación estándar promedio del brillo de la imagen en una ventana móvil de tres por tres: Esta medida, que a menudo se usa para la detección de bordes y para la segmentación y clasificación de imágenes, es el valor regularizado del semivariograma en un tamaño de paso igual o ligeramente mayor que (para diagonales) resolución de imagen o tamaño de píxel (Jupp et al. 1989) . Strahler y col. (1986) distinguen dos modelos fundamentalmente diferentes, el modelo de resolución H, en el que los elementos de la escena son grandes en comparación con la resolución de la imagen, y el modelo de resolución L, en el que los elementos son más pequeños que el área de resolución de la imagen y no son detectables individualmente. La textura de la imagen aumenta a medida que la resolución de la imagen se acerca a las dimensiones de los elementos de la escena. La gran variación local puede ser problemática en la clasificación de imágenes usando sensores de alta resolución como Landsat Thematic Mapper (TM) y SPOT para mapear tipos de cobertura del suelo como áreas urbanas o vegetación leñosa, donde la resolución del sensor se acerca al tamaño de edificios individuales o claros. Los elementos de escena a menudo se organizan en características más grandes (por ejemplo, edificios en bloques y árboles en rodales) que se manifiestan como picos adicionales en la textura de la imagen en tamaños de píxeles más grandes. En la medida en que los diferentes procesos de superficie tengan dependencias de escala características, las imágenes de resolución múltiple (pirámides de imagen) que van desde la resolución H hasta la L pueden ser efectivas en el reconocimiento y clasificación de la superficie (por ejemplo, Wharton 1989). La regularización de la variación espacial de la superficie mediante sistemas de imágenes significa que la información derivada del análisis de datos satelitales difiere fundamentalmente de la mayoría de la información cartográfica, que generalmente deriva de la generalización de la variación espacial percibida (por ejemplo, en la producción de mapas de suelos) o de la interpolación de mediciones puntuales de la superficie (por ejemplo, mapeo de la topografía de la superficie o datos del clima). La mezcla de superficies regularizadas, generalizadas e interpoladas en SIG implica una variación de superficie intrínseca con los efectos de la resolución y el procesamiento de los datos satelitales, la escala del mapa y los procedimientos de generalización, estructura de datos y conversión de datos, procedimientos de modelado, etc. La teoría de los SIG sigue siendo muy lejos de una descomposición formal de estos efectos. Se debe prestar especial atención a las dependencias de escala no lineal de algunos tipos de superficie, ya que estas superficies serán muy sensibles a la resolución de imagen (por ejemplo, Lovejoy y Shertzer 1985). Características temporales de los datos detectados a distancia. ¡Los sensores satelitales brindan la oportunidad de ser consistentes! mediciones multitemporales de grandes áreas durante períodos de días a décadas. La cobertura del sensor y el intervalo de repetición están determinados por la altitud de la plataforma, la velocidad angular, la inclinación orbital en relación con el ecuador y la orientación orbital en relación con el equinoccio vernal (Elachi 1987). ¡Muchos sensores ópticos se colocan en órbitas síncronas cerca del polo solar para lograr una cobertura y consistencia global! geometría de iluminación (por ejemplo, Landsat, A VHRR). El intervalo de repetición varía entre estos sensores dependiendo de su altitud y velocidad. Otros se colocan en órbitas geosíncronas para proporcionar cobertura de alta frecuencia de la misma región (por ejemplo, los satélites meteorológicos GOES). La capacidad de detectar cambios en una superficie con imágenes a lo largo del tiempo depende de las propiedades espaciales (registro geométrico y resolución), espectrales (ubicación y ancho de banda), radiométricas y temporales (frecuencia de imagen) del sistema sensor (Townshend y Justice 1988). La comparación de las imágenes adquiridas por el mismo sensor en diferentes fechas se complica por cualquier cambio en la ganancia y compensación del instrumento, así como por las diferencias en las propiedades atmosféricas, especialmente en la capa de nubes subpíxel. La detección de cambios es considerablemente más complicada cuando se usa más de un sistema de sensores debido al uso de diferencias en las propiedades del sensor IFOV, PSF, anchos de banda y respuesta espectral (Duggin 1985). Se han desarrollado muchas técnicas para la corrección atmosférica y la calibración radiométrica de imágenes satelitales para análisis multitemporales (por ejemplo, Holben y Fraser 1984; Hall y Badhwar 1987; Singh y Sau111988; Schott, Salvaggio y Volchok 1988; Suits, Malila y Weller 1988). Los cambios en las propiedades de reftectancia de la superficie causados por la geometría de la iluminación son menos fáciles de explicar. Estos son especialmente problemáticos porque pueden afectar en gran medida la relación entre las radiaciones satelitales y las propiedades de la superficie (Deering 1989). Por lo tanto, extraer información cuantitativa detallada de imágenes de varias fechas requiere algoritmos sofisticados para corregir la geometría de iluminación específica de la escena, los efectos atmosféricos y las características del sensor. Gran parte de la discusión previa sobre la variación ambiental espacial se aplica también a la variación temporal. Un proceso que funciona a través del tiempo puede describirse como continuo, discreto o intermitente, como estacionario o no estacionario, y como aleatorio, autocorrelacionado o regular (Jenkins y Watts 1968). Para muchas aplicaciones, la detección de remate puede tratarse como un muestreo puntual en el dominio del tiempo (es decir, el intervalo de tiempo durante el cual se adquiere la imagen puede suponerse insignificantemente corto). La ecuación [14.1] se puede reescribir en función del tiempo:
Si T es el intervalo de tiempo entre muestras sucesivas, una serie de
observaciones satelitales repetidas de una ubicación puede considerarse la convolución del cambio espectral continuo en el entorno por el filtro de muestreo temporal i (t), que puede modelarse como una serie de funciones delta: f (t) puede recuperarse de fr (t) para cambios temporales manifestados durante períodos de ~ 2T, o menos que la frecuencia de Nyquist de 112T. Los procesos que cambian a frecuencias más altas (períodos más cortos) se dividirán en h (t).