Documentos de Académico
Documentos de Profesional
Documentos de Cultura
EXPERIMENTAL INFRAESTRUCTURA
DE LOS LLANOS Y PROCESOS
OCCIDENTALES EZEQUIEL INDUSTRIALES
ZAMORA Programa de Ingeniería
TELEDETECCION Y SISTEMAS DE
INFORMACION GEOGRAFICA
CONVENIO UNELLEZ- SBNT
Elaborado por:
02 00 02 04 2
OBJETIVO GENERAL:
Al finalizar el curso el alumno conocerá las definiciones de Geomatica y las principales
disciplinas que la integran, teledetección y los sistemas de información geográfica.
SINOPSIS DE CONTENIDOS:
Geomatica
Tipos de sensores remotos, satélites comerciales, orbitas de los satélites, Resolución de las
imágenes de satélite.
Bases para la interpretación de las imágenes de satélite.
Criterios para la interpretación visual de las imágenes, Interpretación de las estadísticas de
la imagen.
Término propuesto en 1960 por el científico francés Bernard Dubuisson y retomado por
los canadienses a principios de 1980, para agrupar las disciplinas que contribuyen en la
gestión coherente de datos numéricos que describen el territorio y sus recursos.
- Teledetección
Sensores remotos (SR): son los dispositivos que permiten la referenciación a distancia
de la radiación electromagnética reflejada o emitida por la superficie de la tierra. Estos
son de diferentes tipos, de acuerdo con los principios básicos de diseño, su forma de
registrar los datos y la fuente de energía que emplean. Pueden ser cámaras, radares,
barredores ópticos, ópticos mecánicos, eléctricos etc..
Plataformas: son los vehículos o sitios donde se transportan los sensores. Pueden ser
plataformas satelitales o plataformas aéreas.
Los programas en teledetección, son los proyectos determinados que se emprenden por
distintos países, con el fin de realizar el lanzamiento de un satélite o de un avión con un
sensor remoto, que capte a distancia los datos de la superficie de la tierra. A lo largo de
la historia de la Percepción remota, son muchos los programas que han existido, algunos
muy conocidos son el LANDSAT, SPOT, JERS, etc.
La fuente de energia (A): es la que da origen al flujo energetico que es detectado por el
sensor
La radiación y la atmósfera (B): para que la energía vaya de la fuente hacia el objeto,
necesita atravesar e interactuar con la atmósfera. Esta interacción también sucederá
cuando la energia retorne de vuelta desde el objeto sensor.
Interacción con el objeto interés (C): cuando la energía llega a la tierra interactúa con
el objeto de interés, conformado por las diversas coberturas de la tierra (superficie
terrestre, atmósfera, océano), esta interacción se da en forma de algún fenómeno
(reflexión, emisión, absorción).
Sistema del sensor (D) es el que capta, codifica y graba la radiación que de vuelve el
objeto en tierra, sin estar en contacto con el. Después envía al sistema de recepción en
tierra la energía grabada.
Trasmisión, recepción y procesamiento (E): aquí los datos recibidos en forma digital
son preprocesados para obtener una imagen, bien sea en papel o en medio digital.
Componentes:
A: Fuente de energía
B: La radiación y la atmósfera
F: Interpretación y análisis B
E
ATMOSFERA
F
Ondas de radio
Microondas
Calor
Rayos ultravioleta
Rayos X
Rayos gamma.
Cada uno de ellos describe la energía en una región del espectro electromagnético.
Teorías Físicas:
Onda eléctrica
Onda magnética
C= *f
Teoría Cuantica: aunque la mayoría de las características de las ondas electromagnéticas son
descritas por la teoría clásica de las ondas, en ondas de longitudes muy cortas, la radiación
electromagnética interactúa con la materia en formas que la teoría de las ondas (y las ecuaciones
de Maxwell) no pueden contarlas.
La teoría cuantica explica el fenómeno de la radiación electromagnética basándose en sus
propiedades energéticas, siendo la formula esencial la siguiente:
Q= h*f
¿Qué relación existirá entre la longitud de onda y la cantidad de energía?, ¿A mayor longitud
de onda presentara mayor o menor energía?
Espectro electromagnético:
La luz visible corresponde al rango de longitudes de onda a las cuales es sensible el ojo
humano (400 +/- 750 nm). Las ondas más cortas (400 nm) se perciben de color azul y
las mas altas (750nm) se ven de color rojo, las longitudes intermedias se perciben de
color verde (540nm), amarillo (580nm), etc. La luz blanca esta constituida por una
combinación de ondas con energía semejante y longitudes de onda en el rango del
visible. La porción visible del espectro que junto con la banda infrarroja es la región
más utilizada para la generación de imágenes.
La luz infrarroja cubre el rango del espectro electromagnético con longitudes de onda
que van desde 0,78 mm a 1 mm. La banda infrarroja se divide en tres secciones de
acuerdo a su distancia a la luz visible: cercana (780 nm a 2.500 nm), intermedia (2.500
nm a 50.000 nm) y lejana (0,5 mm a 1 mm) esta última relacionada con la temperatura
del objeto.
Las microondas (1 mm a 30 cm) incluyen al radar como fuente de generación de
imágenes. Las ondas de radio se utilizan en la producción de imágenes por
ecosonogramas y el sonar en medio marino.
Ventanas atmosféricas:
La energía electromagnética debe atravesar la atmósfera para llegar a la superficie
terrestre, presentando atenuaciones o interferencias en el trayecto. Antes de llegar a la
Tierra, la radiación solar debe atravesar la atmósfera quien interactúa con ella y por su
composición produce un efecto de filtro permitiendo el paso de ciertos rangos del
espectro.
Los mecanismos de absorción de la atmósfera, alteran la cantidad de radiación solar que
alcanza la superficie de la Tierra. Otro efecto atmosférico que también puede alterar
significativamente la radiación que llega al sensor es la dispersión o difusión de
radiación por partículas de la atmósfera. La suma de estas dos formas de pérdida de
energía se denomina atenuación atmosférica
Existen porciones del espectro electromagnético que pueden pasar la atmósfera con
poca o ninguna atenuación y son conocidas como ventanas atmosféricas. Los sensores
colocados en los satélites de observación terrestre operan en las longitudes de onda
correspondientes a la máxima transmitancia de la atmósfera o ventanas atmosféricas.
Transmitancia
Longitud de onda
Región visible
Figura Nº 5 Ventanas atmosféricas
¿Qué importancia tiene para la teledetección la existencia de ventanas atmosféricas? ¿En el
caso de los satélites metereológicos también captan imágenes en las regiones del espectro
donde hay poca atenuación (absorción y dispersión por la atmósfera)? Explique.
Azul Azul
Rojo
Azul
Como se puede observar hay regiones del espectro en donde la cantidad de energía
reflejada por la vegetación sana es mucho mayor que la reflejada por la vegetación
enferma (ver línea roja dentro del grafico), así mismo existen longitudes de onda en la
que la vegetación presenta un comportamiento marcadamente diferente al de otra
cobertura como el agua o el suelo, es en estos puntos donde se facilita la diferenciación
de cada categoría. Las imágenes de satélite se denominan multiespectrales porque
capturan de una misma región diferentes escenas (imágenes) cada una en diferentes
longitudes del espectro (ejemplo imagen 1: longitud de onda del color azul, imagen 2:
longitud de onda del color verde, imagen 3: longitud de onda del color rojo etc.). Con
estas imágenes y basándose en el principio antes descrito es posible diferenciar y
cartografiar las diferentes coberturas.
Dentro de la firma espectral, dependiendo de las longitudes de onda analizada, es
posible el análisis particularizado de características de la cubierta bajo estudio. En el
siguiente diagrama podemos ver como aspectos como la pigmentación, contenido en
agua, etc influyen sobre la firma espectral de la vegetación. Generalmente la vegetación
presenta poca reflactancia en la región del azul y el rojo, mediana reflactancia en el
verde y alta reflactancia en el infrarrojo cercano y medio.
¿Qué importancia tiene el estudio de una región en el infrarrojo para diferenciar la
vegetación? ¿En que regiones se puede diferenciar con mayor facilidad el agua de otras
coberturas, el suelo de la vegetación?
Figura Nº 9 factores que afectan la reflectividad de las hojas verdes
La firma espectral varia con el tiempo, por ejemplo en el caso de un cultivo cambiara a medida
que avanza en las diferentes etapas de crecimiento. Por otra parte cada variedad de cultivo
presenta una firma espectral característica, pero todas siguen más o menos el patrón de la figura
Nº 8. El suelo desnudo y las rocas presentan una firma espectral que dependen de los minerales
que lo componen y el grado de humedad.
Las plataformas espaciales o satélites pueden ser clasificados según su orbita. El camino
seguido por un satélite es llamado su orbita.
Satélites de orbita geoestacionaria: satélites a gran altitud, aproximadamente 36.000
km, que ven la misma porción de la superficie de la tierra. Los satélites geoestacionarios
giran con velocidades que se comparan con la rotación de la tierra de tal forma que ellos
son estacionarios, esto permite al satélite observar y coleccionar continuamente
información sobre la misma área. Los satélites de comunicación y metereológicos
normalmente tienen estos tipos de orbita (GOES, Meteosat).
Satélites de orbita polar: siguen una orbita norte-sur (movimientos ascendentes y
descendentes) que junto con la rotación de la tierra (este-oeste), les permite cubrir la
mayoría de su superficie. La mayoría de los satélites de percepción remota están en
orbitas polares o casi polares. Los sensores que reflejan la energía solar reflejada sol
hacen tomas de la superficie de la tierra en su paso descendente, cuando la iluminación
solar esta disponible. Los sensores activos que proporcionan su propia iluminación
pueden tomar datos de la superficie durante el paso ascendente. Entre otras
características se encuentran: pasan mas o menos cada 15 días por el mismo sitio,
captan imágenes de gran detalle, la altitud varia entre 300 a 900 km (LANDSAT,
SPOT, IKONOS, ORBVIEW, RADARSAT etc.)
Satélite geoestacionario
Satélite de orbita Polar
Figura Nº 12: Orbitas de los satélites
Resolución espacial: este concepto describe la capacidad del sistema para distinguir
objetos según su tamaño. La resolución espacial suele interpretarse como el tamaño del
objeto más pequeño que puede ser distinguido en una imagen: tamaño del píxel en el
terreno. La resolución espacial tiene implicaciones importantes para: la definición de
objetos sobre la superficie, la escala del análisis, precisión en la localización y exactitud.
Figura Nº 13. imagen a
distintas resoluciones
espaciales
¿Qué relaciones existen entre la escala y la resolución espacial? ¿si se desea adquirir
una imagen de satélite para un urbanismo, o un proyecto de catastro urbano que
satélite recomendaría? ¿ si se desea adquirir una imagen de satélite y el estudio es a
nivel municipal con fines de ordenamiento o determinación de vegetación que satélite
recomendaría?
Resolución espectral:. como se explico anteriormente los sensores generan imágenes de
una misma región geográfica utilizando la energía reflejada en rangos especificos del
espectro. Se denomina banda a cada rango del espectro detectado
Indica el número y anchura de las bandas espectrales que puede discriminar el sensor.
La resolución espectral es alta cuanto mayor es el número de bandas que el sensor
proporcione.
A su vez, es conveniente que estas bandas sean estrechas con el fin de recoger la señal
en regiones coherentes del espectro. Bandas muy amplias suponen registrar un valor
promedio que puede encubrir la diferenciación espectral entre cubiertas de interés. El
siguiente grafico aclara este concepto:
Reflactancia%
Reflactancia%
agua
agua
vegetacion vegetacion
03 bandas 01 banda
Figura Nº 15: consecuencias de la resolución espectral.
Resolución angular: por ella se entiende la capacidad que tiene un sensor para tomar
imágenes oblicuas. Esta propiedad permite no solamente acortar los ciclos temporales
de recubrimiento, sino que posibilita la generación de imágenes estereoscópicas y por
tanto la reconstrucción del relieve (generación de modelos digitales de terreno).
QuickBird:
QuickBird es un satélite de alta resolución de propiedad y operado por DigitalGlobe.
Utilizando un sensor exclusivo Sensor BGIS 2000. QuickBird utiliza un sensor remoto con
un grado de detalle de 0.61m píxeles de resolución. Este satélite es una excelente fuente
de información ambiental para el análisis de los cambios en la utilización terrestre, en la
agricultura y climatización forestal. La capacidad de imagen de QuickBird puede
aplicarse a una variedad de industrias, incluyendo la Explotación y producción de gas y
petróleo (E&P), ingeniería y construcción y estudios ambientales.
Fecha de lanzamiento 18 de Octubre del 2001
Vehículo utilizado Boeing Delta II
Ubicación del lanzamiento Vandenberg Air Force Base, California, E.E.U.U
Altitud de órbita 450 Km
Inclinación de órbita 97.2º, sincronización solar
Velocidad 7.1 Km/segundos - 25,560 Km/hora
Horario de cruce por el
10:30 a.m. (nódulo en descenso)
Ecuador
Tiempo en órbita 93.5 minutos
1-3.5 días dependiendo en latutid (30º off-
Tiempo de regreso
nadir)
Anchura de ringlera 16.5 Km x 16.5 Km a nadir
Exactitud métrica 23-metros horizontal (CE90%)
Digitación 11 bits
Pan: 61 cm (nadir) to 72 cm (25º off-nadir)
Resolución
MS: 2.44 m (nadir) to 2.88 m (25º off-nadir)
Pan: 450 - 900 nm
Azul: 450 - 520 nm
Bandas de imagen Verde: 520 - 600 nm
Roja: 630 - 690 nm
Cerca IR 760 - 900 nm
IKONOS
24 de septiembre de 1999
Fecha de lanzamiento Vandenberg Air Force Base, California,
E.E.U.U
Vida operacional Más de 7 años
Órbita 98.1 grados, sincronización solar
Velocidad en órbita 7.5 kilómetros por segundo
Velocidad sobre la tierra 6.8 kilómetros por segundo
Número de revoluciones alrededor de la
14.7 cada 24 horas
tierra
Tiempo de órbita alrededor de la tierra 98 minutos
Altitud 681 kilómetros
Nadir:
0.82 metros pancromáticos
Resolución 3.2 metros multiespectrales 26° Off-Nadir
1.0 metros pancromáticos
4.0 metros multiespectrales
11.3 kilómetros en nadir
Imagen de Ringlera
13.8 kilómetros a 26° off-nadir
Tiempo de cruce por el Ecuador Nominalmente 10:30 a.m. tiempo solar
Tiempo de regreso Aproximadamente 3 días a 40° de latitud
Dinámica de alcance 11-bits por pixel
Bandas de imagen Pancromática, azul, verde, rojo cerca de IR
Figura Nº Características del sensor IKONOS
BASES PARA LA INTERPRETACIÓN DE LAS IMÁGENES DE SATÉLITE
Estadística de la imagen:
Como se señalo con anterioridad una imagen es una matriz de valores numéricos,
formada por filas y columnas, cada celda es denominada píxel. La celda o píxel tiene un
valor (ND: Nivel Digital) que esta relacionado directamente con la intensidad de la
energía reflejada captada por el sensor. Para visualizar la imagen a cada valor se le
asigna un color, un tono de gris. Lo mismo sucede para cada una de las bandas.
Esta gran cantidad de datos puede ser estudiada por métodos estadísticos que nos
permitirán entender la distribución de los datos y como alterarlos para mejorar el
aspecto de la imagen y facilitar su interpretación.
Extracción de información
Clasificación:
El primer paso en un proceso de clasificación es definir áreas de entrenamiento. Este
proceso consiste en reconocer la firma espectral de las clases.
Considerando la selección de las áreas de entrenamiento existen básicamente dos
formas de clasificación de imágenes las cuales son: supervisado y no supervisado.
Clasificación Supervisada
Cuando existen regiones de la imagen en las que el usuario dispone de informaciones
que permiten la identificación de una clase de interés, el entrenamiento es denominado
supervisado.
Para la definición de áreas de entrenamiento supervisado el usuario debe identificar en
la imagen un área representativa de cada clase. Es importante que el área de
entrenamiento sea una muestra homogénea de la respectiva clase. Es recomendable
adquirir más de un área de entrenamiento, utilizando el mayor número de informaciones
disponibles, como trabajos de campo, mapas, entre otros.
El resultado final de un proceso de clasificación es una imagen digital que constituye un
mapa de "píxels" clasificados, representados por símbolos gráficos o colores.
Clasificación no supervisada:
La clasificación no supervisada se aplica cuando no se tienen áreas de entrenamiento
disponibles, y se desarrolla a través del análisis de "clusters”, el cual consiste en la
separación de la imagen en clases, conjuntos de píxeles con comportamiento espectral
homogéneo. Este algoritmo genera tantas clases como solicite el usuario, luego se
procede a la revisión de la imagen generada para tratar de relacionar cada clase con su
cobertura correspondiente (uso de la tierra).
SISTEMAS DE INFORMACIÓN GEOGRÁFICA (SIG)
I.- DEFINICIONES
SIG
Análisis espacial
Orientación:
Múltiples Aplicaciones
Catastro; Inventario R.N.; E.I.; Telecomunicaciones; Gestión de RN;
Administración agua, Electricidad, residuos sólidos y otros; Geoestadistica
aplicada (SIG Raster); Desastres;
Figura Nº 23
De las muchas definiciones que existen de SIG, algunas de ellas acentúan el
componente de base de datos, otras la funcionalidad y otras enfatizan el rol de apoyo en
la toma de decisiones, pero todas convergen al referirse al SIG como un sistema
integrado para procesar información espacial, herramienta esencial para el análisis y
toma de decisiones en muchas áreas vitales para el desarrollo de un país.
Un SIG es capaz de administrar tanto los aspectos geográficos como atributivos o
temáticos de la información (Figura 3.1), estructurando los datos mediante capas
temáticas que se interrelacionan entre si. En efecto, además de integrar la funcionalidad
clásica de las bases de datos relacionales, el SIG permite la generación de cartografía
temática, consulta y distribución de información geográfica.
Resulta conveniente aclarar que cuando se habla de un proyecto de SIG, se refiere a la
adquisición de una plataforma infomática (programas y equipo de computación), la
recolección de los datos, la introducción de éstos en el sistema y el análisis y
preparación para la posterior utilización por parte de determinados usuarios.
Un SIG permite:
• Visualizar: visualización gráfica
• Organizar: estructurar la información basados en coordenadas geográficas y
teniendo en cuenta atributos lógicos
• Integrar: información proveniente de diferentes fuentes: digitalización,
fotografías aéreas, imágenes de satélite, datos tabulares
• Analizar: inferir otra información: calcular áreas, interpolar, inferir zonas de
influencia
• Predecir: extraer patrones de comportamiento para predecir comportamientos
futuros
Componentes de un Sistema de Información Geográfico:
SIG
Software Usuarios
Figura Nº 24
Objetivos de un SIG
Un SIG es una herramienta de análisis.
Su propósito último es servir de soporte objetivo para la toma de decisiones basada en
la información espacial (datos territoriales).
NOTA:
Es importante enfatizar en que un programa SIG no es más que un instrumento para
realizar una mejor toma de decisiones. Es más, se puede hacer SIG para la toma de
decisiones, sin necesitar de equipo, ni programas poderosos y caros a la vez, sin
embargo, el ahorro en tiempo y el poder efectuar simulación, además del modelaje,
hacen que el SIG por computador sea atractivo para diferentes disciplinas.
Raster
Vectorial
Vectorial
Los datos geográficos están representados por modelos vectoriales, donde las
características geométricas y topológicas se expresan explícitamente usando líneas,
puntos y polígonos.
El dato geográfico tiene asociado un conjunto de datos temáticos que pueden estar
almacenados en una misma base de datos o base de datos separadas. Cada objeto o
característica espacial tiene un identificador único asociado, usado para relacionar los
datos espaciales con los temáticos
Álgebra de mapas
Se denomina álgebra de mapas a un conjunto de operadores que permite utilizar los
datos espaciales como operandos en una expresión de cálculo
tmedia = (tmedmax + tmedmin) / 2 interseccion = mapa_1 ?mapa_2
• Imágenes de satélite
• Ortofotos
• Referencias
A tantos .km de ...
Contenido en...., al noreste...
En la esquina