Está en la página 1de 46

☊ Para trabajar con información temática a macro y meso escala, es necesario

trabajar en una resolución temporal de un año, con mayor amplitud en la resolución


espacial.
☊ Calidad de agua/derrames: 10m-1km de resolución espacial, pero la escala temporal
tiene que ser de 1 dia a una semana.
☊ Clima: escala espacial de 10.000km y una resolución temporal de 100 años
☊ Procesos moleculares: necesitamos alta resolución espacial y temporal.

Transformación y registro:
Recordamos: un sensor es un dispositivo que detecta radiación electromagnética emitida o
reflejada y la convierte en un valor físico que puede ser grabado y procesado. El sensor,
mediante sus detectores actúa como un convertidor analógico digital, generando una
corriente eléctrica cuya intensidad es directamente proporcional a la radiancia de cada
una de las cubiertas.
La radiancia que refleja el sensor es la energía reflejada o emitida por una superficie, que el
sensor transforma en un valor numérico, el cual se almacena en un medio magnético. Esta
calibración se realiza ordenadamente gracias a la calibración precisa del sensor.
El territorio se divide en parcelas cuadradas que corresponden al área observada por el
sensor y la unidad mínima de información es el valor se registra en una celda que se llama
pixel, formado a partir de la intersección de las filas y las columnas. El valor del pixel, es un
valor de radiancia que resulta de un promedio correspondiente a las distintas cubiertas que
se encuentran debajo del campo de visión instantánea del sensor→ Nivel digital; valor
numérico que puede transformarse en valor de intensidad visual. Cada número que es parte
de la matriz numérica que constituye la imagen, corresponde a la radiancia recibida por el
sensor para una porción concreta del terreno y en una banda espectral determinada. Al
visualizar la imagen, ese valor numérico se expresa como un valor de gris para cada celda

53
El valor de reflectividad (proporcional a la
intensidad detectada por el sensor), se almacena en el píxel, lo que da lugar a una matriz:
➔ La matriz es discreta y finita: espacialmente tiene un número finito de celdas de un
tamaño determinado
➔ En cuanto a la luminancia, los valores van a ser en forma entera entre un mínimo y
un máximo que va a depender de la resolución radiométrica del sensor. El píxel va a
contener un nivel de gris que vamos a llamar nivel digital.
➔ Representa la radiancia medida en un sector del espectro. Los sensores tienen la
capacidad de medir varios sectores del espectro→ cada una de las matrices es
una región del espectro que son las bandas. Estas bandas en conjunto serán la
imagen satelital.
➔ Cada número que es parte de la matriz numérica que constituye la imagen,
corresponde a la radiancia recibida por el sensor para una porción concreta del
terreno y en una banda espectral determinada. Al visualizar la imagen, ese valor
numérico se expresa como un valor de gris para cada celda→ según el sector del
espectro con el que se trabaja.
Entonces, los datos de la imagen pueden ser esquematizados en una matriz de tres
dimensiones: posición geográfica y la tercera dimensión es espectral

🎬
El proceso:

🎬
La escena

🎬
Los sectores del espectro que capta el sensor→ banda

🎬
Imagen multiespectral: es una imagen formada por pocas bandas (3-20 bandas)
La imagen hiperespectral es la que tiene mayor cantidad de bandas y se considera
más de 20 bandas de forma contigua.

Cada una de las celdas que conforman la matriz (pixel), componen los datos raster. Los
datos raster se componen de filas y columnas de celdas, cada celda almacena un valor
único. Pueden ser imágenes (imágenes raster), con un valor de color en cada celda (o
pixel).
Cuando trabajamos con imágenes hay formas de almacenamiento de los datos raster,
los cuales se almacenan como una secuencia de bytes, es importante saber esto para
poder reconstruir la información detectada por el sensor. Cada una de las matrices de la
imagen se podrán abrir de diferentes formas:
➢ Bandas secuenciales: es el formato más simple, óptimo para
el acceso espacial a cualquier parte de una sola banda
espectral. Si tengo que localizar algo, la idea sería trabajar
con este formato→ se graban de forma que los niveles

54
digitales de cada banda se disponen físicamente uno a continuación del otro
hasta completar la banda (primero la 1, después la 2 etc). *Los ND de cada banda
se disponen uno a continuación del otro hasta completar todos los píxeles que la
forman*

➢ Bandas intercaladas por línea: proporciona un compromiso de


funcionamiento entre el proceso espacial y espectral y es el
formato recomendado para la mayoría de los procesos. No
solo es ágil para la localización, sino también cuando se
quiere trabajar con muchas bandas (hiperespectral). La
disposición de los niveles digitales se hace por línea (se
graba una línea en todas las bandas sucesivamente) Tienen
la primera línea de la primera banda, seguido por la primera
línea de la segunda banda, seguida por la primera línea de la
tercera banda, interpolada hasta el número de bandas.
*Dispone consecutivamente los correspondientes ND a todas
las bandas, para cada línea, antes de comenzar con la
siguiente*

➢ Banda intercalada por pixel: proporciona un óptimo funcionamiento del proceso


espectral (trabajar imágenes multiespectrales). Tienen el primer píxel para todas las
bandas en orden secuencial, seguido por el segundo píxel para todas las bandas,
seguido por el tercer píxel para todas las bandas, etc… interpolados así todo el
conjunto de pixeles (pixel uno banda de cada banda, seguido por el pixel dos de
cada banda.. etc). Este formato proporciona funcionamiento óptimo para el acceso
espectral. *Alternan cada pixel*

¿Cuánta información disponible tengo en una sola imagen?

Histogramas y realces→ análisis de la imagen


Histograma: da información de la frecuencia de los valores radiométricos asociados
a cada píxel por cada banda. Una forma de representar la distribución de los niveles de
grises en una imagen. Brinda información de cuantos pixeles en una imagen poseen un
nivel determinado de gris, definido entre 0-255 (8 bit)--> frecuencia de píxeles, por nivel
digital.

55
No presentan información espacial: tienen un eje x, donde se muestra los niveles de grises
y un eje y donde se expresa la frecuencia en que ocurren.
Forma de leer:
1. Bits, en un extremo la ausencia de luz
(negro) y en el otro la presencia total de luz
(blanco). Dividiendo en el medio entre
sombras, medios tonos y altas luces:

Una imagen de buena calidad va a producir un


histograma que más o menos, sea uniforme,
con sus valores repartidos en todo el rango de
niveles grises.
● Concentrados en los extremos (altos
valores blancos y negros): mucho contraste.
● Concentrado en una zona: poco
contraste.

Para realizar una caracterización estadística de la imagen debemos saber cuántos pixeles
hay, cual es su media, máximos, mínimos y varianza. Se puede calcular tanto de una
banda, como de todas las bandas que tenga la imagen. Función que representa la
frecuencia de ocurrencia de cada uno de los niveles de gris (ND)
Tipos de histogramas:
⛕ Distribución normal de la frecuencia→ forma de campana. Generalmente está
representando un tipo de cobertura en la mayor parte de la imagen.
⛕ Bimodal: dos distribuciones características.
⛕ Asimetría negativa: donde la cola de la distribución se alarga para valores inferiores
a la media
⛕ Asimetría negativa: la cola de la distribución a la derecha de los valores superiores a
la media.
La base nos va a decir sobre la tonalidad de la base y los máximos nos van a hablar acerca
de tipos de cobertura

56
Ajuste de contraste: se hace aplicando una función de transformación a una
imagen de entrada la cual va a tener una imagen de salida. Tienden a adaptar la resolución
radiométrica de la imagen a la capacidad del monitor de visualización, tratando de disponer
mejor los datos para su análisis visual.

Comprensión del contraste: el rango del sensor supera al número de niveles de gris que
puede visualizarse.
La imagen con mayor número de niveles digitales que niveles de visualización en la
computadora/placa/monitor. Los ajustes se van a tener que hacer en 2 situaciones: monitor
o placa de video con baja potencia o cuando estamos trabajando con sensores que cuentan
con una resolución radiométrica mucho más alta→ sistemas de visualización no lo soportan.
Se puede resolver eliminando una parte de la escala que no se considere relevante
(elimina información arbitrariamente) o estableciendo una función de compresión de
datos. Pueden indicarse intervalos de igual anchura, que contenga el mismo número de
elementos→ se le asigna un único NV, eliminando la variación interna. Se reduce el
contraste, los colores se diferencian menos entre sí.

Expansión del contraste: rango de ND inferior a las capacidades del equipo


En caso contrario, con niveles digitales de la imagen es menor que el nivel de visualización
(capacidad) del monitor.
● Expansión lineal: se aplica una función lineal a una imagen de entrada donde se
busca el mínimo valor de esa imagen y el máximo para ajustarlo (expandirlo
hasta los valores extremos) y aprovechar todos los niveles de visualización que
tenga el monitor. Como resultado tengo un histograma que aprovecha todos los
valores de visualización→ distribución más equilibrada. Las colas del histograma se
han fijado en los extremos del rango y los valores intermedios quedan mejor
repartidos en la escala.
También se pueden dar otra situación: en el histograma tenemos un valor mínimo de
0 y un valor máximo de 255, en este caso la expansión lineal, el resultado no va a
ser el esperado. Se aprovecha el primer cuartil de cada uno de los extremos, para
hacer toda la expansión lineal del histograma
○ Si yo quiero oscurecer los tonos medios debe aplicarse una parábola
○ Si quiero aclarar los tonos medios debe aplicarse una raíz
○ Si quiero aclarar los tonos oscuros y oscurecer los claros debe aplicarse una
combinación.
No tiene en cuenta la distribución de los ND, solo sus extremos.

● Ecualización del histograma: si dentro de la imagen hay un objeto cuya intensidad de


color es mas débil que los objetos que estan a su alrededor y su rango de valores es

57
pequeño comparando con el rango total de la imagen, este objeto va a pasar
desapercibido. Se va a tratar de producir un histograma lo más equilibrado posible,
teniendo en cuenta la distribución real de los valores. Se trata de hacer una
expansión proporcional a la frecuencia de aparición de los niveles digitales. Aquellos
ND con mayor número de píxeles, serán los que, proporcionalmente, ocupen un
mayor rango de niveles visuales. Se da un realce equilibrado, mostrando menos
contraste.

Existen casos en que la expansión lineal y la ecualización de histograma no son suficientes


para seleccionar un rasgo característico→ se puede realizar una expansión especial:
● Se realiza una selección/corte de un umbral máximo o mínimo acorde a el rango de
la cubierta digital que yo quiero destacar. Es una combinación de ambas técnicas.
Se restringe el contraste a un rango específico de ND, en donde se manifiesta a
cubierta de interés.

Cada sensor codifica la radiancia recibida en un número determinado de ND, de acuerdo


las características del diseño. Ese rango puede no responder al número de niveles
visuales de nuestro sistema.

Tengo que trabajar una imagen L8 ¿Qué característica tiene el sistema de visualización que
voy a usar? ¿Necesito compresión o expansión del contraste?

Análisis de imagen-pre procesamiento: Correcciones


Se corrige un producto de transformaciones o errores de transformación y registro: los
sensores espectrales almacenan un valor numérico al que se llama nivel digital, que es
proporcional a la energía que reciben de las diferentes cubiertas. Esta energía se la conoce
con el nombre de radiancia espectral, que es captada por el sensor.

58
Tienden a eliminar cualquier anomalía de la imagen, disponiendo los datos a una
adquisición idónea.
Si bien, los sensores remotos son calibrados previo al lanzamiento, algunas variables hacen
que sea necesario volver a calibrar de forma periódica. Ejemplo: Landsat, el paso del tiempo
y el deterioro de los espejos, hace que se tenga que volver a calibrar. Las calibraciones son
realizadas generalmente por la agencia responsable de cada misión, mediante procesos
específicos, en donde se obtienen valores exactos para ajustar los niveles digitales.
● NOAA, comunica periódicamente los valores de estos coeficientes para sus
plataformas a través de la web. Todas las imágenes que se descarguen del GLOBIS
van acompañadas de un archivo de texto con los parámetros de corrección.
Las correcciones que se deben realizar en las imágenes, tienden a eliminar las anomalías
causadas por la señal que llega al satélite luego de que atravesó la atmósfera, el efecto va a
producir errores en la localización y en los ND de los pixeles.Pueden presentar
alteraciones radiométricas y geométricas de forma que no coincida con el tono, posición o
tamaño de los objetos.
Estas correcciones tienden a eliminar las anomalías en su localización, en sus niveles
de radiación, posición del píxel→ no se corrigen efectos de la imagen, sino que se utiliza
para una mejor utilización.
➢ Corrección geométrica: se asigna un sistema de proyección, muchas veces
resulta ser un paso necesario, teniendo en cuenta el tipo de material que se está
trabajando y si necesita esta corrección. Muchos productos que se descargan de la
WEB, por ejemplo desde GLOBIS, tienen hecha la corrección geométrica pero para
el hemisferio norte. Actualmente se considera que las correcciones de este tipo se
hacen después de las radiométricas, ya que modifican el pixel.
➢ Correcciones radiométricas, del valor del pixel: frecuentemente son necesarias
pero van a depender del objeto que se estudia.
Las anomalías pueden ser producidas por:
Distorsiones originadas por la plataforma, distorsiones provocadas por la rotación
terrestre, distorsiones provocadas por el sensor y distorsiones provocadas por las
condiciones ambientales. Hacen que la imagen no coincida exactamente con la
radiancia-posición-forma-tamaño de los objetos. Todas estas van a dar una variación en
la radiancia, posición, forma y tamaño de los objetos, que va a provocar que la imagen no
sea la real.

👉 Distorsiones en la plataforma: pueden producirse por el aleteo, cabeceo, ladeo,


variación en la altura de la órbita o variación en la velocidad del satélite. Pueden
producir errores no sistemáticos.

59
👉 Distorsiones provocadas por la rotación terrestre: el tiempo que tarda el sensor en
tomar la imagen y el movimiento de la tierra va a producir una orientación
suroeste-noreste en la imagen. Al adquirir la escena, el sensor invierte tiempo en
rastrearla, durante ese tiempo la tierra sigue girando y origina un desplazamiento de
las líneas de barrido.
○ Ejemplo: Landsat MSS tiene una imagen de 2250 x 2250), tarda 28 segundos
en levantar una imagen de 185 km x 185 km, en ese tiempo la Tierra ha
rotado alrededor de 8 Km por lo que se ha cambiado la orientación de la

👉
misma
Distorsiones provocadas por el sensor: los sensores de barrido electrónico, realizan
una exploración perpendicular a la trayectoria del satélite mediante la oscilación del
espejo que envía la radiación registrada a una cadena de detectores sólidos. Este
movimiento puede alterarse por anomalías del sensor, provocando un efecto de
barrido no lineal o cambios en el intervalo de toma de la información→ implica una
transformación de la resolución efectiva de la imagen. Otro problema importante es
la falta de calibración entre distintos sensores→ es importante que traduzcan
uniformemente la señal detectada , con el objeto de que la radiancia recibida no se
codifique en niveles digitales diferentes, provocando un efecto de bandeado en la

👉
imagen final.
Distorsiones provocadas por condiciones ambientales: procesos que se producen en
la atmósfera en el trayecto de la radiación. La atmósfera causa una modificación de
la radiancia original que proviene de la superficie de la tierra, el efecto más
importante va a ser la dispersión a consecuencia de la estructura de la atmósfera.
Este efecto produce un aumento de la energía recibida por el sensor y va a ser más
sensible en longitudes de onda corta, porque las mismas tienden a presentar un
menor contraste entre coberturas similares de comportamiento radiométrico.
La dispersión en el visible va a afectar significativamente, produciendo una
reducción en el contraste entre cobertura similares, produciendo una alta
reflectividad en el azul y la absorción va a tener incidencia sobre todo en el espectro
térmico.

Para corregir se utilizan diferentes modelos con complejidad dispares: radiométrico y


atmosférico.

Las correcciones son aquellos procesos que tienden a eliminar cualquier anomalía
detectada en la imagen, ya sea su localización o en los niveles digitales de los píxeles
que la componen. Estas operaciones tienden a disponer los datos de la forma más cercana
posible a la adquisición idónea, tanto en la posición como en la radiancia de los píxeles.
Cuando tomamos una imagen inicial, sin procesar, la llamamos cruda. Hay Dos tipos de
correcciones que se pueden hacer:
● Radiométrica: calibración de los datos, corrección atmosférica.
● Corrección geométrica: rectificación, georeferenciación y registración
A partir de las dos correcciones, ya podemos manipular los datos corregidos: realces,
segmentación, álgebra de imágenes, índices, aplicación de algoritmos, componentes
principales, clasificación, para obtener productos finales.

60
Corrección radiométrica
Estas correcciones se realizan con el objetivo de modificar los ND originales para intentar
aproximarlos al valor digital que tendrían bajo condiciones ideales de captación de la
imagen. Los problemas radiométricos más usuales derivan del mal funcionamiento del
sistema sensor, de efectos atmosféricos y de la introducción de ruido en la señal.
Puede ser por,
A. Restauración pixeles o líneas perdidas: se produce por mal funcionamiento del
sensor o de la antena→ píxeles sin datos. Los procesos se dirigen a mejorar
artificialmente el aspecto visual de la imagen para facilitar su interpretación.
B. Corrección del bandeado de la imagen: falta de la información en forma de
banda, se debe a un mal calibrado entre los detectores que forman el sensor→
landsat 7, en el centro de la imagen se podría obtener información. Un bandeado
vertical se produce porque cada columna de la imagen es adquirida por un sensor
diferente.
C. Cálculo de reflectividades: llevar ese nivel digital que tenemos en el sensor y
transformarlos a reflectividades a través de modelos simplificados y de corrección
atmosférica. Conversión de los ND a variables físicas→ a mayor ND, mayor
reflectancia, pero no sirve para comparar bandas entre sí.

Los pasos para la corrección atmosférica son:

1.Corrección/calibración radiométrica:
Paso de los niveles digitales a la radiancia. La señal que recibe el sensor es
codificada en diferentes valores de niveles digitales, de acuerdo a la reflexión de la
radiación electromagnética de las diferentes cubiertas. Este valor de ND está en función de
la reflectancia de los materiales de las cubiertas, la distancia solar, dispersión y absorción
de la atmósfera, la pendiente y el aspecto de la superficie que refleja en relación con el
angulo cenital solar, ángulo de visión del sensor y el ajuste de las ganancias que llegan al
sensor.
La transformación se hace a partir de coeficientes de calibración que están en el
metadato de la imagen de manera inversa para obtener valores de radiancia espectral
(el sensor mide la radiancia pero la presenta en valores de ND). Para muchos satélites y
sobre todo para los Landsat, los detectores están calibrados de manera tal es una relación
lineal entre los niveles digitales y la radiancia espectral, la cual se describe por tres

61
parámetros: el rango de niveles digitales, la radiación mínima y la radiación máxima
(ganancias y pérdidas).
La energía que llega al sensor es la que proviene directamente del sol y la reflectividad de la
cubierta, sin embargo el sensor también recibe energía proveniente de los procesos de
dispersión de la atmósfera. También una parte de esa energía que se dispersó, sigue su
trayecto hasta ponerse en contacto con la superficie, a partir de ahí sigue su trayecto hacia
el sensor. Todos estos procesos que ocurren son los que va a estar detectando el nivel
digital.
Se suma radiancia que llega energía que llega por los procesos atmosféricos, también hay
pérdidas de estas energía, sobretodo de estos objetos o coberturas que están en la
superficie (pérdidas)
El nivel digital va a estar afectado por todos los procesos: en este paso las ganancias
y pérdidas se calibran con coeficientes que están en el metadato de la imagen. Cada
uno de los datos en el metadato representa para cada banda cual es la ganancia y cual es
la pérdida.

2. Conversión de la radiancia a la reflectancia aparente:


A la reflectancia tomada por el sensor sin corrección, con todas las distorsiones provocadas
por la atmósfera.
Esta conversión hace remover el efecto producido por el ángulo solar, compensando las
diferencias en los valores de irradiación solar exoatmosférica. Para su realización se
considera una fórmula: la reflectividad es igual a la radiancia reflejada sobre la irradiancia
incidente→ la reflectividad al tope de la atmósfera, va a ser igual la irradiancia reflejada
(π*radiancia total que llega al sensor) sobre la radiancia incidente que se define como la
radiancia exotmosférica por la distancia tierra-sol por el coseno de tita.

3. Conversión a reflectancia superficie:


Sacar las distorsiones provocadas por la atmósfera.

62
Transformar la reflectancia calculada al tope de la atmósfera, se la lleva a la superficie→
sacar los efectos de dispersión.
Se hace agregando a la ecuación anterior los efectos de: transmisividad de la atmósfera y
de irradiancia hacia abajo de las dispersiones.
A la radiancia del satélite se le resta la irradiancia directa de la atmósfera (sin dispersión).Se
considera la transmisividad y la irradiancia que no sufre dispersión y llega a la atmósfera.
Para llevar adelante la ecuación y las correcciones hay una cantidad alta de modelos:
➔ Modelo de sustracción de objetos oscuros: postula que la bruma atmosférica
incrementa los niveles digitales en áreas de las imágenes donde hay agua limpia,
calma y profunda, donde por las características físicas deben presentar una
reflectancia nula. El valor representativo de esa diferencia se sustrae en cada banda,
en todos los píxeles de la escena.
➔ Modelo cost: mejora del modelo anterior. Considera los mismos parámetros del
método DOS, pero estima la transmitancia como el coseno del ángulo cenital solar.

¿Qué conceptos anteriores al parcial están directamente relacionados con esta clase?

63
Corrección geométrica→ análisis
Se refiere a cualquier cambio en la posición/coordenadas que ocupan los píxeles en la
imagen original. Se basan en funciones numéricas que permiten modificar la geometría de
la imagen. No se pretende corregir los niveles digitales sino su posición, es decir sus
coordenadas geográficas. Orientan la posición de los pixeles a un sistema de referencias
Elimina las distorsiones geométricas sistemáticas introducidas en la etapa de formación de
las imágenes: cabeceo, alabeo, giro lateral y las provocadas por la trayectoria, altura y
velocidad del satélite. Son esenciales para la formación para generar mosaicos.
● Incluyen la corrección de las distorsiones geométricas que se pueden deber a las
variaciones entre el sensor y la geometría de la tierra.
● Involucra la identificación de las coordenadas de la imagen (Fila, columna) de varios
puntos claramente discernibles, llamados GCP (Ground control point)--> puntos de
control
● Realizar la conversión de la información a las coordenadas del mundo real

Cuando tenemos una imagen cruda como material inicial, muchas veces estas no tienen
sistemas de referencia con la tierra. La ubicación de la imagen, se va a definir por lo que
llamamos una grilla raster. La corrección geométrica que se realiza, utilizando las grillas, va
a ser imprescindible para poder superponer cualquier otro tipo de información auxiliar o para
hacer estudios multitemporales.
1. Rectificación: conversión de las coordenadas del archivo de datos a alguna grilla y
por lo tanto, a un sistemas de coordenadas llamado sistema de referencia, en
general, se refiere a alguna proyección de mapa.
La rectificación por definición involucra la georreferenciación ya que todos los
sistemas de proyección de mapas están asociados con coordenadas de mapas.
La correcta rectificación de una imagen con respecto a un sistema de coordenadas
conocido determina la posibilidad de que los datos satelitales puedan ser
relacionados directamente con los objetos de la superficie terrestre.

64
2. Georeferenciación: proceso de asignar coordenadas de mapa a los datos de la
imagen, solamente cambia la información de coordenadas de mapa en el archivo de
la imagen. La grilla de la imagen no cambia, por lo tanto no constituye una
corrección geométrica por sí sola.

3. Registro: proceso de hacer que una imagen coincida con otra.


La registración de imagen correspondiente a escenas de diferentes fechas sobre un mismo
lugar,va a posibilitar la detección de procesos o cambios→ análisis multitemporales

La correcciones geométricas se pueden hacer a partir de dos modelos:

Corrección a partir de modelos orbitales:


Se corrigen los errores sistemáticos (curvatura de tierra, rotación terrestre, inclinaciones
orbitales). Permite restablecer las condiciones reales de una escena a partir del
conocimiento de todos los parámetros orbitales del satélite, en el instante que se
adquirió la imagen, los cuales se graban en un fichero de cabecera de la imagen
(metadatos). Consiste en realizar sobre la imagen transformaciones geométricas simples o
se pueden combinar tipos de transformación. Entre lo que se puede corregir existe:
traslación, inclinación, cambio de escala, perspectiva y rotación→ para cada una de ellas
hay una función de transformación (PINILLA)

Corrección a partir de puntos de control:


Alternativa de tipo inductiva, asume que no se conoce el origen de los errores, pero que
pueden ser modelados. El procedimiento a seguir es:
○ Localización de puntos de control
○ Cálculo de las funciones de transformación
○ Transferencia de los ND originales a la matriz de posición corregida

Los puntos de control, son puntos comunes en una imagen que frecuentemente están
ubicados en lugares específicos del terreno: lugares establecidos y fácilmente
identificables (cruce de rutas, punto geodésico, esquinas). Los mismos deben cubrir casi
todo el área, es necesario que su distribución esté hecha uniformemente en toda la imagen
(en zonas de altura, mayor cantidad de puntos para corregir el efecto de desplazamiento

65
con la altura). Para tener una mejor distribución de los puntos se dibuja mentalmente como
5 polígonos (en los extremos y centros) y ubicar los puntos de control en los mismos.
El número de puntos va a depender del tamaño de la imagen y de la complejidad
topográfica del terreno. El tipo de función de transformación va a presentar distintos
requerimientos en cuanto al número de puntos:
➔ Ecuación de ajuste en terreno llano: polinomio de primer grado, que requiere 3
puntos de control.
➔ En un terreno rugoso: se puede usar un polinomio de segundo grado con 6 puntos
de control o de tercer grado con 10.
Matemáticamente quizá son suficientes, sin embargo se recomienda que en un terreno llano
trabajemos con un mínimo de 20 puntos de control, bien distribuidos, en un terreno rugoso,
un mínimo de 30 puntos. Si trabajamos con una subescena, los mínimos se pueden ajustar.

Cálculo de las funciones de transformación


Construcción de la matriz de transformación y calculamos el error medio cuadrático. Estas
funciones transforman las coordenadas coordenadas actuales de los puntos de control en
coordenadas corregidas del mapa de referencia en una determinada proyección
cartográfica.
El error medio cuadrático para cada punto indica la distancia entre la ubicación del punto
de control en la imagen de referencia y la ubicación de ese mismo punto en la imagen
retransformada. La diferencia entre las coordenadas para un punto dado, cuando un punto
es retransformado por la matriz de transformación.
El error medio cuadrático, por referencia para corregir una imagen deben ser de
aproximadamente 0.5→ se calcula en la mitad del pixel y no supera la unidad.

El tercer paso es la transferencia de los niveles digitales originales a la nueva


posición, definida por la función de transformación. Para esto se puede utilizar:
A. El vecino más próximo: asigna a cada píxel de la imagen de la imagen de salida el
valor del píxel más cercano de la imagen original. Ventaja: transfiere los valores
originales de los datos sin modificarlos, esto es importante cuando se discriminan
tipos de vegetación o turbidez/temperatura del agua. Desventaja: aparecen
elementos lineales en escalera y pueden perderse o duplicarse valores.

B. Interpolación bilineal: considera los 4 píxeles más cercanos en la imagen de


entrada para asignar el nuevo valor al píxel de la imagen de salida. Ventaja: no
existe el efecto de escalones en los bordes y es más exacta. Desventaja: en los
bordes algunos píxeles se pueden perder.

66
C. Convolución cúbica: se diferencia con el anterior, ya que en vez de promediar o
sacar la media ponderada de los 4 píxeles más cercanos, toma los 16 píxeles más
cercanos. Ventaja: produce mucha conservación en el aspecto visual de la imagen
resultante, por introducir menos suavizado que en el método de interpolación
bilineal, puede eliminar el ruido de la imagen. Desventaja: necesita mucho recurso
informático para poder procesar la imagen. También hay que tener en cuenta que los
datos son alterados y que requiere mucho recurso informático→ procesamiento
lento.

¿Qué método usar? va a depender del objetivo de trabajo


● El vecino más cercano conserva mejor la radiometría original de la imagen. Pero en
las áreas lineales presenta escalonamiento.
● La convolución cúbica: conserva la geometría local pero cambia los valores
radiométricos.
● Los últimos dos métodos, requieren de mayor recurso informático.

¿La corrección geométrica se realiza después de la corrección atmosférica?.

67
Procesamiento digital-análisis de imagen: índices y cocientes
Cuando hablamos de tratamiento digital de imágenes, generalmente lo hacemos con la
intención de producir información temática. Sin embargo, la teledetección no debe tener
una visión simplista o reduccionista sino que debe considerarse como una herramienta que
nos permite, además de información temática, obtener variables biofísicas de gran
importancia. Es posible transformar la información que nos da una imagen a partir de la
aplicación de operaciones aritméticas entre bandas espectrales, operando la imagen
con un valor numérico entre bandas o píxeles. Se utilizan con dos fines:
1. Mejorar la discriminacion entre dos cubiertas con comportamiento reflectivo muy
distinto
2. Reducir el efecto del relieve en la caracterización espectral de las cubiertas.

Las variables biofísicas son todas aquellas variables que permiten caracterizar al
ambiente biológico y a las condiciones atmosféricas. Cuando estamos caracterizando a
un ecosistema, la caracterización del ambiente es fundamental y se puede hacer trabajando
con las variables biofísicas.
Se pueden medir de forma directa o indirecta. Las cuales se hacen a través de la aplicación
de modelos:
➢ Empíricos o inductivos: establecen una relación numérica entre el valor del píxel y el
parámetro a estimar a partir de las observaciones locales tomadas en el momento
de adquisición de la imagen
➢ Deductivos o teóricos: tratan de establecer un modelo de validez general
independiente de las condiciones de observación
Las variables que se pueden obtener de forma directa son el cálculo de la reflectividad
aparente y también, a partir de la presencia de un sector térmico en algunos satélites,
podemos realizar el cálculo de la temperatura, lo que nos permite hacer una relación con la
vegetación:
1. Cálculo de la reflectividad aparente: la reflectividad es la relación entre la energía
incidente y la energía reflejada, de ella depende la radiancia que es la energía
reflejada en todas direcciones.
2. Cálculo de temperatura: se trata de calcular la energía emitida por el suelo y recibida
por el sensor (en general, a mayor vigor vegetal, menor es la temperatura). Se mide
en el IRT.
Las variables biofísicas de medición indirecta, se pueden calcular si tenemos en cuenta
que la imagen satelital son matrices y que se pueden realizar algoritmos sobre las matrices.
Se establecen relaciones entre las variables a determinar y lo que mide el sensor.
1. Producción primaria neta: a partir de datos satelitales y de una estación
meteorológica, podemos sacar la producción primaria de un campo en kilo por
hectárea por mes. Se saca a partir de la radiación fotosintética activa y de la fracción
de la radiación fotosintéticamente activa que se saca a partir de una fórmula que
obtenemos de sensores. Todo esto nos da la eficiencia en el uso de la radiación.
2. Contenido de clorofila de las hojas
3. Índice de área foliar:hace referencia a la proporción de hojas que cubre el suelo. En
otras palabras, es la razón entre el área foliar de toda la vegetación por unidad de
área ocupada por la vegetación (SEBAL, 2002). El LAI es un indicador de la biomasa
de cada píxel de la imagen.
4. Radiación absorbida por las plantas

68
5. Balance de agua, a través del balance de energía, saber si necesita agua.
6. Humedad del suelo, de las hojas
7. Materiales en suspensión en el agua
8. Contenido de CO2 en la atmósfera.
9. Evapotranspiración: hay varios métodos empíricos y semiempíricos. Se calcula el
índice de vegetación.
10. Riesgo de incendio→ índice trabajamos con variables, algunas provenientes de la
teledetección. Productividad de la vegetación y la temperatura superficial.
11. Índice de área quemada (BAI): la detección y delimitación de zonas afectadas por
incendios un índice muy utilizado es el denominado Burned Area Index (BAI) que se
aplica para discriminar áreas quemadas y trabaja con el comportamiento espectral
de elementos carbonizados en un incendio. Este índice se calcula a partir de la
distancia espectral de cada píxel a un valor de referencia, valor al cual convergen las
áreas recientemente afectadas por el fuego
12. También se puede a partir de la teoría, construir nuestros propios índices

Para hacer un índice hay que tener conceptos básicos incorporados: radiación solar y
terrestre (balance de energía), ondas electromagnética y leyes importantes.

La mayoría de las variables biofísicas de medición indirecta se obtienen a través de la


aplicación de índices (conjunto de operaciones algebraicas, efectuados sobre los
valores numéricos de los pixeles), cocientes o ratios, esto implica efectuar una división pixel
a pixel entre los valores digitales almacenados en dos o más bandas de la misma imagen.
Todos estos índices, se emplean en dos situaciones particulares:
➔ Para mejorar la discriminacion entre 2 cubiertas con comportamiento reflectivo muy
diferente en esas dos bandas→ visualización de suelos o vegetación.
➔ Para reducir el efecto del relieve en la caracterización espectral de las distintas
cubiertas
Uno de los índices más conocido, es
el índice de vegetación diferencial
normalizada, que se basa en la
diferencia entre la longitud de onda
del rojo y del infrarrojo cercano→ esta
diferencia en reflectividad permite
hacer una relación entre las dos
bandas. Su ecuación está dada por el
infrarrojo, menos el rojo, sobre el
infrarrojo más el rojo. El valor del
resultado se da entre -1 y 1, cuando
tenemos valores bajos, cercanos al
0.1, corresponden al suelo sin
vegetación y 0.3, generalmente son
áreas pobres en vegetación, por
encima de ellos tenemos vegetación
densa. cuando tenemos una cobertura en su clímax, en ideales condiciones, tenemos
índices de 0.6-0.7. Si bien es muy efectivo, no se recomienda usarlo cuando el área que
estamos analizando tiene una cobertura de vegetación menor al 50%.

69
En base a este último, se pueden calcular otros índices: índice de área foliar, dinámica
fenológica, radiación fotosintética activa absorbida por la planta, productividad primaria neta
de la vegetación, evapotranspiración potencial, etc.

En aquellas áreas donde la cobertura es menor al 50%, podemos utilizar otro índice: índice
de vegetación normalizado ajustado al suelo (SAVI). Incluye al NDVI y el uno, más una
variable. Toma esas partes del suelo que son tomadas por el sensor, tratando de separar la
información de la vegetación y el suelo. Se basa en la línea de suelo y la distancia que
hay entre ella. Una forma de calcularlo, puede ser a través de un diagrama de dispersión,
donde en el eje y ponemos el infrarrojo y en el x el rojo, se traza la línea que mejor se ajusta
a la base de los puntos graficados. La línea representa la línea de suelo, todos los valores
cercanos serían suelo y los más alejados serían vegetación (acercados al infrarrojo) o agua
(acercados al rojo). Los autores recomiendan usar un factor de 1 cuando tenemos un nivel
de densidad muy pobre, con un nivel intermedio 0.5 y cuando es muy alto 0.25.

Existen algunas operaciones algebraicas más sencillas, como por ejemplo los cocientes,
que se trata de una división entre dos bandas con diferente reflectancia. Estos son los
más usados para trabajar con aplicaciones geológicas.

Si trabajamos con agua, hay una gran cantidad de índices que se pueden aplicar. Se debe
tener en cuenta si trabajamos en agua continental o de mar, ya que sus propiedades ópticas
cambian.
● Índice normalizado de diferencia de agua (NDWI): Este índice normalizado, que por
sus siglas en inglés se conoce como NDWI, fue desarrollado por Mc Feeters (1987)
y resulta óptimo para realzar los cuerpos de agua y delinear redes de drenaje en
imágenes multiespectrales. El NDWI utiliza la radiación electromagnética
correspondiente al sector espectral del infrarrojo reflejado y la radiación
correspondiente al sector espectral del verde en la faja inherente al espectro visible.
Para el caso del sensor TM Landsat 5 y 7, la ecuación que define al NDWI es la
siguiente:
Verde-IR cercano/verde + IR cercano

Si trabajamos en un área urbana, los índices son más limitados, según la resolución
espacial que trabajemos:
➢ NDBI: trabaja con el infrarrojo cercano y el medio. Índice de área construida
estandarizado que muestra la proporción de construcción de cada pixel.
➢ NDVI: Se puede sacar también, el área verde.
➢ BU: índice de área construida que surge de la diferencia de los dos anteriores y
muestra que a mayor índice de construcción, menor índice de área verde.
¿Qué bandas serían útiles para construir un índice apropiado para mi estudio?

70
Análisis de imagen

Clasificación digital de imágenes de satélite


Supone separar pixeles que tienen diferente comportamiento. Categorizar una imagen
multibanda, pasando de tener unos niveles digitales continuos a una escala de tipo nominal,
cada pixel pasa a pertenecer a una categoría u otra. A partir de la misma se obtiene una
cartografía e inventario de las categorías objeto de estudio.
Supone la fase culminante del tratamiento digital de imágenes. Hacia ella se orientan buena
parte de los reales y correcciones, así como algunas transformaciones y la misma se
beneficia de las correcciones. Al terminar el proceso de clasificación, el ND de un píxel
será identificador de la clase en que se lo haya incluido, por esto, no se pueden aplicar
ciertas operaciones estadísticas sobre la imagen ya clasificada
El objetivo de una clasificación consiste en agrupar píxeles que posean una misma
característica. Generalmente, la característica tomada es el valor digital de los mismos, que
se corresponderá a un tipo de cobertura de terreno. Básicamente, la clasificación digital de
imágenes satelitales consiste en un método estadístico por el cual, a través de un
muestreo de píxeles, se agrupa en categorías o clases al resto de los píxeles de una
imagen.
Las clases describen distintos tipos de cubierta (variable nominal o categórica) o bien
intervalos de una misma categoría de interés→ variable ordinal.
➢ Variable nominal: clasificación de distintos tipos de cubierta vegetal.
➢ Variable ordinal: clasificar distintos niveles de daños producidos por un ejemplo.
Lo que se plantea como problema en una clasificación de imagen es determinar si un píxel
pertenece a una categoría o a otra categoría informacional.
Sigue procedimientos análogos a los que se emplean en fotointerpretación:
1. El intérprete identifica el patrón visual asociado a cada cubierta, de acuerdo a
criterios: tono, textura, forma, contexto, etc.
2. Posteriormente delimita en el resto de las fotografías las zonas que se corresponden
con ese modelo ya definido. O sea, asigna a cada categoría unas determinadas
superficies, en función de la semejanza de estas con el patrón-tipo ya identificado.
Cuando trabajamos con imágenes de satélites, el clasificador elige píxeles con
respuesta parecida.
3. Verifica sobre el terreno la interpretación realizada.

En todas las técnicas de clasificación de imagen, hay una serie de pasos:

1-Definición digital de las categorías: Entrenamiento.


Se realiza la clasificación con la definición de las categorías que pretendemos
distinguir en la imagen. Se utiliza una clasificación basada en valores numéricos, tratando
de obtener un rango de ND que identifica a una categoría para todas las bandas que
intervienen en la clasificación. Se trata de identificar cuántas y cuales tipos de
categorías tenemos de acuerdo a los valores de los píxeles. Los valores de los píxeles
no son homogéneos, están afectados por dispersiones/distorsiones que permiten que la
reflectancia o el ND de cada pixel sean diferente, aunque sea de una misma cubierta.
Se trata de tomar muestra de píxeles en la imagen que represente adecuadamente cada
una de estas categorías definidas. A partir de la selección de las muestras, se determina

71
cual es valor medio de cada clase y el rango en el que varía para todas las bandas que
estemos trabajando. Las estimaciones posteriores se basan sobre la muestra seleccionada,
por lo cual, la misma debe estar adecuadamente tomada y debe representar a la clase de
forma correcta.
Estas categorías van a estar clasificadas en dos grupos:
● Clases informacionales: constituidas por la leyenda que el intérprete va a
llevar adelante. Son establecidas por el intérprete o el que trabaja la imagen.
Lo ideal sería que cada una de las clases informacionales se corresponda a
una clase espectral
● Clases espectrales: agrupan píxeles que tengan similar reflectividad.
Lo ideal sería que cada una de las clases informacionales correspondiera a una clase
espectral. Normalmente no sucede así, puede ocurrir que una clase informacional esté
expresada en varias clases espectrales, la solución en este caso, es hacer un muestreo
mucho más detallado. Otro caso es que dos o más clases de información compartan una
misma clase espectral, la corrección estaría orientada a la leyenda. También, puede ocurrir
que varias clases informacionales compartan clases espectrales, donde se debe replantear
todo el trabajo→ confusión de clases espectrales.

La CLASIFICACIÓN SUPERVISADA es el proceso en el que píxeles de identidad


conocida ubicados dentro de las áreas de entrenamiento se utilizan para clasificar píxeles
de identidades no reconocidas. Se parte de un conocimiento previo del terreno. Se toman
muestras o área de entrenamiento, para entrenar al programa en el reconocimiento de las
categorías→ áreas de entrenamiento, que son lo que vimos como píxeles puros, es decir,
donde hay una sola cobertura. Requiere un conocimiento previo del área. Estas áreas de
entrenamiento tienen que ser bien identificadas en cuanto a su localización y actualización,
deben ser suficientemente homogéneas (que no haya ruidos, sin pixeles perdidos) sin
variabilidad en la cubierta que elijo, las mismas deben cubrir todas las clases que quiero
clasificar, no se deben ubicar en zonas de transición de cubiertas (pixeles del medio de

72
cubierta), no deben ser muy grandes (más posibilidad de incluir error), deben abarcar las
variaciones espaciales de cada una de la cubiertas.
Las áreas de entrenamiento puede ser seleccionadas a partir de:
❖ La digitalización de polígonos: se debe tener en cuenta el tamaño de la muestra
(autocorrelación) el efecto de frontera y las formas (figuras geométricas regulares,
trazado irregular). Es preferible seleccionar muchos pequeños polígonos→ se deben
seleccionar más de un píxel, sin embargo un píxel, dentro de un polígono debe ser
superado varias veces.
❖ Semillado: es más automático, me paro en un pixel y a partir de ahí, se expande,
seleccionando los píxeles con un valor similar.
Una vez que tenemos las áreas de entrenamiento, las mismas se pueden evaluar, haciendo
de cada una la firma espectral. Van a existir varias clases que se van a estar mezclando→
hay que buscar separarlas. Conviene que exista un control de campo en superficie.

La CLASIFICACIÓN NO SUPERVISADA difiere del método supervisado en que el


analista, interpreta las clases una vez hecho los agrupamientos. Procede a una
búsqueda automática de grupos de valores homogéneos dentro de la imagen. Se
agrupan los ND en clusters. El método no supervisado crea agrupamientos espectrales o
clusters y el analista debe intentar asociar una clase temática a cada uno de dichos grupos.
Las clasificaciones no supervisadas son aquellas en las que el algoritmo clasificador no
necesita de más información que la escena a clasificar y algunos parámetros que límiten el
número de clases. Estos mecanismos de clasificación basan su efecto en la búsqueda de
clases con suficiente separabilidad espectral como para conseguir diferenciar unos
elementos de otros. Se basa en interpretar todas las clases que se deben hacer, solo
delimita cada grupo espectral, señalando dos criterios: uno que marque criterios de similitud
en los pixeles (método→ distancia euclídea) y otro que marque las condiciones del proceso
de agrupamiento→ método de isodata:
1. donde el usuario decide el número de clusters que van a ser utilizados,
2. Se selecciona un conjunto de clusters en el espacio de las bandas. La localización
inicial está situada en las zonas de mayor confluencia.
3. Los píxeles se asignan al cluster más cercano.
4. Los cluster se asocian o disgregan o borran en función de la máxima distancia de
clase o del número de píxeles ocupados por una clase.
5. Se repiten los pasos 3 y 4 hasta que el cambio entre una iteración y otra sea
mínimo.

Clasificación supervisada En un primer paso, se debe seleccionar las


áreas de entrenamiento, luego se debe
evaluar o editar las firmas espectrales de
cada una, después se debe clasificar la
imagen y por último, se evalúa la
clasificación→ trabajo de campo,
bibliografía que valide.

No supervisada Se corre el algoritmo isodata, también,


antes de clasificar, hay una evaluación de
las clases, se clasifica la imagen y el
intérprete tiene que clasificar cada una de

73
las clases que hizo el isodata. Por último se
hace una evaluación de esa clasificación.

2-Agrupación de pixeles en categorías: asignación


Se exponen los algoritmos de clasificación→ de todos los algoritmos, los más utilizados son
métodos estadísticos.
■ Mínima distancia (más sencillo para clasificar un
pixel, minimiza su distancia con el centroide de la
clase): los datos de entrenamiento se utilizan sólo
para determinar la media de las clases
seleccionadas. Ubica a cada píxel no identificado,
dentro del centro/clase que esté más cerca de la
media. La distancia no es geográfica, es espectral,
que se da como consecuencia de comparar los ND
de cada uno de los pixeles el centro de las distintas
categorías, para todas las bandas. Se ubica cada
pixel, en la clase cuya media se encuentre más
cercana. Es más rápido, bajo recurso informático y
su resultado no deja ningún pixel sin clasificar, siempre una media a la cual está más
cercana.
■ Paralelepípedos: permite señalar al usuario unos umbrales en forma de
rectángulo, teniendo en cuenta valores de centralidad y dispersión. Este clasificador
implementa definiendo un subespacio en forma de paralelepipedo (hiper-rectángulo)
para cada clase. En este procedimiento se
introduce la sensibilidad respecto a la varianza
de clases. Este clasificador, tiene el problema
que existen píxeles en zonas comunes a dos o
más categorías (área de confusión) y pueden
quedar píxeles sin clasificar. Tiene como ventaja
que es rápido y considera valores de centralidad
y dispersión. En caso que queden píxeles sin
clasificar, la solución es ampliar el rango de
dispersión y repasar la definición espectral de
categorías→ indica que las clases no están bien
definidas o no incluidas en la leyenda.

■ Máxima probabilidad: considera que los ND de


una categoría se van a ajustar a una distribución
normal, lo que permite describir una categoría con
la probabilidad que permanezca o no a una
categoría, a partir de sus medias y de las matrices
de variancia/covariancia. Mide la probabilidad de
que un píxel pertenezca a una clase y se vale del
promedio y la desviación estándar de cada clase
para el cálculo. Como problema tiene que es muy
lento el cálculo y que es complejo, ya que

74
demanda un mayor volumen de cálculo (necesita media y desviación media). Como
ventaja, es mucho más preciso que los anteriores, considera dispersión, pueden
introducirse límites y es más empleado en teledetección.

■ Distancia de Mahalanobis: se usa poco, es similar al anterior, establece también


valores de media y desviación típica, asumiendo que la covarianza de las clases son
todas iguales.
■ Árboles de decisión
■ Redes neuronales

3-Verificación de resultados.

Sensores activos de microondas


Emiten un haz energético y recogen los pulsos reflejados por el objeto. Dichos pulsos
son captados por la misma antena que es amplificada y registrada en un receptor. El
sistema cuenta con un duplicador que impide interferencias entre los pulsos emitidos y
recibidos. La señal se visualiza a través de un tubo de rayos registrado sobre una cinta
magnética.

¿Por qué emplear el radar para la teledetección?


A diferencia que los sensores ópticos pasivos, dependientes de la energía electromagnética
propiciada por el sol. No existe dependencia, la energía la promueve el propio sensor. Los
primeros utilizaban las ondas de radio (+ de un metro de longitud de onda). Se utilizaban

75
para estimar las distancias a partir del tiempo transcurrido entre la emisión y la recepción de
la onda.
Los actuales utilizan microondas que van desde un mm hasta un metro de longitud de
onda. Además, existen los sistemas lidar, basados en la transmisión de luz láser en
longitudes de onda más cortas. El sonar, transmite ondas de sonidos, a través de una
columna de agua.
Las imágenes de radar tienen ciertas características que las imágenes ópticas no las tienen:
❖ Captar imágenes tanto de día como de noche
❖ Fuente de iluminación controlable, se puede prender, apagar o enviar cierta
potencia.
❖ Transparente a la influencia de la atmósfera: apropiado para regiones tropicales de
gran cobertura nubosa
❖ Se pueden identificar mejor aquellas características asociadas a la rugosidad de las
superficies. Ejemplo Egipto: no se distinguen solo mantos superficiales, tiene
capacidad de penetrar sobre el suelo.

SAR (Radar de apertura Sintética): estos radares comenzaron a utilizarse a partir del año
1950 y hacia 1970 se comenzaron a usar con fines civiles. La utilización de radar a nivel
orbital se inició con el lanzamiento del SEASAT en 1978, donde la NASA inició el Programa
SIR ("Shuttle Imaging Radar") que consistió en una serie de vuelos de corta duración. En
estos sensores se resolvió el problema de la resolución azimutal. Los SAR son sistemas de
iluminación lateral que generan imágenes de alta resolución. Al moverse a lo largo de su
trayectoria, el radar ilumina la superficie en estudio hacia la dirección de vuelo en franjas
continuas y paralelas entre sí. De este modo se capta la información reflejada, se la graba y
se la procesa para finalmente generar la imagen. El SAR es un radar de alta resolución que
funciona utilizando una antena sintética a bordo de plataformas aéreas móviles. Este tipo de
radar utiliza el movimiento de la plataforma para obtener una antena sintética de mayores
dimensiones y, por lo tanto, tiene alta resolución y puede cubrir superficies extensas.
Durante el proceso de adquisición de datos, el blanco permanece iluminado bajo el haz de
la antena durante varios instantes, siendo observado por el radar desde numerosas
posiciones.

76
Ventajas Desventajas

Funcionan en casi cualquier condición La información es diferente a las imágenes


meteorológica ópticas y algunas veces difícil de interpretar

Capacidad de observación diurna o Presencia de speckle (efecto sal y pimienta


nocturna en las imágenes→ ruido)

Penetran a través del dosel de la Distorsiones en áreas donde hay


vegetación→ estudios bosque, selvas, etc. topografía. Mucha sensibilidad

Penetran a través del suelo

Los efectos atmosféricos son mínimos

Sensibilidad a las propiedades dieléctricas


de la superficie→ distinguir tipo de material

Sensibilidad a la estructura de los


componentes de la superficie

Funciones
Transmiten su propia energía desde el sensor hacia el terreno, que interactúa con el mismo
produciendo retrodispersión. La energía se refleja hacia el sensor que es registrada por el
receptor junto con el tiempo transcurrido.
1. Transmitir señales de microondas.
2. Recibir la porción de energía transmitida que se refleja hacia el sensor.
3. Observar la potencia de la señal reflejada y el tiempo necesario para que la señal
regrese al sensor.

Partes básicas
Esa iluminación que sale del sensor es provista de ondas electromagnéticas con una
determinada longitud de onda, generado por un modulador de pulsos. Transmitido por el
terreno hacia la tierra. Cuando el pulso regresa, la antena en modo receptor, genera o
registra la potencia, la fase y el tiempo transcurrido entre la emisión y la recepción.
El instrumental está compuesto
➢ Transmisores
➢ Receptores
➢ Comunicador de transmisor y receptor
➢ Antena
➢ Consola

77
Existe una diferencia significativa cuando hablamos de radar en plataformas aéreas y radar
en plataforma satelital. Los radares en satélites operan en una sola frecuencia y los aviones
pueden disponer de más de una frecuencia. La limitante está dada por la disponibilidad de
energía, los satélites tienen mucha más trayectoria, por lo tanto, requieren mucha más
energía (recorrido del pulso). El diseño de la antena es específico para transmitir y recibir en
una determinada frecuencia. Un sistema radar con multifrecuencia necesita muchas
antenas. Los datos multifrecuencias se obtienen a partir de diferentes plataformas
satelitales.
El sistema consiste en un mecanismo que genera pulsos electromagnéticos que controlan la
emisión de la energía desde un transmisor y accionan un mecanismo de registro. La antena
emite un pulso y recibe la respuesta. El computador electrónico evita la interferencia entre
los pulsos. El receptor es un amplificador del pulso recibido por la antena. El pulso recibido
es grabado por el procesamiento posterior en el segmento posterior.
El tamaño de la antena es controlado por la longitud física de la misma. El barrido para la
obtención de la imagen es producido por el movimiento del satélite por el paso sobre el
área.

Los radares miden distancias y generalmente, son de VISIÓN LATERAL. Si el radar


observará directamente hacia abajo no se podría diferenciar entre puntos, ya que la señal
sale y llega al mismo tiempo. En cambio, si es de visión lateral, el tiempo que tarda la señal
en llegar al punto A es diferente al tiempo que le toma llegar al punto B, por lo tanto, será
posible diferenciarlos. El barrido de la imagen es producido por el movimiento de la
plataforma durante el paso sobre el área. Utiliza el movimiento de la plataforma para
obtener una antena sintética de mayores dimensiones y tener una mayor resolución.

78
Durante el proceso de adquisición de datos, el blanco va a permanecer iluminado bajo el
haz de la antena durante varios instantes y va a poder ser observado desde numerosas
posiciones.
Cuando en los sistemas radar hablamos de resolución es un concepto diferente: resolución
en dirección al acimut y resolución en dirección al rango
● Resolución en dirección al rango: va a depender de cuan largo sea el pulso.
● Resolución en dirección al acimut: es determinado por el ancho de la banda que va a
ser inversamente proporcional al largo de la antena (apertura. Una antena más larga
va a producir un ancho de iluminación más angosto y una resolución más alta.
Los radares de apertura sintética se llaman así porque pueden sintetizar utilizando el
movimiento de la plataforma para simular una antena más larga.
➢ Cada píxel en la imagen de radar representa una cantidad compleja de energía
reflejada de vuelta al satélite.
➢ La magnitud de cada píxel representa la intensidad de la señal reflejada.

Imagen
Las imágenes contienen información sobre la estructura de los objetos y las propiedades
dieléctricas. Las características de la señal que se retro dispersa está influenciada por
parámetros del radar y parámetros de la superficie. Existen 3 parámetros de radar que
tienen influencia directa en la característica de la señal:
Longitud de onda: Longitudes de onda más frecuentes son las que se encuentran
señaladas con letras puestas de forma arbitraria, que se refieren a una longitud de onda
determinada.
o VHF
o P-band
o L-band muy pocos radares de banda L (ejemplo SAOCOM, segundo sensor a nivel
internacional)
o C-band
o X-band
o Ku-band
o Ka-band

Polarización: orientación del campo eléctrico al momento de la salida del sensor,


tomando en cuenta la orientación y la periodicidad de los campos eléctricos y magnéticos

79
de las ondas. La capacidad polarimétrica va a estar determinada por el numero de planos
que puede transmitir y recibir el haz de ondas electromagnéticas. Dentro de las
polarizaciones lineales tenemos la vertical (el radar transmite y recibe el haz en el plano
vertical) y la horizontal. Existen radares que pueden recibir la energía de ambas maneras,
de este modo, existen cuatro combinaciones posibles de polarizaciones:
o Similar: Un HH (transmisión y recepción vertical) y VV (transmisión y recepción
vertical).
o Cruzada: HV (transmisión horizontal y recepción vertical) y VH (transmisión vertical y
recepción horizontal)

Son las formas en las que se pueden pedir las imágenes, son las diferentes formas en el
que el pulso energético se transmite y se capta.
También hay formas alternativas para pedir imágenes, que nos dan diferentes tipos de
visión:
o Polarización dual: HH y HV, VV y VH o HH y VV
o Polarización alternativa: HH y HV alternando con VV y VH
o Polarimétrica: HH, VV HV y VH
Los sistemas de investigación tienden a tener polarización múltiple, generalmente se pide
cuadripolarizacion. La polarización múltiple ayuda a identificar las características físicas de
la superficie reflectora:
Alineación de estructuras con respecto al radar
Carácter aleatorio de la reflexión difusa
Estructuras angulares
Rugosidad que induce reflexión del tipo Bragg
Si tengo la estructura del objeto y sus características, en cuadripolarizacion, tengo muchas
características que no nos dan los ópticos.
Ángulo de incidencia: es el parámetro más importante para describir la geometría
relativa entre el radar y la escena que se observa. La
altura del sistema altera el ángulo de incidencia y por
lo tanto la geometría de observación. La mayor altitud
de los sistemas espaciales significa que los ángulos
de incidencia serán menores.
Los sistemas aéreos cubren una gama más amplia de
ángulos de incidencia (15°-60°) que los sistemas
espaciales (37°-40°).

80
El ángulo de incidencia va a influir en el tono de brillantez de la imagen. Para terrenos de
relieve bajo se usa un ángulo de incidencia de 10° , con relieve moderado 30° y un terreno
de relieve alto con 60°.

¿Cuántas cosas más hay para estudiar con Radar?

Infraestructuras de datos espaciales


Las IDE son un conjunto de políticas, capital humano, tecnología y estándares que
buscan dar disponibilidad y acceso a la información geográfica a través de internet.
➔ Políticas: decisiones que hacen que la IDE surja por medio de acuerdos y perdure.
Se toma una decisión a partir de la necesidad de información. Es la base para la
armonización de una estructura donde todos construyen y comparten información.
➔ Estándares: garantizan la interoperabilidad. Nos permite conectar diferentes sig e
información.
➔ Tecnología: software y hardware. Compartir mediante internet, se necesita de la
tecnología para brindar los servicios y tener a una ciudadanía con acceso a los
mismos.
➔ Capital humano: opera, actualiza y gestiona. Funciona como una fuente de trabajo
a partir de la decisión política de crear la IDE.

La IDE provee una base para el descubrimiento de datos espaciales, su evaluación y su


aplicación para los usuarios y suministradores, dentro de todo tipo de niveles:
gubernamental, sector comercial, sector no lucrativo, área académica y ciudadanos en
general
Las entidades públicas tienen la obligación de compartir la información. Es un medio para
compartir información, colaborar y dejar de lado la competencia. Existe una
interdependencia en todos los niveles, ya que todos son esenciales para su funcionamiento.
La intercomunicación debe ser eficaz.

81
Objetivos
💭 Calidad y homogeneidad de la información geográfica
💭 Facilitar mantenimiento→ evitar duplicaciones, evitar
💭 Promover la documentación/catálogo de datos
un costo extra

💭 Facilitar la búsqueda y acceso a la información


💭 Interoperabilidad entre información geográfica y sistemas de información
geográfica

geográfica

Origen
Surgen en la cumbre de la tierra en Río de Janeiro (1992), donde se trabata la protección
al medioambiente y se aprobó una importante resolución con el fin de alcanzar un desarrollo
sostenible y de proteger el medio ambiente del deterioro
medioambiental. Aparecen problemas de la información
geográfica y de allí, su importancia para el estudio:
I. Calidades muy diferentes y sin especificar
II. Disparidad de escalas y formas
III. Información geografica inaccesible
IV. Mercado sin regular: distintos proveedores con similares
productos
V. Falta de estándares de intercambio
La importancia de la información geográfica en relación con la toma de decisiones y el
tratamiento de cuestiones nacionales de creciente importancia, regionales y globales fue
mencionada como crítica. La información geográfica es vital para tomar decisiones
acertadas a escala local, regional y global. El énfasis en la armonización de estándares
para obtener e intercambiar datos espaciales, la coordinación de la obtención de datos y las
actividades de mantenimiento y el uso de conjuntos de datos comunes. Existe una clara
necesidad, a todos los niveles, para poder acceder, integrar y utilizar datos espaciales
procedentes de fuentes dispares con el fin de guiar la toma de decisiones. Solamente, a
través de convenciones comunes y acuerdos técnicos será posible fácilmente, para las
personas encargadas de la toma de decisiones a nivel de comunidades locales, regionales
y naciones, descubrir, adquirir, explotar y compartir información geográfica vital para la toma
de decisión.

Existen IDE en múltiples escalas:


Las globales son las más difíciles y con el nivel menor de detalle, encontrándose limitada
por los límites internacionales.

82
Jerarquía DIKW: referente al ambiente geográfico
1. Datos: son las fuentes primarias y proveen datos básicos.
2. Información: ya se pasa por un proceso de entendimiento de los datos.
3. Conocimiento: se buscan patrones espaciales que expliquen la información
4. Sabiduría: son las más complejas, pueden generar principios o leyes generales.

Componentes
● Organización:
○ Gobierno: decisiones políticas y marco legal, a través de acuerdos y
coordinación, con el fin de poner a disposición la información geográfica. Le
dan su correcto funcionamiento
○ Recursos y financiación: clave.

83
○ Difusión y promoción: que se conozca la IDE
○ Seguimiento e informes.
● Servicios: obligación de brindar servicios. Medios para descubrir, visualizar y evaluar
información
○ Sistemas y servicios web: datos y atributos.
○ Interoperabilidad. Reglamentos, estándares y directrices técnicas
○ Tecnología y arquitectura de red: metodo para dar acceso
○ Metadatos de servicios.
● Metadatos:
○ Metadatos de datos
○ Catálogos, normas, reglamentos, directrices y perfiles.
● Datos
○ Usuarios
○ Productores
○ Reglamentos y especificaciones de datos.
Objetivo de compartir, intercambiar y colaborar con la Información geográfica, siendo un
ámbito colaborativo. Siempre está en construcción.

IDERA:
IDERA es un ámbito de trabajo colaborativo conformado por los diferentes niveles de
gobierno, cuyo objetivo es la estandarización y la difusión del acceso a la información
geoespacial del país.

Catálogos de objetos
El catálogo de objetos geográficos se basa en la abstracción de la realidad clasificada en
conjuntos de datos geográficos, cuyo nivel básico es el tipo de objetos.
En el catálogo se organizan esos objetos geográficos, sus definiciones y características, es
decir, sus atributos, dominios, relaciones y operaciones. La catalogación conduce a los
usuarios y productores de IG tener una definición de los objetos geográficos en un lenguaje
común con respecto al contenido de datos, permitiendo una mayor comprensión de su
contenido y alcance. Establece las bases para la interoperabilidad, el uso e intercambio de
datos geográficos entre diferentes usuarios.
Norma: ISO (International organization of standardization) 19110.

👍
Ventajas:

👍
Definir la estructura interna de la información vectorial

👍
Aumentar el entendimiento y uso de la información geográfica.

👍
Incrementar la integración e intercambio de la información geográfica

👍
Establecer definiciones de los objetos que aplican para cualquier escala
Reducir los costos de adquisición de datos y simplificar el proceso de especificación

👍
de los productos
Generar conjuntos de datos particulares

Criterios de clasificación de la información geográfica


Un criterio de clasificación de la IG es presentarla en forma jerárquica basada en la
dependencia que cada uno de los datos posee en la secuencia de su producción. Siguiendo
este criterio se definen tres grandes grupos:

84
1. Datos fundamentales: permiten generar proyectos de intercambio de información
entre diferentes instituciones. Datos geoespaciales básicos de cobertura nacional o
local y que a su vez, representan los objetos geográficos más relevantes para el
desarrollo. Base sobre la cual se construyen otros datos espaciales, permiten la
localización espacial de datos, sirven como base para la resolución de problemas
y proveen una base para que los usuarios puedan superponer y compartir sus datos.
a. Nivel 0: son los primeros en el proceso de producción, siendo esenciales
para todos los conjuntos de datos subsecuentes. El proceso y análisis de
estos por lo general están restringidos por cálculos geodésicos.
b. Nivel I: dependen de los de nivel 0 para su creación. Están limitados por
procesos de interpretación y el grado de objetividad es alto. Esta
categoría también incluye límites que son resultado de los procesos de
decisión humana.
c. Nivel II: están relacionados con objetos hechos por el hombre. La
definición es idéntica a la de nivel I, pero solo hace referencia a los objetos
hechos por la mano del hombre.
2. Datos secundarios: datos temáticos genéricos, basados en datos primarios y
derivados del análisis. Los datos en esta categoría son temáticos por naturaleza,
pero de interés general y esencial para otros datos temáticos.
3. Datos no fundamentales: son datos temáticos específicos derivados de
análisis. En esta categoría se clasifican los datos que no están en los niveles de 0 a
III. Los datos pueden ser cualitativos o cuantitativos.

La norma ISO 19110 recomienda un esquema para el registro y organización de la


información geográfica en función de los requisitos de las diferentes instituciones
productoras de tal información.
Contiene la definición y clasificación de los objetos geográficos en clases, subclases,
como así también los atributos y valores de los dominios que corresponden a cada uno.
Las definiciones de dichos elementos deben aparecer en un lenguaje natural.
Todas las clases, subclases, objetos geográficos, atributos y valores de dominios incluidos
en el catálogo se identifican mediante un nombre y un código, siendo ambos únicos
para cada elemento. La codificación adoptada en IDERA consta de dos digitos numericos
para cada clase, cuatro digitos numericos para cada subclase y seis digitos numericos para
cada OG.

85
Clases
Está compuesta por un conjunto de subclases relacionadas, lo que permite categorizar
de manera general la IG. Se identifica por un nombre y un código único dentro del Catálogo.
La codificación utilizada en el nivel de Clases está formada por dos dígitos numéricos y se
corresponde, en general, con la utilizada en el “DGIWG Feature Data Dictionary (DFDD)”, el
cual es el ejemplo de aplicación recomendado por la Norma ISO/TC211 19126 (Información
Geográfica. Esquema para Diccionarios de Conceptos de Objetos).

Subclase:
Está compuesta por un conjunto de objetos geográficos relacionados que comparten
similares características y se ordenan dentro de una categoría de orden superior
denominada Clase. Brinda información relevante de los objetos que la componen,
agilizando la utilización del Catálogo. La codificación utilizada en el nivel de Subclases está
formada por cuatro dígitos numéricos y se corresponde, en general, con la utilizada en el
“DGIWG Feature Data Dictionary” (DFDD).

Objetos geográficos:
Los OG son abstracciones de elementos del mundo real asociados con una posición
geográfica y temporal, respecto a los cuales se recolectan datos, manteniendo y
difundiendo IG. Un OG se representa como un elemento discreto y único que está asociado
a su posición espacial y temporal, pudiendo ser representado mediante un símbolo gráfico
particular. Estas instancias de objetos individuales se agrupan en clases con características
comunes: tipos de objetos. Debido a que la IG se percibe en forma subjetiva, su contenido
está relacionado con las necesidades de las aplicaciones particulares. La codificación
utilizada en el nivel de OG está formada por seis dígitos numéricos. Los dos primeros
dígitos corresponden a la Clase a la cual pertenece, los dos dígitos siguientes indican cuál
es la Subclase dentro de la Clase, y los últimos dos dígitos corresponden al OG.

Atributos
Los atributos son las características propias que describen e informan sobre los OG,
tomando valores individuales en cada instancia del objeto. Diferencian un OG de otro,
haciéndolo único. Un mismo atributo puede usarse para describir a más de un OG. A cada
atributo se le asigna un código alfanumérico único formado por tres dígitos, se le da un
nombre, se lo define, se establece su tipo de atributo, si está asociado a un dominio y su
unidad de medida. En la medida de lo posible, se prioriza el uso de los atributos del DFDD y
se respeta su codificación. El tipo de dominio figura con valor “SI” en caso de que exista un
dominio relacionado y con valor “NO” en caso de que el atributo no tenga ningún dominio
relacionado.

Valor del dominio


Los dominios son conjuntos de valores válidos para cada atributo. Cada dominio tiene
un código único, nombre y definición.

86
La Interoperabilidad constituye la posibilidad de combinación de los conjuntos de datos
espaciales y de interacción de los servicios, sin intervención manual repetitiva, de forma
que el resultado sea coherente y se aumente el valor añadido de los conjuntos y servicios
de datos. La interoperabilidad es la condición mediante la cual sistemas heterogéneos
pueden intercambiar procesos o datos (independiente de sistema operativo, programa,
versión del programa, etc.).

Calidad de la información geográfica


¿Qué es la calidad?
La Norma ISO 9000:2015 define que: “ …la CALIDAD está determinada por la capacidad
para satisfacer a los clientes, y por el impacto previsto y el no previsto sobre las partes
interesadas pertinentes. La calidad de los productos y servicios incluye no solo su función y
desempeño previstos, sino también su valor percibido y el beneficio para el cliente.
● Capacidad de suministrar tanto al productor como al consumidor, la aptitud del
producto para sus usos potenciales
● Datos espaciales de calidad serán aquellos que puedan servir para alcanzar los
objetivos de un proyecto concreto, dando sentido a este.

Preguntas que debemos hacernos como productores de IG


➔ ¿Conoces de la existencia de normas y estándares para llevar adelante la
producción de datos e IGca?
➔ ¿Quién de ustedes se ha preocupado por la calidad de los datos e información que
generan al momento de hacer sus trabajos?
➔ Desde la masificación y vulgarización (producto de la proliferación en el uso de
sistemas de información geográfica y distintas plataformas web de visualización, uso
y manipulación de datos e IGca) ¿Habrá surgido una preocupación real por la
calidad de los datos e IGca ?
➔ ¿Cree que las instituciones oficiales que proveen datos, se preocupen y apliquen
medidas para procuran la calidad de los datos e IGca que generan?
➔ ¿A qué se debe la creciente preocupación por generar datos e IGca de calidad?
➔ ¿Las TIGs cuentan con herramientas para asistir tareas de calidad de datos e IGca?

Afirmaciones al momento de interactuar con la información geográfica


➢ Desconocer la calidad de los datos e información geográfica con la que se trabaja es
sinónimo de negligencia.

87
➢ Datos o información de mala calidad generan invariablemente resultados de mala
calidad.
➢ Utilizar un dato o información geográfica de mala calidad es equivalente a utilizar un
modelo equivocado.
➢ Un dato o información geográfica con un error superior al que puede resultar
tolerable para determinada tarea hace que la calidad de este sea insuficiente y los
resultados obtenidos carezcan de valor.

¿Qué es la normalización?
Conjunto de actividades consistentes en la elaboración, difusión y aplicación de normas
como forma de establecer soluciones productivas a situaciones repetitivas.
Una norma es un documento público, no obligatorio, consensuado entre las partes,
elaborado por un organismo de normalización, que recoge los conocimientos,
recomendaciones científico-técnicas surgidas de las experiencias, orientado a la
simplificación, unificación y clasificación de los procesos y productos. En la IG, el uso de las
mismas, permite ahorrar en gastos de desarrollo, conseguir economías de escala,
abaratar la adquisición de datos, facilitar la medida de la calidad, liberar a los cautivos del
sistema, reciclar datos, interoperar

Gestión de la información geográfica

💧
Calidad significa:

💧
Identificar los factores relevantes 19157

💧
Evaluar los factores con métodos adecuados. 19157

💧
Cuantificar las evaluaciones utilizando medidas comparables. Iso 19157

💧
describir adecuadamente todos los aspectos en metadatos. 19115 y 19157.
Especificar adecuadamente todos los aspectos en especificaciones de producto de

💧
datos 19131
Asegurar la calidad de los suministros de datos provenientes de terceros. 19158
Tomarse el tiempo para a el diseño, modelado, abstracción, construcción, bosquejo,
maquetado, etc.

Iso 19157: calidad de los datos geoespaciales


Establece los principios para describir la calidad y la manera de informar sobre ella.
Informar sobre la calidad supone:
1. Identificar los factores relevantes: que es lo que debemos informar. De aquí surge
qué y cómo reportar la información según requerimientos del productor o usuario.
a. Información cualitativa o no cuantitativa de la calidad, elementos generales
de la calidad o Data quality overview elements.
● Propósito: razones de la creación de los datos e información a lo que
se suman algunas características del uso al que se pretende destinar.
● Uso: descripción de la o las aplicaciones para las cuales el conjunto
de datos o información geográficos se ha usado
● Linaje: descripción de la historia de un conjunto de datos o
información geográfica, atendiendo fundamentalmente a las fuentes y
pasos del proceso de producción.
b. Información cuantitativa de la calidad, elementos de la calidad o Data quality
elements.

88
● Comprensión, completitud o totalidad: comisión (exceso de datos) y
omisión (ausencia de datos)
● Consistencia lógica: consistencia del dominio (proximidad al valor de
dominio establecido), consistencia de formato (estructura de acuerdo
a la norma), consistencia conceptual (reglas definidas en esquema
conceptual) y consistencia topológica (relaciones topográficas entre
objetos.
● Exactitud posicional: absoluta (respecto a una referencia externa),
relativa (respecto a otros elementos) y datos en malla (respecto a
otros elementos)
● Exactitud temporal: en la referencia (veracidad en la referencia
temporal), consistencia temporal (correcto orden temporal o
secuencial), validez temporal (validez de datos respecto al tiempo).
● Exactitud temática: clasificación (objetos clasificados correctamente),
atributo cualitativo (los atributos cualitativos estén correctos), valor
dado a un atributo cuantitativo (los atributos cuantitativos estén
correctos).
Usabilidad: grado de adherencia a un conjunto específico de requisitos de calidad de datos.
Todos los elementos de calidad pueden usarse para evaluar la calidad, aunque un mismo
producto puede tener diferentes usabilidades.
2. Evaluar con métodos adecuados: como se llevará a cabo la evaluación de los
factores
3. Cuantificar adecuadamente y de forma comparable: qué medidas hemos de
utilizar.
4. Describir adecuadamente todos los aspectos: Estructura lógica del informe.

Metadatos
Los metadatos consisten en un conjunto de atributos necesarios para describir y
documentar un recurso en particular. Su fin principal es asegurar, para el usuario interesado
en un recurso, la documentación mínima indispensable para juzgar el recurso, su
confiabilidad práctica y alcance, su grado de actualización y las responsabilidades
involucradas en su creación, entre innumerables atributos disponibles.

El FGDC reconoce que la creación de metadatos geográficos persigue tres objetivos


principales:
➔ Organizar y mantener la inversión en datos hecha por una organización
➔ Publicitar la existencia de información geográfica a través de sistemas de catálogo
➔ Proporcionar información que ayude a la transferencia de los datos

Beneficios de los metadatos:


✔ Proporcionan información sobre la posesión de los datos geográficos en forma de
catálogo
✔ Contribuyen a evitar la duplicación de esfuerzos, lo cual significa ahorro de recursos
✔ Los usuarios pueden localizar rápidamente los datos espaciales relevantes para sus
necesidades

89
✔ Los generadores y usuarios pueden anunciar y promover la disponibilidad de sus
datos

Preguntas que debe responder un metadato

Para evitar confusiones, existen diferentes productores de estándares de referencia a nivel


global, un ejemplo de eso eso ISO:
International organization for standardization es una federación mundial de organismos

💡
nacionales de normalización.
ISO 19115: los elementos de los metadatos se agrupan en entidades y para definir la

💡
jerarquía y relación entre ellos, así como su función, se ha publicado esta norma.
ISO 19139: cómo debe hacerse la creación y validación de ficheros con formato

💡
XML para garantizar la normalización entre las fuentes de datos.
ISO 19113: Aunque en algunos entornos, como HTML, no hay diferenciación entre
mayúsculas y minúsculas, se recomienda siempre como práctica más recomendable
atenerse a las convenciones de uso de mayúscula/minúscula en los nombres de los
elementos que se proponen, para evitar problemas en el caso de que los metadatos
se extraigan o se conviertan posteriormente a un entorno donde sí se diferencian
mayúsculas y minúsculas como puede ser XML.

ISO 19157: principios de calidad


Los siguientes elementos de calidad de datos, en su caso, se usan para describir que tan
bien cumple un conjunto de datos los criterios previstos en las especificaciones de producto:
● Compleción: presencia o ausencia de objetos geográficos, sus atributos y relaciones

90
● Consistencia lógica: grado de cumplimiento de reglas lógicas de la estructura de
datos, atributos y relaciones (la estructura de datos puede ser conceptual, lógica o
física)
● Exactitud posicional: exactitud de la posición de los objetos geográficos
● Exactitud temporal: exactitud de los atributos temporales y relaciones temporales de
los objetos geográficos
● Exactitud temática: exactitud de los atributos cuantitativos y corrección de atributos
no cuantitativos, así como de las clasificaciones de los objetos geográficos y sus
relaciones

ISO 19115: METADATOS


Los datos geográficos digitales pretenden modelar y describir el mundo real para su
posterior análisis y visualización mediante medios diversos. Sus características principales
así como limitaciones deben estar completamente documentadas mediante los metadatos.
Proporciona un modelo y establece un conjunto de común de terminología, definiciones y
procedimientos de aplicación para los metadatos. Mediante la definición de elementos de
metadatos se describirá información sobre la identificación, la extensión, la calidad, el
modelo espacial y temporal, la referencia espacial y la distribución de datos geográficos.
Esta norma de metadatos es de una gran complejidad e incluye una extensa serie de
elementos de metadatos, unos obligatorios y otros opcionales. El documento consta de 140
páginas, incluye un total de 400 items y define 27 listas controladas, mediante las que se
definen los posibles valores válidos de ciertos campos.
Aunque esta norma define un extenso número de elementos de metadatos, establece un
CONJUNTO MÍNIMO de metadatos a considerar para todo el rango de aplicaciones de
metadatos. Con este conjunto se pretende establecer unos mínimos para facilitar el
descubrimiento, el acceso, la transferencia y la utilización de los datos. Este núcleo está
formado por elementos obligatorios y otros opcionales que usados todos ellos aumenta la
interoperabilidad de los datos y permite estar formado como mínimo por los elementos
definidos en dicho núcleo
ISO 19115:2003 define:
➢ Secciones de metadatos obligatorios y condicionales, entidades de metadatos y
elementos de metadatos.
➢ El conjunto mínimo de metadatos requeridos para servir al rango completo de
aplicaciones de metadatos.
➢ Elementos de metadatos opcionales, para permitir una descripción normalizada más
amplia de los datos geográficos, si es necesario.
➢ Un método para ampliar los metadatos a fin de satisfacer necesidades específicas.

En una lista se encuentran los elementos de metadatos esenciales que se necesitan para
identificar un conjunto de datos, por lo general para fines de catalogación. Esta lista
contiene elementos de metadatos que responden a las siguientes preguntas:
● ¿Existe un conjunto de datos sobre un tema específico (‘qué’)?»,
● «¿para un lugar específico (‘dónde’)?»,
● «¿para una fecha específica o periodo (‘cuándo’)?» y
● «¿hay un punto de contacto para saber más acerca del conjunto de datos u
ordenarlo (‘quién’)?». }
El uso de los elementos opcionales recomendados además de los elementos obligatorios
aumentará la interoperabilidad, permitiendo a los usuarios entender sin ambigüedades los

91
datos geográficos y los metadatos relacionados que haya proporcionado el productor o el
distribuidor.

ISO 19139: esquema de implementación XML


Es una especificación técnica que desarrolla una implementación en XML del modelo de
metadatos escrito por ISO 19115. XML es un lenguaje de marcado que se utiliza para crear
documentos que contengan información estructurada.
El propósito de un esquema es definir los componentes válidos de un documento XML:
elementos que pueden aparecer, atributos, elementos hijos, orden y número de los
elementos, tipos de datos, valores por defecto de los elementos, etc. La ventaja de la
utilización de los espacios de nombres es que permitirá eliminar las ambigüedades y
solucionar los problemas de homonimia que se producen en todos documentos XML, ya
que pueden existir etiquetas con un mismo nombre pero con diferentes significados y
espacios semánticos

ISO 19115:2008. METADATOS-Extensiones para imágenes y datos malla


La ISO 19115 identifica los metadatos que se requieren para describir los datos geográficos
digitales. Esta parte de la ISO 19115 amplía los metadatos que se identifican en la ISO
19115 e identifica los metadatos que se requieren para describir las imágenes geográficas
digitales y los datos malla.
La ISO 19115 identifica algunos de esos metadatos para imágenes y datos malla y esta
parte agrega 138 elementos de metadatos adicionales para este tipo de datos. Proporciona
información sobre las propiedades del equipo de medición que se utiliza para obtener los
datos, la geometría del proceso de medición empleado por el equipo y el proceso de
producción utilizado para digitalizar los datos brutos. La extensión tiene que ver con los
metadatos necesarios para describir la obtención de información geográfica a partir de los
datos brutos, incluyendo las propiedades del sistema de medición, así como los métodos
numéricos y procedimientos computacionales que se utilizan en la obtención. Los
metadatos necesarios para ocuparse de los datos de cobertura en general se discuten
ampliamente en la parte general de la ISO 19115.

¿Qué es un perfil de metadatos?


Un perfil de metadatos consiste en un conjunto particular de descriptores, adoptados para la
documentación de información en un contexto determinado. Diversos perfiles pueden diferir
tanto desde la cantidad y tipo de descriptores utilizados, como en la forma en que se
complementan los campos.
Para esto se tendrá en cuenta los siguientes puntos:
1. Las propiedades de los equipos de medición usados para adquirir los datos
2. La geometría de los procesos de medición empleados por los equipos
3. Los procesos de producción usado para obtener los datos
4. Los datos numéricos y procesos informáticos usados
Los perfiles de metadatos son un estándar implementado para la descripción,
documentación y catalogación de recursos de información espacial colectada, generada y
utilizada en el proyecto IDERA, y recomendando para su utilización en otros ámbitos
públicos y privados de la Argentina.
● • QUÉ (los contenidos del recurso) • DÓNDE (la localización y alcances espaciales
del recurso) • QUIÉN (el responsable de la creación, edición y difusión del recurso) •

92
CUÁNDO (los momentos significativos en la vida del recurso) • CÓMO (las
metodologías de captura y proceso de información para la generación y edición del
recurso)
El paquete básico de elementos compuesto como el Perfil de IDERA de la norma ISO
19115, un subconjunto mínimo de elementos considerados necesarios e indispensables. A
fin de asegurar la interoperabilidad de la información generada y la disminución de fuentes
de error durante la carga de datos, algunos elementos se eligen de listas con términos
sugeridos a través de vocabulario controlado. Otros campos son de carga libre aunque se
realizan recomendaciones específicas en cada caso.

Sistemas de información geográfica


Los SIG son una INTEGRACIÓN organizada de hardware, software e información
geográfica diseñada para capturar, almacenar, manipular, analizar y desplegar en
todas sus formas la información geográficamente referenciada con el fin de resolver
problemas complejos de planificación y gestión.
En un sentido más genérico, los SIG son HERRAMIENTAS que permiten a los usuarios
crear consultas interactivas, analizar y editar la información espacial, y presentar los
resultados obtenidos de estas operaciones.
Los SIG están unidos al concepto de sistema como elemento integrador que engloba a
un conjunto de componentes interrelacionados→ elemento integrador: integran
elementos, personas, teorías y fundamentos que dan la estructura para la ciencias de la IG.
Lo primordial es el primer principio de la geografía: la localización. En la información se
integran diferentes elementos, se integra cada una de las capas para generar un modelo de
la realidad.
No solo contiene información, una de las partes más importantes de un SIG es que pueden
hacerse operaciones entre las capas siempre y cuando estén con una georreferenciación
correcta→ herramienta integradora.

Objetivos
➢ Almacenamiento, manejo y manipulación de grandes volúmenes de datos
geográficos→ ESPACIALMENTE GEOREFERENCIADOS
➢ Proveer los medios para llevar a cabo análisis que implican, de manera
específica, el componente de POSICIÓN GEOGRÁFICA. La geografía tiene como

93
principal objetivo estudiar las distribuciones que se dan en el espacio→ medio
específico para llevar adelante este objetivo.
➢ Organización y administración de los datos, de tal forma que la información sea
accesible a los usuarios.
➢ Vinculación de diversas bases de datos.

Componentes
● Personas (investigadores)
● Hardware y software
● Datos: integra datos de diferentes formatos
● Procedimientos: su principal es el modelado pero existen otros como el análisis,
colector de información o representación. no son para hacer cartografía.
Todo SIG tiene una entrada de datos o información que se estructura en una base de
datos que tiene una referencia espacial (cada una). Tiene que existir también un
mantenimiento, transformación y actualización de la información→ para que sea
SOSTENIBLE en el tiempo. Se pueden realizar consultas y se puede generar una salida.
Una de las cuestiones fundamentales en un SIG, es la PLANIFICACIÓN→ tiene que
planificarse con tiempo, ser pensado de forma ordenada y saber a donde voy, cuántas
personas van a trabajar, etc.

Funciones
Una de las funciones clave es que son un soporte para la TOMA DE DECISIONES.
Siempre hay una entrada de datos, un tratamiento y una salida. En la interpretación de ese
modelado vamos a tener los resultados para tomar una decisión correcta.
Partiendo del mundo real, vamos a hacer una codificación para hacer un modelo de
representación de datos y el espacio. Después se realiza un manejo espacial, temporal o
temático. En el análisis se pueden hacer consultas, modelados u operaciones algebraicas.
Todo para sacar un reporte cuyos resultados pueden ser información, localización
específica, gráficos, bases de datos, etc.

Importancia
➢ Integran información espacial y de otros tipos
➢ Ofrecen un marco consistente de análisis para los datos geográficamente
referenciados→ geografía como sustento.
➢ Ofrecen nuevas y novedosas formas para manipular y desplegar datos
➢ Permiten la visualización y el análisis de datos con base en las relaciones y
proximidades geográficas.
En todo SIG estas relaciones se establecen a partir de tener datos espaciales o entidades
espaciales asociadas a sus atributos.
La integración se hace a partir de la conjunción de los conceptos de espacio y tecnologías
de la información, que buscan analizar espacialmente los fenómenos del territorio haciendo
una abstracción del mundo real:
■ Localización: entidades (y sus atributos) que tienen una ubicación específica
en el espacio geográfico. Se basa en el espacio absoluto pues en él existen sitios
(latitud-longitud) específicos y fijos de emplazamiento sustentados en una topografía
y condiciones geográficas particulares locales. De igual forma se basa en el espacio

94
relativo posición (diferentes escalas y de medición) específica y cambiante respecto
de otros sitios con los cuales se pueden establecer vínculos formales.
■ Distribución: conjunto de entidades de un mismo tipo que se reparten de
determinada manera sobre el espacio geográfico, generalmente de manera
heterogénea. Hace referencia también a las localización dispersa que presentan
puntos y zonas de clases continuas.
■ Asociación: semejanzas entre distintas distribuciones espaciales la cual parte
de un análisis visual (interpretación visual). Poder encontrar diferentes áreas con
homogeneidades propias permite poner límites al espacio geográfico. Este trazado
de límites sobre un mapa como resultado de la combinación de distribuciones y
asociaciones espaciales se transforman en herramientas de planificación.
■ Interacción: estructura un espacio relacional en el cual las localizaciones (sitios)
distancias (ideales y reales) y vínculos resultan fundamentales en la diferenciación
de espacios funcionales. Poder obtener relaciones entre sitios→ interacción.
■ Evolución espacial. TIEMPO
Se requiere de una construcción enfocada no solo al manejo técnico de herramientas en
SIG, sino también en conceptos geográficos fundamentales de la herramienta y la
investigación→ manipular o ser operario de un software no significa saber o hacer una
construcción de un SIG. Si no hacemos hincapié en los conceptos fundamentales que
tienen como soporte el SIG o de la herramienta y si no hacemos una investigación precisa
vamos a terminar teniendo una simplificación.
En un SIG se modelan datos geográficos. La representación de la información
geográfica se realiza estructurando datos espaciales para la realización del modelo
de la realidad. Esta estructura de datos (cualitativos o cuantitativos), catalogada con
variables de un territorio es la que provee información clave organizada para la toma de
decisiones.
Los SIG son parte de un sistema integrado donde tenemos datos descriptivos y datos
espaciales que forman la geografía. La unión de ambos son los SIG.

Capacidades:
1. Localización: qué hay en
2. Condición: donde hay
3. Estudiar la evolución: que ha cambiado desde
4. Establecer Patrones: que patrón existe
5. Hacer un Modelamiento: que pasa si

Dato
Para trabajar con un SIG es necesario saber la diferencia entre dato e IG.
El DATO es un insumo básico para desarrollar tareas. Descripciones básicas de cosas,
acontecimientos, actividades y transacciones que se registran, clasifican y almacenan pero
que no se organizan de acuerdo con ningún significado específico. Los elementos datos
pueden ser numéricos, alfanuméricos, figuras, sonidos e imágenes.
Es un hecho verificable sobre la realidad que nos informa sobre realidades de tres tipos:
I. Espaciales: donde está, cuanto mide, etc.
II. Atributivas: tipo de litología, propietario.
III. Topológicas: relaciones geométricas entre los objetos.

95
Simple conjunto de valores o elementos que utilizamos para representar algo.

Información
Corresponde a los datos que se han ORGANIZADO (procesados) de modo que tengan
significado y valor para el receptor. Este interpreta el significado y obtiene conclusiones e
implicaciones→ toma de decisiones.
Resultado de un dato y una interpretación. Un dato puede esconder más información que la
que a primera vista puede apreciarse→ con la interpretación de los datos se puede obtener
esta.

Las componentes de la información geográfica pueden ser:


➢ Espacial: Hace que la información se cuantifique como geográfica. Responde al
dónde y es de tipo numérica.
➢ Temático: responde al qué es,es una información que puede ser alfanumérica.
El dato es imprescindible para la construcción del SIG→ tener un dato susceptible de ser
incorporado a un SIG que represente a un área con todas sus características es muy
complejo. Para ello existen la construcción de modelos que representan la realidad.

Uno de los PROBLEMAS a los que nos enfrentamos cuando estamos realizando un SIG es
que el mundo real está compuesto por una cantidad de detalle/variables de carácter
infinito y la representación a través de los modelos es limitada. Para la construcción de
ese modelo de la realidad con datos infinitos que tienen que ser llevados a finitos hay una
serie de establecimientos que se deben construir. Uno de los primeros pasos es la
construcción de un modelo geográfico (modelo conceptual). El establecimiento de un
modelo de representación, se apoya en el anterior y hace la reducción finita de la
información. El establecimiento del modelo de almacenamiento, que es como almacenar
los diferentes elementos que nosotros vamos a representar de ese modelo de la realidad.
★ El modelo geográfico es básicamente un modelo conceptual relativo a cómo se
va a interpretar toda la realidad geográfica que se estudia. Conceptualizar el
espacio, la variable que voy a tratar y las variaciones que puede sufrir. No
incorpora representación o almacenamiento. Para su construcción es necesario el
conocimiento de todas las características geográficas: ubicación absoluta en el
espacio (coordenadas), ubicación relativa en el espacio (características de su
entorno) y posee como mínimo de características que lo describe o define
denominado atributo.
★ Modelo de representación: existen dos
○ Vectorial: define al espacio mediante elementos geométricos con
valores asociados. La componente espacial se recoge explícitamente por
una serie de puntos y esta se relaciona con una serie de valores que le dan
propiedad a esa entidad geográfica formando la componente temática que
puede tener o no una topología. Entonces, tenemos una realidad espacial
que va a estar representada por una geometría y que va a tener asociada un
atributo que la va a describir.
○ Raster: se basa en una división sistemática del espacio, caracterizándose
como un conjunto de unidades elementales. La componente espacial y
temática están relacionadas. Representa un punto/línea/aérea como un

96
conjunto de celdas dentro de una matriz. El tamaño de cada celda
determina el grado de resolución de los datos.
Es una estructura matricial regular:
➢ Se construye superponiendo al terreno una matriz regular y
asignando a cada celda el valor medio del área que cubre
➢ Las coordenadas espaciales están implícitas en la estructura y
dependen de los valores fila columna de la celda
➢ Esta estructura es la utilizada para manejar las imágenes digitales
procedentes de teledetección y los modelos digitales del terreno
➢ Los atributos están contenidos en la estructura como valores de las
celdas: no existen tablas asociadas ni estructura topológica
propiamente
➢ Es una estructura simple pero puede ser altamente redundante
Topología: Hace referencia a las propiedades no métricas. Mantienen las relaciones
geométricas existentes entre objetos. Un modelo de datos topológicos va a registrar
relaciones espaciales representando objetos espaciales como un gráfico de nodos. Se basa
en la matemática. Una estructura topológica se basa en la definición de conectividad (los
arcos se conectan entre sí en los nodos), de área (los arcos que circunda un área definen
un polígono) y de contigüidad (los arcos tienen dirección hilada).

El modelo nos ayuda a encontrar geometrías coincidentes. Permite que las entidades que
nosotros definimos sean las reales.
Vectorial Raster

Estructura de datos compacta Estructura de datos simple


Estructura de datos eficientes en Estructura de datos eficiente en álgebra de
operaciones topológicas mapas
Representación idónea de objetos Representación idónea de variables con
puntuales y lineales gran heterogeneidad espacial
Representación más comprensible Es un modelo de datos necesario para
Tamaño proporcional a la cantidad de manejar imágenes digitales
información Tamaño proporcional al área representada

En los SIG voy a tener la posibilidad de realizar análisis espacial de diferentes tipos y
diferentes niveles de complejidad: consulta espacial (tipo de suelo, localizacion, ciudades
mas pobladas), análisis topológico (como se llega a un lugar, provincias que comparten

97
límites con x), medición (calcular áreas, perímetros, etc), combinación (de dos capas
temáticas), transformaciones (áreas de influencia, que ciudad tiene un mercado a menos de
1km, que calles no tienen hospitales en un radio de tantos metros, analizar distancias),
análisis de superficie (sacar pendientes, orientación, parámetros morfométricos, áreas de
peligrosidad de inundación), estadística descriptiva (análisis estadístico, si la media de
altura es constante, tendencia a aglutinarse); inferencia (inferir el comportamiento de las
variables y ver su evolución); toma de decisiones y optimización (localización de lugares
óptimos, ruta óptima para, que nos sirve llegar a la toma de decisiones) y modelización (lo
más complejo y tiene un conocimiento y tratamiento de la Ig por detrás)

98

También podría gustarte