Está en la página 1de 26

PROCESAMIENTO DIGITAL DE IMÁGENES ORIENTADO A

SENSORES REMOTOS
PROCESAMIENTO DIGITAL DE IMÁGENES

Introducción:
El tratamiento de imágenes por computadora surgió inicialmente como aplicación de
procedimientos matemáticos tendientes a corregir las fotografías y mejorar su interpretación.
Posteriormente, con el desarrollo de la tecnología y la aparición de nuevos sensores de imágenes,
procedimientos computacionales y algoritmos matemáticos o estadísticos, los procesos se fueron
sofisticando y masificando por los menores costos de hardware y software y hoy en día permiten,
no sólo la mejora de imágenes para interpretación visual humana, sino también su interpretación
por una máquina, en campos tales como: teledetección, robots industriales para montaje e
inspección, reconocimiento de objetivos militares, procesamiento de huellas dactilares, análisis de
muestras de sangre y radiografías, predicción del tiempo atmosférico y de las cosechas,
microscopía, reconocimiento de caracteres, etc.
El procesamiento digital de imágenes consiste entonces en la manipulación, mejoramiento y
extracción de información de las imágenes naturales con el uso de computadoras digitales.
En este resumen mencionaremos procesos generales aplicados en imágenes digitales y otros
específicos que se utilizan en imágenes de sensores remotos. Los procesos que se describen son
algunos de los más comunes que se utilizan.

Sensores Remotos. Definición:


El término “sensores remotos” (o también “teledetección”) se refiere a la observación a distancia
(“remota”) de la superficie terrestre.
Las plataformas sobre las cuales van montados los sensores, son aviones o satélites.
Los sensores que “observan” desde esas plataformas pueden ser pasivos (ópticos) (cámaras
fotográficas, barredores multiespectrales, detectores CCD), los cuales captan la luz solar que refleja la
superficie terrestre, en diversas bandas espectrales, o bien activos, tales como el radar de apertura
sintética, el cual emite una señal y capta los ecos reflejados por los elementos de la superficie.
Las imágenes obtenidas con estos sensores tienen un formato digital (o si no lo tienen pueden ser
digitalizadas, como en el caso de las fotografías aéreas) y pueden ser procesadas por computadora.

Clasificación de las técnicas de procesamiento de imágenes:


1- Digitalización y cuantificación: pasaje de imágenes continuas a discretas. Esto es inherente
al sistema sensor o en el caso de fotos se puede realizar posteriormente con un escáner.
2- Preprocesamiento: normalización de los datos de entrada.
3- Mejora o realce: operaciones tendientes a mejorar la apariencia de los datos de entrada.

1
4- Restauración: recuperación de la imagen original, en el supuesto de que los datos de entrada
se encuentren afectados a algún tipo de degradación, como por ejemplo ruidos, turbulencia
atmosférica, movimientos indeseados de la plataforma, etc.
5- Codificación: consiste en la compresión de información con el objeto de reducir el costo de
transmisión de las imágenes, un almacenamiento más eficiente y su tratamiento numérico.
6- Análisis: consiste en la obtención de descripciones numéricas o simbólicas de la imagen de
partida, es decir se extrae información significativa de la imagen.
7- Reconstrucción: obtención de información de un objeto en base a sus proyecciones, como
por ej. tomografía o resonancia en medicina. En el campo de la teledetección, podríamos encuadrar
aquí a la obtención de imágenes terrestres en perspectiva a partir de una imagen satelital y su
modelo digital (elevación) de terreno.
8- Transformaciones: como por ejemplo georreferenciación de imágenes satelitales utilizando
datos cartográficos, combinación de imágenes de distintos sensores, combinaciones
multitemporales, etc.

REPRESENTACIÓN DIGITAL DE UNA IMAGEN

Una imagen de un objeto real (imagen analógica) es continua tanto en la variación espacial como
en la variación de sus niveles de gris o brillo. Ahora bien, una computadora digital maneja datos
numéricos, de manera que para poder manipular una imagen es necesario expresar a la misma como
un arreglo de datos numéricos, por lo cual es necesario discretizar la imagen tanto en el espacio
(geometría) como en la amplitud de grises (radiometría) y representarla como una matriz numérica.
La discretización en el espacio se denomina muestreo, pues se toman muestras de la imagen a
intervalos regulares.
La discretización en amplitud se llama
cuantización, y consiste en la asignación de niveles
de gris discretos al brillo o gris promedio dentro de
cada muestra o pixel.
La asignación de valores numéricos a los
distintos niveles de gris se denomina codificación,
pues se relaciona la información visual de los
distintos tonos de gris con un código numérico
arbitrario.
El proceso muestreo – cuantificación –
codificación se denomina digitalización.

2
Una imagen digital o discreta queda entonces representada por una grilla o matriz de elementos
(pixeles), donde cada elemento está ubicado en una determinada línea y columna de la matriz y
tiene un valor entero correspondiente al brillo medio en el sector que comprende. Esta disposición
de pixeles en una grilla se denomina formato raster, en contraposición con el formato vectorial
usado en computación gráfica. El término pixel proviene del inglés: “picture element”.
La resolución geométrica o espacial de una imagen está dada por el tamaño de la muestra - o
pixel, en este caso-, que está relacionado con el tamaño del mínimo elemento discernible en la
imagen, o bien la mínima distancia en que dos objetos próximos se distinguen como diferentes. Se
hace la salvedad de que a veces pueden verse objetos más pequeños que el tamaño correspondiente
a la resolución espacial debido a que tienen una alta respuesta (alta reflectancia en sensor óptico o
retrodispersión en radar), y al ser tan brillantes saturan el promedio de respuesta en un cierto radio
de acción.
La resolución radiométrica de una imagen está dada por los distintos tonos de gris (la cantidad
de éstos), con que se puede representar a los pixeles.
En la siguiente figura se representan los conceptos de resolución enunciados, para el caso de una
señal unidimensional, por ejemplo una línea de imagen.

Si el tamaño del pixel disminuye y la diversidad de tonos de gris es mayor, es decir, si las
resoluciones espacial y radiométrica mejoran, entonces la imagen digital “se parece” más a la
imagen analógica original y pueden llegar a confundirse visualmente.
Las resoluciones geométrica y radiométrica dependen del dispositivo sensor que capta y
digitaliza una imagen.
Las imágenes se almacenan en distintos formatos de archivos, y en el caso de imágenes
satelitales, existen registros y archivos auxiliares en donde se guarda una cantidad de información

3
asociada con las características de obtención de la imagen, tales como fecha, datos de la plataforma,
ángulo de toma, etc.

CARACTERÍSTICAS DE LAS IMÁGENES DE SENSORES


REMOTOS:
Si los sensores son pasivos u ópticos, la
resolución geométrica está relacionada con las
características del sistema óptico. En el caso de
barredores montados en aviones o satélites, donde
hay un espejo oscilante, está dada por el ángulo
instantáneo de visión (IFOV), por ejemplo el
antiguo MSS scanner de la serie LANDSAT. Si se
trata de arreglos CCD (Charged Coupled Device),
tales como el sensor de la serie SPOT, la resolución
geométrica está dada por el sistema óptico y por las
características de este arreglo CCD. Las resoluciones
radiométricas de los sistemas están relacionada con
las características del sistema opto-electrónico que
transforma la información visual en señales
eléctricas, y con el proceso de digitalización de estas
señales.

4
Otra característica de los sensores pasivos, es que captan las imágenes en distintas bandas del
espectro electromagnético (bandas del visible, infrarrojo cercano, medio y térmico), lo que puede
lograrse colocando filtros para cada banda entre el sensor y la imagen a captar. En este caso se
obtiene una imagen multiespectral, es decir una imagen compuesta por tantas imágenes o planos
como bandas son captadas. Cada plano o canal es una imagen en tonos de gris que representan la
reflectancia del terreno en esa banda espectral. Estos planos pueden considerarse como “versiones
distintas de una misma cosa”. Si a tres cualquiera de estos planos se les asignan los colores azul,
verde y rojo (en un monitor color, por ej.), se obtiene lo que se denomina una imagen en “falso
color”.

Sensores Pasivos u Ópticos

Si se dispone de las bandas espectrales azul, verde y roja correspondientes al visible (ej: bandas
1, 2 y 3 de Landsat TM) y se les asignan los colores correspondientes azul, verde y rojo, se obtiene
una imagen en “color natural”.
Dado que cada elemento de la superficie terrestre refleja la luz solar en distintas proporciones en
cada banda del espectro (esto conforma su firma espectral), el hecho de contar con un juego de
datos multiespectrales es muy importante ya que permite que se identifiquen mejor los elementos
presentes en la escena.
Cuantas más bandas espectrales tenga una imagen y más finas éstas sean, mejor será su
resolución espectral. Ej: el sensor LANDSAT Thematic Mapper tiene 30 m de resolución espacial
y 7 bandas espectrales. El sensor SPOT HRV tiene mejor resolución espacial (20 m) pero peor
información espectral (3 bandas).
Con respecto a los sensores activos, tales como el radar de apertura real (SLAR) o sintética
(SAR), proveen imágenes de una sola banda y en el nivel de gris del pixel intervienen diversos
factores, tales como la rugosidad del suelo, humedad del mismo, tipo de elemento, pendiente del
terreno, longitud de onda de la señal incidente, etc. La principal ventaja de este tipo de imágenes es

5
que son “todo tiempo”, resultando una fuente de información muy importante en zonas donde la
cobertura de nubes es muy frecuente e impide a los sensores ópticos obtener buenas imágenes.
Como desventaja se menciona el hecho de que poseen una sola banda y que deben ser sometidas a
un filtrado previo para reducción de ruido “speckle”, que es inherente a este tipo de imágenes.
Asimismo, en zonas montañosas, el efecto topográfico del relieve introduce distorsiones que deben
ser minimizadas con la aplicación de software de corrección específico.
Para los sensores activos, la resolución geométrica en azimut (dirección del vuelo) está
relacionada con las características de la antena, y en alcance (perpendicular a la línea de vuelo)
depende del ancho del pulso transmitido y el ángulo de depresión. Cabe aclarar que como este
ángulo es variable transversalmente a la escena, la resolución también lo es, por lo tanto se realiza
un remuestreo de los pixeles para que representen la misma área, y así resulta que la resolución de
la imagen puede no coincidir con el tamaño del pixel.

Sensores Activos (Radar)


Se observa además en la figura anterior que la ubicación de un elemento sobre la línea de imagen
está relacionada con el tiempo de retorno del eco (se relaciona tiempo con distancia), por eso en
zonas con relieve existirán errores en los posicionamiento de los puntos dentro de la imagen
(efectos de “overlay”, “forshortening”, “sombras”).

6
Distorsión por relieve (Sensores Activos)
Las laderas parecen “recostarse” hacia el sensor porque los picos de montaña, al devolver antes
la señal, son ubicados erróneamente más cerca del sensor en la línea de imagen.
Otra característica de las imágenes satelitales en general, tanto ópticas como radar, es que se
obtienen con una frecuencia regular, dependiendo de la órbita del satélite (período de “revisita”).
Esto define el concepto de multitemporalidad de las imágenes. Al contar con imágenes de una
zona tomadas en distintas fechas, se pueden realizar estudios multitemporales para observar cómo
han variado ciertas características.
Resumiendo, podemos hablar de cuatro tipos de resoluciones para una imagen digital: resolución
geométrica o espacial, resolución radiométrica, resolución multiespectral y resolución
multitemporal.
Según el campo de aplicación, se requieren sensores que enfaticen alguna de estas
características, por ejemplo en imágenes meteorológicas se requiere cubrir grandes áreas con baja
resolución espacial pero alta revisita (multitemporalidad), en uso catastral son necesarios sensores
con buena resolución geométrica, para evaluación de recursos naturales se deberá contar con
imágenes de varias bandas espectrales a fin de poder discriminar elementos en base a su firma
espectral.
Se incluye a continuación una tabla comparativa de características de sensores pasivos (visible,
infrarrojo e infrarrojo térmico) y activos (SAR) y de las imágenes que proporcionan:

7
Composición color de imágenes:
Utilizando un mismo sensor óptico, se pueden combinar tres bandas espectrales distintas, como
ya mencionamos anteriormente. Cada banda de una imagen multiespectral destaca aspectos
distintos de la información presente en una escena (por ej. vegetación, infraestructuras, rocas,
penetración en agua, etc.), de manera que la combinación color más conveniente dependerá de la
aplicación.
Para sensores SAR, como hay una sola banda, pueden combinarse en color imágenes de una
zona tomadas en tres fechas distintas. También pueden mezclarse bandas de distintos sensores. La
fotointerpretación posterior debe tener en cuenta cómo se hizo la asignación de colores.
Bandas espectrales y resolución espacial de algunos sensores ópticos:

8
ALGORITMOS PARA PROCESAMIENTO DE IMÁGENES
Existen dos grandes clases de transformaciones de imágenes:
- Transformaciones radiométricas: los valores de nivel de gris de los pixeles son alterados sin
modificar la geometría de la imagen (contrastes, filtrados, clasificación, texturas, cocientes).
- Transformaciones geométricas: se altera la geometría de la imagen, es decir, la ubicación de
los pixeles dentro de la misma (registración, georreferenciación, remuestreos).
Dentro de las transformaciones radiométricas, pueden distinguirse dos grandes grupos de
algoritmos de procesamiento: puntual y espacial.

Transformaciones radiométricas

Algoritmos de procesamiento puntual:


La operación sobre un pixel de la imagen se realiza sin tener en cuenta los pixeles vecinos. Ej:
ensanche de contraste, umbralización, pseudocolor, operaciones algebraicas entre imágenes
(sustracción, cociente).

9
Estos algoritmos son de fácil implementación en las computadoras convencionales, por ejemplo
en los casos de ensanche de contraste, umbralización, y pseudocolor se utilizan “look-up tables”
(tablas de consulta), en donde entrando con un nivel de gris se obtiene el de salida.
Ejemplo de transformación puntual: manipulación de histogramas (ensanche de contraste,
segmentación, etc.)

Algoritmos de procesamiento espacial o regional:


La operación para obtener un pixel en la imagen de salida tiene en cuenta tanto el pixel
correspondiente en la imagen de entrada como una cantidad arbitraria de vecinos de éste. Ej:
operaciones de filtrado, gradientes, realces de bordes, etc.
Estos algoritmos requieren una implementación con un mayor grado de complejidad que los de
procesamiento puntual.

Manipulación de bandas o canales en distintos procesos

Hay procesos que actúan sobre cada banda por separado y otros en donde se procesan todas las
bandas simultáneamente.

-Ensanche de contraste
-Filtrados
-Modificaciones geométricas
-Texturas

10
-Clasificación multiespectral (1 canal de salida)
-Componentes Principales
-Fusión multibanda/ multisensor
-Transformada de canales
-Cocientes (2 canales de entrada, uno de salida)
-Índices de Vegetación

HISTOGRAMA DE UNA IMAGEN DIGITAL


El histograma de una imagen es una tabla o gráfico que indica la cantidad de píxeles en la
imagen que corresponden a cada valor de gris. El concepto es análogo al de densidad de
probabilidad que se utiliza en estadística.

El histograma de una imagen sólo especifica el número total de pixeles correspondientes a cada
nivel de gris y no proporciona información acerca de la distribución espacial de los mismos.
El análisis del histograma de una imagen constituye un paso previo para lograr una eficiente
manipulación del contraste o algún proceso de umbralización.
En la figura se grafican, como ejemplo, las envolventes de diversos histogramas, observándose
que si la imagen es oscura el histograma se encuentra corrido hacia la izquierda, si en cambio los

11
niveles de gris son altos está corrido hacia la derecha. Si la imagen tiene poco contraste
(diferenciación de niveles de gris), el histograma es estrecho, si hay más contraste se encuentra más
expandido, dado que hay más riqueza en los tonos de gris.

ENSANCHE DE CONTRASTE
El ensanche de contraste es una transformación radiométrica puntual (pixel a pixel) muy simple,
cuyo objetivo es lograr una mejor discriminación de imágenes con bajo contraste. Cada nivel de gris
de la imagen se modifica sin considerar los niveles de gris de los píxeles adyacentes. Se aumenta el
rango de niveles de gris a fin de mejorar la interpretabilidad de las imágenes y para aprovechar toda
la capacidad del sistema de display.
La curva de transformación o función de transferencia puede ser o no lineal, y el proceso
consiste en ingresar a esta función con un nivel de gris en la imagen de entrada y obtener un nuevo
valor a ser grabado en la imagen de salida, o visualizado en un monitor.

Los ensanches de contraste que


más se aplican son los lineales y por
nivelación de histograma (este
último es no lineal).

12
Ensanche de contraste lineal:
La función de transferencia es una recta. Se elige un límite inferior y otro superior de la curva y
allí se traza una recta de transferencia:

De esta forma los valores de gris entre A y B de la imagen se distribuirán linealmente entre 0 y
255 a la salida.

Ensanche de contraste no lineal:


La función de transferencia no es una recta. Por ejemplo, en el ensanche por nivelación de
histograma, se asigna una mayor diferenciación de grises en aquellos lugares más poblados de la
curva del histograma. De esta manera el histograma resultante se “nivela”, es decir, los valores de
gris quedan repartidos en forma más pareja entre los pixeles. No es un ensanche tan “suave” como
el anterior, y se utiliza en imágenes en donde es necesario resaltar una subimagen (se nivela el
histograma de ésta).

13
DETECCION DE UMBRAL (THRESHOLDING)
Entre los tipos de operaciones de manipulación de contraste se encuentra la denominada
“detección de umbral”. Consiste en segmentar la imagen en dos clases bien diferenciadas: objeto y
fondo, mediante la simple aplicación de un umbral en el rango de los niveles de gris.
El histograma de la figura es característico de de las imágenes que contienen objetos grises sobre
un fondo oscuro. Se fija un determinado umbral T, a los pixeles con valor de gris menor a T se les
asigna color negro, y a los que están por encima color blanco, resultando una imagen binaria (sólo 2
tonos de gris).

SEGMENTACIÓN (DENSITY SLICING)


Se toman varios umbrales, y a los niveles de gris comprendidos entre dos umbrales consecutivos,
se les asigna un único tono de gris. Los niveles quedan entonces reducidos a una cantidad menor y
la imagen resulta “segmentada”. Ejemplo:

Nivel de gris Nivel de gris


pixel original pixel resultado
0
1 0
2
3
4 1
6
7
8 2
etc.

PSEUDOCOLOR (COLOR MAPPING)


Consiste en asignar un color distinto a cada nivel de gris de una imagen en blanco y negro, es
decir, colorear la imagen de acuerdo a sus determinadas tonalidades de gris, con una asignación de
colores arbitraria. Esto enriquece la capacidad del ojo en distinguir tonalidades. También pueden
tomarse rangos de niveles de gris (como en la segmentación) y darles distintos colores.

14
Se utiliza, por ejemplo, para fotointerpretar imágenes en blanco y negro, o para colorear una
imagen clasificada, en donde los niveles de gris representan una clase de elementos determinada.
Nivel de gris Color pixel
pixel original resultado
0 color1
1 color 2
3 color 3
etc
No debe confundirse al pseudocolor con la composición color azul-verde-rojo de tres canales de
imagen. El pseudocolor es un coloreado artificial de un sólo canal.

FILTRADOS POR CONVOLUCIÓN DE MÁSCARAS


Este es un proceso de tipo regional (el pixel de salida depende de una ventana en el entorno del
pixel original).

Es una operación en el dominio espacial que


equivale a un filtrado en el dominio de las
frecuencias de la señal. Está implementada por
medio de una máscara o ventana con
determinados coeficientes, que puede ser diseñada
por el operador, quien define el tamaño de la
máscara (3x3, 5x5, 7x7, 11x11, etc.)
Los sucesivos pixeles de la imagen se van
multiplicando por la máscara, la cual va
recorriendo la imagen de entrada y generando una
imagen de salida filtrada. Cada canal de la
imagen se filtra en forma independiente.

Según los valores que se elijan para los coeficientes de la máscara, se obtendrán distintas
transformaciones sobre la imagen, tales como: suavizado (filtrado pasa-bajas), detección de bordes
(filtrado pasa-alta), realce de bordes, gradientes direccionales, etc. Hay máscaras estándar que son
utilizadas con frecuencia.

Filtro Pasa-Bajas (filtro media):


Está dentro de las operaciones de suavizado, que son operaciones que se realizan para reducir
ruido y otros efectos espurios que pueden estar presentes en una imagen como resultado, en muchas
ocasiones, del muestreo, cuantización, transmisión o perturbaciones en el entorno durante el

15
proceso de obtención de la imagen. También pueden usarse para suavizar resultados de ciertos
procesos, por ej. un modelo digital de terreno.

Detección de bordes (“pasa-altas”) con el operador Laplaciana:


No es de uso tan común, ya que al ser un operador de derivada segunda, resulta bastante sensible
al ruido.

Detección de bordes (“pasa-altas”) utilizando gradientes en distintas direcciones:


Podría ser implementado con máscaras muy sencillas. Se utilizan en diversas aplicaciones, por
ej. estudios geológicos de lineamientos.

Realce de bordes:
Consiste en resaltar las frecuencias altas de la imagen a fin de hacer más nítidos los bordes de la
misma. Las máscaras más comunes son:

Máscara 1 Máscara 2 Máscara 3

0 -1 0 -1 -1 -1 1 -2 1
-1 5 -1 -1 9 -1 -2 5 -2
0 -1 0 -1 -1 -1 1 -2 1

Otros filtrados:
Existen otras operaciones para filtrar imágenes que no realizan operaciones de convolución, pero
que muchas veces analizan sucesivas ventanas a lo largo de una imagen. Los procesos a veces son
muy específicos, por ej. para cierto tipo de ruidos (stripping en imágenes Landsat o speckle en
imágenes radar) y otros son aplicables a casos más generales.

Filtrado en imágenes SAR:


Las imágenes SAR son ruidosas. Están afectadas por un ruido denominado “speckle”, que es un
ruido aleatorio multiplicativo que le da una apariencia granulada a las imágenes. “Multiplicativo”
significa que el nivel de ruido aumenta para tonos más claros.
Para disminuir este ruido, se utilizan procesos de filtrado específicos y no específicos. Entre los
no específicos pueden mencionarse los ya mencionados filtros de media, mediana y sigma., que no
tienen precisamente en cuenta la naturaleza multiplicativa del speckle. También puede realizarse el
promediado de varias imágenes de una misma escena. Entre los específicos, se mencionan los
siguientes: LEE, FROST, MAP, que son procesos matemáticamente más elaborados, y tienen en
cuenta las características estadísticas del ruido speckle.
Para detectar bordes en imágenes radar, pueden utilizarse los procesos ya vistos u otro tipo de
filtros que tratan de minimizar el efecto del ruido: son “filtrados por cocientes de atributos de
regiones vecinas”: para cada pixel, se suponen bordes en diversas direcciones, y se calcula la

16
sumatoria de grises de dos regiones de pixeles, a ambos lados de cada supuesto borde. Se realiza el
cociente de ambas regiones. Esto se repite para cada dirección de borde. Luego se elige el mayor
cociente, y se infiere que en esa dirección hay un borde.

COCIENTES ENTRE BANDAS


Es un proceso incluido dentro de los denominados “álgebra de canales”. Se toman los valores de
un pixel en cada una de las bandas y se opera algebraicamente con ellos, en este caso realizando un
cociente.
Se toman comúnmente las bandas correspondientes al verde (V), rojo (R), e infrarrojo cercano
(IRC) de los sensores pasivos multiespectrales.

Cocientes simples:

C1 = V / R C2 = R / IRC C3 = IRC / R

Cada cociente puede constituir una imagen de salida distinta, o o un canal de una imagen de
salida compuesta por los tres cocientes.

Cocientes normalizados:

V / (V+R+IRC) R / (V+R+IRC) IRC / (V+R+IRC)

Acentúan las características de cada canal (suelos, rocas, etc.)

Cocientes normales:

V / (R+IRC) R / (V+IRC) IRC / (V+R)

Si hay vegetación la discriminan entre sí y con respecto a lo demás. Los cocientes dan distintos
resultados dependiendo de si hay o no vegetación.

ÍNDICES DE VEGETACIÓN
Son también operaciones algebraicas entre canales. Determinan la presencia y condición de la
vegetación. La vegetación tiene valores altos en IRC y bajos en R (VI ). Nubes, agua, nieve:
valores bajos en IRC, altos en R (VI ). Roca, suelo desnudo: valores similares en ambas bandas
(VI cercano a cero). Se escalan los valores de salida para obtener un rango de 0 a 255).

Índices de vegetación (VI):

VI = IRC - R (MSS) VI = Banda 2 - Banda 1 (NOAA AVHRR)

17
Índices de vegetación normalizados (NDVI):

NDVI = (IRC - R) / (IRC + R)


NDVI = (Banda 2 - Banda 1) / (Banda 2 + Banda 1) (NOAA AVHRR)

CLASIFICACIÓN MULTIESPECTRAL
Consiste en asociar los elementos (pixeles) de una imagen multiespectral a distintas categorías o
clases.
Si los niveles de gris de la imagen en sus distintos planos o canales representan la reflectancia
de la imagen en cada una de las bandas del espectro electromagnético en que fueron captadas,
entonces el conjunto de información multiespectral nos da una indicación del tipo de elementos que
contiene la imagen, ya que cada material refleja la luz solar en una forma particular en cada una de
las bandas del espectro.
Si se toma como ejemplo una imagen de dos canales, de un área que contiene distinto tipo de
cultivos, se desea agrupar los elementos en clases o clusters representadas también en dos canales.
La clasificación puede ser no supervisada (clustering) o supervisada.
La no supervisada consiste en asociar los elementos en forma automática de acuerdo con su
distancia euclídea en los niveles de gris.
La supervisada requiere información de muestras o “training sites” conocidas sobre el terreno,
luego se calculan ciertas características estadísticas de las mismas (media, dispersión, matriz de
covariancia entre canales), y finalmente se va asignando el resto de los elementos de la imagen a las
correspondientes clases, de acuerdo a algún criterio preestablecido, por ej. la teoría de decisión de
Bayes (método Maximum Likelihood o Máxima Verosimilitud), o bien un método más sencillo
que consiste en la asignación por hipercubos centrados en las medias de las clases.
Método de Maximum Likelihood:
1- Selección de polígonos (áreas de entrenamiento) representativos de cada clase.
2- Cálculos estadísticos en los datos de las muestras.
3- Análisis de las muestras para descartar las no representativas (matrices de confusión).
4- Clasificación del resto de píxeles: se asigna el pixel x a la clase w i en base al criterio:
p(x/wi) * p(wi) > p(x/wj) * p(wj) para todo j
p(x/wi) : función likelihood : probabilidad condicional del pixel x en la clase “i”
p(wi) : probabilidad de la clase “i”
El resultado es una imagen clasificada, en blanco y negro (un canal), en donde cada tono de
gris representa una clase distinta. Se puede colorear con pseudocolor y codificar las clases según
colores.

18
Como canales de la imagen a clasificar se pueden también usar texturas de imágenes radar,
combinadas con imágenes ópticas, lo cual agrega información que puede mejorar el resultado de la
clasificación.

19
ANÁLISIS DE TEXTURAS
Se aplica principalmente a imágenes en blanco y negro, tales como imágenes satelitales SAR.
Permite realizar una clasificación de los elementos presentes en una imagen en base a las
texturas de los mismos. Se denomina textura del terreno al patrón de variación de los tonos de gris
en una dirección dada o promediado en diversas direcciones. Es el “tramado” que tiene un sector de
una imagen. Se obtiene una imagen da salida en donde cada nivel de gris representa una clase de
textura diferente, estas clases pueden colorearse mediante un proceso de pseudocolor.
Por ejemplo, un campo arado tiene una textura diferente que un terreno con césped, la textura de
la superficie de un lago es distinta si está tranquilo o “picado”. Las texturas discernibles dependerán
de la resolución de la imagen y también de otros factores en imágenes SAR, tales como el ángulo de
incidencia y la longitud de onda de la señal.

COMPONENTES PRINCIPALES
Así como el de clasificación multiespectral, este es otro algoritmo típico de procesamiento de
imágenes satelitales. Consiste en una transformación de canales, según la cual, a partir de las bandas
o canales de la imagen original, se generan nuevos “pseudocanales”, de los cuales el primero es el
que contiene mayor información (mayor variancia).
En efecto, en la imagen resultante la variancia de los datos decrece a partir del primer canal, de
manera que en los primeros canales se condensa la mayor parte de la información.
Ejemplos de aplicación: compresión de datos (se consideran las primeras componentes y se
descartan las demás), mejora en la clasificación multiespectral (se clasifica con las primeras
componentes principales), utilización en estudios geológicos.

CORRECCIÓN DE IMÁGENES
Son procesos de restauración, que buscan corregir los defectos geométricos (deformaciones,
errores en la posición relativa de los pixeles dentro de la imagen) y radiométricos (niveles de gris
erróneos) presentes en la imágenes, debido a defectos en la captación de las mismas.

Correcciones estándar:
Se pueden realizar automáticamente, cuando se tiene información a priori, cuantitativa, sobre los
errores o causas que originan las distorsiones. Ej.: corrección por descalibración de detectores,
variaciones de actitud, altitud y velocidad de la plataforma, efectos por la rotación y curvatura
terrestre, slant-range (SAR), patrón de antena (SAR), etc. Se denominan correcciones de sistema y
ya vienen con los productos estándar.

20
Corrección geométrica con puntos de control terrestre:
Es una corrección más refinada, a posteriori. También permite superponer imágenes entre sí
(registración), o imágenes con mapas, y georreferenciar a las mismas.
Los puntos de control son pares de puntos homólogos bien definidos sobre la imagen y la
referencia, por ej. cruces de carreteras, edificios, accidentes geográficos, etc. Cuanto más exactos
son y cuanto mejor distribuidos están, más confiable es la corrección geométrica.
Con los pares de puntos (x, y) y (u,v) homólogos, se genera un polinomio de ajuste por
cuadrados mínimos, de grado a elección, con el cual se reposicionan los pixeles de la imagen,
ajustando también el valor de gris en base a los niveles de gris de los píxeles originales en el
entorno. Este proceso se denomina remuestreo.

MODELO DIGITAL DE TERRENO


El modelo digital de terreno de una imagen es otra imagen digital, en la cual los niveles de gris
representan la altura de los pixeles (no la reflectancia).
Se genera a partir de cartas topográficas con curvas de nivel, y a partir de pares estereoscópicos.

21
A partir de cartas topográficas:
Se ingresan puntos con valores x,y,z (posición y altura), por ej. desde una mesa digitalizadora.
Estos puntos aislados se utilizan para calcular por interpolación, los restantes dentro de la imagen,
generando de esta manera el MDT.

A partir de pares estereoscópicos:


Los pares estereoscópicos son imágenes de una misma zona captadas desde ángulos de visión
diferentes.
Los puntos homólogos en ambas imágenes se encuentran desplazados entre sí por efecto del
paralaje, que es mayor cuanto mayor es la altura del punto. Correlacionando ambas imágenes, se
van encontrando los puntos homólogos que son detectables, y se ubican en la posición correcta con
la altura relativa calculada. Se interpola para cubrir los restantes puntos de la imagen, generándose
de esta manera el modelo de elevación de terreno (MET), que al ser calibrado con alturas reales,
permite generar el MDT.

Generación de productos derivados de un MDT:


- Ortofotos (mapas)
- Imágenes sintéticas
- Imágenes en perspectiva
- Líneas de nivel a intervalos especificados.

FUSIÓN DE DATOS ÓPTICOS Y SAR


Es útil poder integrar datos ópticos con datos radar, para mejorar la interpretación visual en
ciertos casos. Si bien los datos ópticos permiten generalmente una mejor fotointerpretación, tienen
la desventaja de estar degradados en presencia de nubes. Por otro lado, la información de radar
puede aportar otras informaciones útiles, relacionadas con la humedad de los elementos, la
rugosidad de la superficie terrestre y de los mares, y para longitudes de onda más largas, cierta
penetración por debajo de las superficies.
El primer paso consiste en registrar ambas imágenes entre sí para que puedan superponerse.
Posteriormente se aplica algún método para fusionar las imágenes. El más común utiliza la
transformación HIS, que consiste en lo siguiente:
A partir de la imagen óptica RGB (rojo, verde y azul) , que fue generada con 3 bandas, se
calculan 3 nuevos canales HIS (“Hue”: matiz, “Intensity”: intensidad o brillo, “Saturation”:
saturación de color), con tres funciones:
H = f 1 (R, G, B)

22
I = f 2 (R, G, B)

S = f 3 (R, G, B)
Una vez hecho esto, se reemplaza la componente I por la imagen SAR (I*), y se realiza la
conversión inversa nuevamente a una imagen RGB.
R’= g1 (H, I*, S)
G’= g2 (H, I*, S)
B’= g3 (H, I*, S)
La ventaja de este método es que conserva los colores del display original.

23
ÌNDICE

PROCESAMIENTO DIGITAL DE IMÁGENES ORIENTADO A SENSORES REMOTOS .............................................. 1


PROCESAMIENTO DIGITAL DE IMÁGENES .................................................................................................... 1
Introducción: ............................................................................................................................................ 1
Sensores Remotos. Definición: ................................................................................................................. 1
Clasificación de las técnicas de procesamiento de imágenes: .................................................................. 1
REPRESENTACIÓN DIGITAL DE UNA IMAGEN ............................................................................................... 2
CARACTERÍSTICAS DE LAS IMÁGENES DE SENSORES REMOTOS: ...................................................................... 4
Composición color de imágenes: .............................................................................................................. 8
ALGORITMOS PARA PROCESAMIENTO DE IMÁGENES ..................................................................................... 9
Transformaciones radiométricas .................................................................................................................. 9
Algoritmos de procesamiento puntual: .................................................................................................... 9
Algoritmos de procesamiento espacial o regional: ................................................................................. 10
Manipulación de bandas o canales en distintos procesos .......................................................................... 10
HISTOGRAMA DE UNA IMAGEN DIGITAL........................................................................................................ 11
ENSANCHE DE CONTRASTE ............................................................................................................................ 12
Ensanche de contraste lineal: ................................................................................................................. 13
Ensanche de contraste no lineal: ............................................................................................................ 13
DETECCION DE UMBRAL (THRESHOLDING) .................................................................................................... 14
SEGMENTACIÓN (DENSITY SLICING) ............................................................................................................... 14
PSEUDOCOLOR (COLOR MAPPING) ................................................................................................................ 14
FILTRADOS POR CONVOLUCIÓN DE MÁSCARAS............................................................................................. 15
Filtro Pasa-Bajas (filtro media): .............................................................................................................. 15
Detección de bordes (“pasa-altas”) con el operador Laplaciana: ........................................................... 16
Detección de bordes (“pasa-altas”) utilizando gradientes en distintas direcciones: .............................. 16
Realce de bordes: ................................................................................................................................... 16
Otros filtrados: ....................................................................................................................................... 16
Filtrado en imágenes SAR: ...................................................................................................................... 16
COCIENTES ENTRE BANDAS ............................................................................................................................ 17
ÍNDICES DE VEGETACIÓN................................................................................................................................ 17
CLASIFICACIÓN MULTIESPECTRAL .................................................................................................................. 18
ANÁLISIS DE TEXTURAS .................................................................................................................................. 20
COMPONENTES PRINCIPALES ......................................................................................................................... 20
CORRECCIÓN DE IMÁGENES ........................................................................................................................... 20

24
Correcciones estándar: ........................................................................................................................... 20
Corrección geométrica con puntos de control terrestre: ....................................................................... 21
MODELO DIGITAL DE TERRENO ...................................................................................................................... 21
A partir de cartas topográficas: .............................................................................................................. 22
A partir de pares estereoscópicos: ......................................................................................................... 22
Generación de productos derivados de un MDT: ................................................................................... 22
FUSIÓN DE DATOS ÓPTICOS Y SAR ................................................................................................................. 22
REFERENCIAS .................................................................................................................................................. 26

25
REFERENCIAS
Curso: PROCESAMIENTO DIGITAL DE IMÁGENES
ORIENTADO A SENSORES REMOTOS

My. (Ing.) Alicia Sedeño, Lic. Luciano Delise, Lic. Jorge Kimsa.
Diseño de algunos gráficos: Ing. Julio Fleitas - Lic. Beatriz Cullen.
CENTRO DE SENSORES REMOTOS. FUERZA AÉREA
ARGENTINA.

- Procesamiento digital de imágenes. Curso Nac. de Procesamiento Digital de Imágenes en


Teledetección-1992. A. Sedeño, M. Campi. Univ. de Luján.

- Introduction to Remote Sensing. Curso del Canada Centre for Remote Sensing. Pág WEB del
CCRS.

- Digital image processing. W. Pratt. Wiley-Interscience Publication.

- Visión artificial: tratamiento de imágenes por computador. S. Figueroa, G. Cristóbal, y J.


Couto. Enciclopedia de la Informática Aplicada. Ediciones Siglo Cultural.

- Visión artificial por computador. J. Angulo, R, Iñigo Madrigal. Ed. Paraninfo.

- Remote Sensing and Image Interpretation. T. Lilliesand, R. Kiefer. J. Wiley & Sons, Inc.

- Manual de sensores Remotos. Comisión Nac. de Investigaciones Espaciales.

- La percepción remota: nuestros ojos desde el espacio. J. Lira. Ed. La Ciencia desde México.

- Processamento digital de Imagens. N. Mascarenas, F. Velasco. Escuela Brasilero-argentina de


Informática.

- Landsat: su sistema de datos y el procesamiento digital. H. Driedix. Centro Interamericano e


Fotointerpretación. Colombia.

- Spot: Instrumento de Gestión y decisión. Centre National dÉtudes Spatiales. Francia.

- Introducción al manejo de datos SAR del satélite ERS-1998. M. Fea (Agencia Espacial
Europea). Univ. de Luján.

Parte de las imágenes satelitales que se muestran, fueron cedidas a Fuerza Aérea Argentina por
la CONAE (Comisión Nacional de Actividades Espaciales) en virtud de Convenios Específicos
de Colaboración, y procesadas posteriormente en el Centro de Sensores Remotos.

26

También podría gustarte