Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad 9 PROCESAMIENTO DIGITAL DE IMÁGENES PDF
Unidad 9 PROCESAMIENTO DIGITAL DE IMÁGENES PDF
SENSORES REMOTOS
PROCESAMIENTO DIGITAL DE IMÁGENES
Introducción:
El tratamiento de imágenes por computadora surgió inicialmente como aplicación de
procedimientos matemáticos tendientes a corregir las fotografías y mejorar su interpretación.
Posteriormente, con el desarrollo de la tecnología y la aparición de nuevos sensores de imágenes,
procedimientos computacionales y algoritmos matemáticos o estadísticos, los procesos se fueron
sofisticando y masificando por los menores costos de hardware y software y hoy en día permiten,
no sólo la mejora de imágenes para interpretación visual humana, sino también su interpretación
por una máquina, en campos tales como: teledetección, robots industriales para montaje e
inspección, reconocimiento de objetivos militares, procesamiento de huellas dactilares, análisis de
muestras de sangre y radiografías, predicción del tiempo atmosférico y de las cosechas,
microscopía, reconocimiento de caracteres, etc.
El procesamiento digital de imágenes consiste entonces en la manipulación, mejoramiento y
extracción de información de las imágenes naturales con el uso de computadoras digitales.
En este resumen mencionaremos procesos generales aplicados en imágenes digitales y otros
específicos que se utilizan en imágenes de sensores remotos. Los procesos que se describen son
algunos de los más comunes que se utilizan.
1
4- Restauración: recuperación de la imagen original, en el supuesto de que los datos de entrada
se encuentren afectados a algún tipo de degradación, como por ejemplo ruidos, turbulencia
atmosférica, movimientos indeseados de la plataforma, etc.
5- Codificación: consiste en la compresión de información con el objeto de reducir el costo de
transmisión de las imágenes, un almacenamiento más eficiente y su tratamiento numérico.
6- Análisis: consiste en la obtención de descripciones numéricas o simbólicas de la imagen de
partida, es decir se extrae información significativa de la imagen.
7- Reconstrucción: obtención de información de un objeto en base a sus proyecciones, como
por ej. tomografía o resonancia en medicina. En el campo de la teledetección, podríamos encuadrar
aquí a la obtención de imágenes terrestres en perspectiva a partir de una imagen satelital y su
modelo digital (elevación) de terreno.
8- Transformaciones: como por ejemplo georreferenciación de imágenes satelitales utilizando
datos cartográficos, combinación de imágenes de distintos sensores, combinaciones
multitemporales, etc.
Una imagen de un objeto real (imagen analógica) es continua tanto en la variación espacial como
en la variación de sus niveles de gris o brillo. Ahora bien, una computadora digital maneja datos
numéricos, de manera que para poder manipular una imagen es necesario expresar a la misma como
un arreglo de datos numéricos, por lo cual es necesario discretizar la imagen tanto en el espacio
(geometría) como en la amplitud de grises (radiometría) y representarla como una matriz numérica.
La discretización en el espacio se denomina muestreo, pues se toman muestras de la imagen a
intervalos regulares.
La discretización en amplitud se llama
cuantización, y consiste en la asignación de niveles
de gris discretos al brillo o gris promedio dentro de
cada muestra o pixel.
La asignación de valores numéricos a los
distintos niveles de gris se denomina codificación,
pues se relaciona la información visual de los
distintos tonos de gris con un código numérico
arbitrario.
El proceso muestreo – cuantificación –
codificación se denomina digitalización.
2
Una imagen digital o discreta queda entonces representada por una grilla o matriz de elementos
(pixeles), donde cada elemento está ubicado en una determinada línea y columna de la matriz y
tiene un valor entero correspondiente al brillo medio en el sector que comprende. Esta disposición
de pixeles en una grilla se denomina formato raster, en contraposición con el formato vectorial
usado en computación gráfica. El término pixel proviene del inglés: “picture element”.
La resolución geométrica o espacial de una imagen está dada por el tamaño de la muestra - o
pixel, en este caso-, que está relacionado con el tamaño del mínimo elemento discernible en la
imagen, o bien la mínima distancia en que dos objetos próximos se distinguen como diferentes. Se
hace la salvedad de que a veces pueden verse objetos más pequeños que el tamaño correspondiente
a la resolución espacial debido a que tienen una alta respuesta (alta reflectancia en sensor óptico o
retrodispersión en radar), y al ser tan brillantes saturan el promedio de respuesta en un cierto radio
de acción.
La resolución radiométrica de una imagen está dada por los distintos tonos de gris (la cantidad
de éstos), con que se puede representar a los pixeles.
En la siguiente figura se representan los conceptos de resolución enunciados, para el caso de una
señal unidimensional, por ejemplo una línea de imagen.
Si el tamaño del pixel disminuye y la diversidad de tonos de gris es mayor, es decir, si las
resoluciones espacial y radiométrica mejoran, entonces la imagen digital “se parece” más a la
imagen analógica original y pueden llegar a confundirse visualmente.
Las resoluciones geométrica y radiométrica dependen del dispositivo sensor que capta y
digitaliza una imagen.
Las imágenes se almacenan en distintos formatos de archivos, y en el caso de imágenes
satelitales, existen registros y archivos auxiliares en donde se guarda una cantidad de información
3
asociada con las características de obtención de la imagen, tales como fecha, datos de la plataforma,
ángulo de toma, etc.
4
Otra característica de los sensores pasivos, es que captan las imágenes en distintas bandas del
espectro electromagnético (bandas del visible, infrarrojo cercano, medio y térmico), lo que puede
lograrse colocando filtros para cada banda entre el sensor y la imagen a captar. En este caso se
obtiene una imagen multiespectral, es decir una imagen compuesta por tantas imágenes o planos
como bandas son captadas. Cada plano o canal es una imagen en tonos de gris que representan la
reflectancia del terreno en esa banda espectral. Estos planos pueden considerarse como “versiones
distintas de una misma cosa”. Si a tres cualquiera de estos planos se les asignan los colores azul,
verde y rojo (en un monitor color, por ej.), se obtiene lo que se denomina una imagen en “falso
color”.
Si se dispone de las bandas espectrales azul, verde y roja correspondientes al visible (ej: bandas
1, 2 y 3 de Landsat TM) y se les asignan los colores correspondientes azul, verde y rojo, se obtiene
una imagen en “color natural”.
Dado que cada elemento de la superficie terrestre refleja la luz solar en distintas proporciones en
cada banda del espectro (esto conforma su firma espectral), el hecho de contar con un juego de
datos multiespectrales es muy importante ya que permite que se identifiquen mejor los elementos
presentes en la escena.
Cuantas más bandas espectrales tenga una imagen y más finas éstas sean, mejor será su
resolución espectral. Ej: el sensor LANDSAT Thematic Mapper tiene 30 m de resolución espacial
y 7 bandas espectrales. El sensor SPOT HRV tiene mejor resolución espacial (20 m) pero peor
información espectral (3 bandas).
Con respecto a los sensores activos, tales como el radar de apertura real (SLAR) o sintética
(SAR), proveen imágenes de una sola banda y en el nivel de gris del pixel intervienen diversos
factores, tales como la rugosidad del suelo, humedad del mismo, tipo de elemento, pendiente del
terreno, longitud de onda de la señal incidente, etc. La principal ventaja de este tipo de imágenes es
5
que son “todo tiempo”, resultando una fuente de información muy importante en zonas donde la
cobertura de nubes es muy frecuente e impide a los sensores ópticos obtener buenas imágenes.
Como desventaja se menciona el hecho de que poseen una sola banda y que deben ser sometidas a
un filtrado previo para reducción de ruido “speckle”, que es inherente a este tipo de imágenes.
Asimismo, en zonas montañosas, el efecto topográfico del relieve introduce distorsiones que deben
ser minimizadas con la aplicación de software de corrección específico.
Para los sensores activos, la resolución geométrica en azimut (dirección del vuelo) está
relacionada con las características de la antena, y en alcance (perpendicular a la línea de vuelo)
depende del ancho del pulso transmitido y el ángulo de depresión. Cabe aclarar que como este
ángulo es variable transversalmente a la escena, la resolución también lo es, por lo tanto se realiza
un remuestreo de los pixeles para que representen la misma área, y así resulta que la resolución de
la imagen puede no coincidir con el tamaño del pixel.
6
Distorsión por relieve (Sensores Activos)
Las laderas parecen “recostarse” hacia el sensor porque los picos de montaña, al devolver antes
la señal, son ubicados erróneamente más cerca del sensor en la línea de imagen.
Otra característica de las imágenes satelitales en general, tanto ópticas como radar, es que se
obtienen con una frecuencia regular, dependiendo de la órbita del satélite (período de “revisita”).
Esto define el concepto de multitemporalidad de las imágenes. Al contar con imágenes de una
zona tomadas en distintas fechas, se pueden realizar estudios multitemporales para observar cómo
han variado ciertas características.
Resumiendo, podemos hablar de cuatro tipos de resoluciones para una imagen digital: resolución
geométrica o espacial, resolución radiométrica, resolución multiespectral y resolución
multitemporal.
Según el campo de aplicación, se requieren sensores que enfaticen alguna de estas
características, por ejemplo en imágenes meteorológicas se requiere cubrir grandes áreas con baja
resolución espacial pero alta revisita (multitemporalidad), en uso catastral son necesarios sensores
con buena resolución geométrica, para evaluación de recursos naturales se deberá contar con
imágenes de varias bandas espectrales a fin de poder discriminar elementos en base a su firma
espectral.
Se incluye a continuación una tabla comparativa de características de sensores pasivos (visible,
infrarrojo e infrarrojo térmico) y activos (SAR) y de las imágenes que proporcionan:
7
Composición color de imágenes:
Utilizando un mismo sensor óptico, se pueden combinar tres bandas espectrales distintas, como
ya mencionamos anteriormente. Cada banda de una imagen multiespectral destaca aspectos
distintos de la información presente en una escena (por ej. vegetación, infraestructuras, rocas,
penetración en agua, etc.), de manera que la combinación color más conveniente dependerá de la
aplicación.
Para sensores SAR, como hay una sola banda, pueden combinarse en color imágenes de una
zona tomadas en tres fechas distintas. También pueden mezclarse bandas de distintos sensores. La
fotointerpretación posterior debe tener en cuenta cómo se hizo la asignación de colores.
Bandas espectrales y resolución espacial de algunos sensores ópticos:
8
ALGORITMOS PARA PROCESAMIENTO DE IMÁGENES
Existen dos grandes clases de transformaciones de imágenes:
- Transformaciones radiométricas: los valores de nivel de gris de los pixeles son alterados sin
modificar la geometría de la imagen (contrastes, filtrados, clasificación, texturas, cocientes).
- Transformaciones geométricas: se altera la geometría de la imagen, es decir, la ubicación de
los pixeles dentro de la misma (registración, georreferenciación, remuestreos).
Dentro de las transformaciones radiométricas, pueden distinguirse dos grandes grupos de
algoritmos de procesamiento: puntual y espacial.
Transformaciones radiométricas
9
Estos algoritmos son de fácil implementación en las computadoras convencionales, por ejemplo
en los casos de ensanche de contraste, umbralización, y pseudocolor se utilizan “look-up tables”
(tablas de consulta), en donde entrando con un nivel de gris se obtiene el de salida.
Ejemplo de transformación puntual: manipulación de histogramas (ensanche de contraste,
segmentación, etc.)
Hay procesos que actúan sobre cada banda por separado y otros en donde se procesan todas las
bandas simultáneamente.
-Ensanche de contraste
-Filtrados
-Modificaciones geométricas
-Texturas
10
-Clasificación multiespectral (1 canal de salida)
-Componentes Principales
-Fusión multibanda/ multisensor
-Transformada de canales
-Cocientes (2 canales de entrada, uno de salida)
-Índices de Vegetación
El histograma de una imagen sólo especifica el número total de pixeles correspondientes a cada
nivel de gris y no proporciona información acerca de la distribución espacial de los mismos.
El análisis del histograma de una imagen constituye un paso previo para lograr una eficiente
manipulación del contraste o algún proceso de umbralización.
En la figura se grafican, como ejemplo, las envolventes de diversos histogramas, observándose
que si la imagen es oscura el histograma se encuentra corrido hacia la izquierda, si en cambio los
11
niveles de gris son altos está corrido hacia la derecha. Si la imagen tiene poco contraste
(diferenciación de niveles de gris), el histograma es estrecho, si hay más contraste se encuentra más
expandido, dado que hay más riqueza en los tonos de gris.
ENSANCHE DE CONTRASTE
El ensanche de contraste es una transformación radiométrica puntual (pixel a pixel) muy simple,
cuyo objetivo es lograr una mejor discriminación de imágenes con bajo contraste. Cada nivel de gris
de la imagen se modifica sin considerar los niveles de gris de los píxeles adyacentes. Se aumenta el
rango de niveles de gris a fin de mejorar la interpretabilidad de las imágenes y para aprovechar toda
la capacidad del sistema de display.
La curva de transformación o función de transferencia puede ser o no lineal, y el proceso
consiste en ingresar a esta función con un nivel de gris en la imagen de entrada y obtener un nuevo
valor a ser grabado en la imagen de salida, o visualizado en un monitor.
12
Ensanche de contraste lineal:
La función de transferencia es una recta. Se elige un límite inferior y otro superior de la curva y
allí se traza una recta de transferencia:
De esta forma los valores de gris entre A y B de la imagen se distribuirán linealmente entre 0 y
255 a la salida.
13
DETECCION DE UMBRAL (THRESHOLDING)
Entre los tipos de operaciones de manipulación de contraste se encuentra la denominada
“detección de umbral”. Consiste en segmentar la imagen en dos clases bien diferenciadas: objeto y
fondo, mediante la simple aplicación de un umbral en el rango de los niveles de gris.
El histograma de la figura es característico de de las imágenes que contienen objetos grises sobre
un fondo oscuro. Se fija un determinado umbral T, a los pixeles con valor de gris menor a T se les
asigna color negro, y a los que están por encima color blanco, resultando una imagen binaria (sólo 2
tonos de gris).
14
Se utiliza, por ejemplo, para fotointerpretar imágenes en blanco y negro, o para colorear una
imagen clasificada, en donde los niveles de gris representan una clase de elementos determinada.
Nivel de gris Color pixel
pixel original resultado
0 color1
1 color 2
3 color 3
etc
No debe confundirse al pseudocolor con la composición color azul-verde-rojo de tres canales de
imagen. El pseudocolor es un coloreado artificial de un sólo canal.
Según los valores que se elijan para los coeficientes de la máscara, se obtendrán distintas
transformaciones sobre la imagen, tales como: suavizado (filtrado pasa-bajas), detección de bordes
(filtrado pasa-alta), realce de bordes, gradientes direccionales, etc. Hay máscaras estándar que son
utilizadas con frecuencia.
15
proceso de obtención de la imagen. También pueden usarse para suavizar resultados de ciertos
procesos, por ej. un modelo digital de terreno.
Realce de bordes:
Consiste en resaltar las frecuencias altas de la imagen a fin de hacer más nítidos los bordes de la
misma. Las máscaras más comunes son:
0 -1 0 -1 -1 -1 1 -2 1
-1 5 -1 -1 9 -1 -2 5 -2
0 -1 0 -1 -1 -1 1 -2 1
Otros filtrados:
Existen otras operaciones para filtrar imágenes que no realizan operaciones de convolución, pero
que muchas veces analizan sucesivas ventanas a lo largo de una imagen. Los procesos a veces son
muy específicos, por ej. para cierto tipo de ruidos (stripping en imágenes Landsat o speckle en
imágenes radar) y otros son aplicables a casos más generales.
16
sumatoria de grises de dos regiones de pixeles, a ambos lados de cada supuesto borde. Se realiza el
cociente de ambas regiones. Esto se repite para cada dirección de borde. Luego se elige el mayor
cociente, y se infiere que en esa dirección hay un borde.
Cocientes simples:
C1 = V / R C2 = R / IRC C3 = IRC / R
Cada cociente puede constituir una imagen de salida distinta, o o un canal de una imagen de
salida compuesta por los tres cocientes.
Cocientes normalizados:
Cocientes normales:
Si hay vegetación la discriminan entre sí y con respecto a lo demás. Los cocientes dan distintos
resultados dependiendo de si hay o no vegetación.
ÍNDICES DE VEGETACIÓN
Son también operaciones algebraicas entre canales. Determinan la presencia y condición de la
vegetación. La vegetación tiene valores altos en IRC y bajos en R (VI ). Nubes, agua, nieve:
valores bajos en IRC, altos en R (VI ). Roca, suelo desnudo: valores similares en ambas bandas
(VI cercano a cero). Se escalan los valores de salida para obtener un rango de 0 a 255).
17
Índices de vegetación normalizados (NDVI):
CLASIFICACIÓN MULTIESPECTRAL
Consiste en asociar los elementos (pixeles) de una imagen multiespectral a distintas categorías o
clases.
Si los niveles de gris de la imagen en sus distintos planos o canales representan la reflectancia
de la imagen en cada una de las bandas del espectro electromagnético en que fueron captadas,
entonces el conjunto de información multiespectral nos da una indicación del tipo de elementos que
contiene la imagen, ya que cada material refleja la luz solar en una forma particular en cada una de
las bandas del espectro.
Si se toma como ejemplo una imagen de dos canales, de un área que contiene distinto tipo de
cultivos, se desea agrupar los elementos en clases o clusters representadas también en dos canales.
La clasificación puede ser no supervisada (clustering) o supervisada.
La no supervisada consiste en asociar los elementos en forma automática de acuerdo con su
distancia euclídea en los niveles de gris.
La supervisada requiere información de muestras o “training sites” conocidas sobre el terreno,
luego se calculan ciertas características estadísticas de las mismas (media, dispersión, matriz de
covariancia entre canales), y finalmente se va asignando el resto de los elementos de la imagen a las
correspondientes clases, de acuerdo a algún criterio preestablecido, por ej. la teoría de decisión de
Bayes (método Maximum Likelihood o Máxima Verosimilitud), o bien un método más sencillo
que consiste en la asignación por hipercubos centrados en las medias de las clases.
Método de Maximum Likelihood:
1- Selección de polígonos (áreas de entrenamiento) representativos de cada clase.
2- Cálculos estadísticos en los datos de las muestras.
3- Análisis de las muestras para descartar las no representativas (matrices de confusión).
4- Clasificación del resto de píxeles: se asigna el pixel x a la clase w i en base al criterio:
p(x/wi) * p(wi) > p(x/wj) * p(wj) para todo j
p(x/wi) : función likelihood : probabilidad condicional del pixel x en la clase “i”
p(wi) : probabilidad de la clase “i”
El resultado es una imagen clasificada, en blanco y negro (un canal), en donde cada tono de
gris representa una clase distinta. Se puede colorear con pseudocolor y codificar las clases según
colores.
18
Como canales de la imagen a clasificar se pueden también usar texturas de imágenes radar,
combinadas con imágenes ópticas, lo cual agrega información que puede mejorar el resultado de la
clasificación.
19
ANÁLISIS DE TEXTURAS
Se aplica principalmente a imágenes en blanco y negro, tales como imágenes satelitales SAR.
Permite realizar una clasificación de los elementos presentes en una imagen en base a las
texturas de los mismos. Se denomina textura del terreno al patrón de variación de los tonos de gris
en una dirección dada o promediado en diversas direcciones. Es el “tramado” que tiene un sector de
una imagen. Se obtiene una imagen da salida en donde cada nivel de gris representa una clase de
textura diferente, estas clases pueden colorearse mediante un proceso de pseudocolor.
Por ejemplo, un campo arado tiene una textura diferente que un terreno con césped, la textura de
la superficie de un lago es distinta si está tranquilo o “picado”. Las texturas discernibles dependerán
de la resolución de la imagen y también de otros factores en imágenes SAR, tales como el ángulo de
incidencia y la longitud de onda de la señal.
COMPONENTES PRINCIPALES
Así como el de clasificación multiespectral, este es otro algoritmo típico de procesamiento de
imágenes satelitales. Consiste en una transformación de canales, según la cual, a partir de las bandas
o canales de la imagen original, se generan nuevos “pseudocanales”, de los cuales el primero es el
que contiene mayor información (mayor variancia).
En efecto, en la imagen resultante la variancia de los datos decrece a partir del primer canal, de
manera que en los primeros canales se condensa la mayor parte de la información.
Ejemplos de aplicación: compresión de datos (se consideran las primeras componentes y se
descartan las demás), mejora en la clasificación multiespectral (se clasifica con las primeras
componentes principales), utilización en estudios geológicos.
CORRECCIÓN DE IMÁGENES
Son procesos de restauración, que buscan corregir los defectos geométricos (deformaciones,
errores en la posición relativa de los pixeles dentro de la imagen) y radiométricos (niveles de gris
erróneos) presentes en la imágenes, debido a defectos en la captación de las mismas.
Correcciones estándar:
Se pueden realizar automáticamente, cuando se tiene información a priori, cuantitativa, sobre los
errores o causas que originan las distorsiones. Ej.: corrección por descalibración de detectores,
variaciones de actitud, altitud y velocidad de la plataforma, efectos por la rotación y curvatura
terrestre, slant-range (SAR), patrón de antena (SAR), etc. Se denominan correcciones de sistema y
ya vienen con los productos estándar.
20
Corrección geométrica con puntos de control terrestre:
Es una corrección más refinada, a posteriori. También permite superponer imágenes entre sí
(registración), o imágenes con mapas, y georreferenciar a las mismas.
Los puntos de control son pares de puntos homólogos bien definidos sobre la imagen y la
referencia, por ej. cruces de carreteras, edificios, accidentes geográficos, etc. Cuanto más exactos
son y cuanto mejor distribuidos están, más confiable es la corrección geométrica.
Con los pares de puntos (x, y) y (u,v) homólogos, se genera un polinomio de ajuste por
cuadrados mínimos, de grado a elección, con el cual se reposicionan los pixeles de la imagen,
ajustando también el valor de gris en base a los niveles de gris de los píxeles originales en el
entorno. Este proceso se denomina remuestreo.
21
A partir de cartas topográficas:
Se ingresan puntos con valores x,y,z (posición y altura), por ej. desde una mesa digitalizadora.
Estos puntos aislados se utilizan para calcular por interpolación, los restantes dentro de la imagen,
generando de esta manera el MDT.
22
I = f 2 (R, G, B)
S = f 3 (R, G, B)
Una vez hecho esto, se reemplaza la componente I por la imagen SAR (I*), y se realiza la
conversión inversa nuevamente a una imagen RGB.
R’= g1 (H, I*, S)
G’= g2 (H, I*, S)
B’= g3 (H, I*, S)
La ventaja de este método es que conserva los colores del display original.
23
ÌNDICE
24
Correcciones estándar: ........................................................................................................................... 20
Corrección geométrica con puntos de control terrestre: ....................................................................... 21
MODELO DIGITAL DE TERRENO ...................................................................................................................... 21
A partir de cartas topográficas: .............................................................................................................. 22
A partir de pares estereoscópicos: ......................................................................................................... 22
Generación de productos derivados de un MDT: ................................................................................... 22
FUSIÓN DE DATOS ÓPTICOS Y SAR ................................................................................................................. 22
REFERENCIAS .................................................................................................................................................. 26
25
REFERENCIAS
Curso: PROCESAMIENTO DIGITAL DE IMÁGENES
ORIENTADO A SENSORES REMOTOS
My. (Ing.) Alicia Sedeño, Lic. Luciano Delise, Lic. Jorge Kimsa.
Diseño de algunos gráficos: Ing. Julio Fleitas - Lic. Beatriz Cullen.
CENTRO DE SENSORES REMOTOS. FUERZA AÉREA
ARGENTINA.
- Introduction to Remote Sensing. Curso del Canada Centre for Remote Sensing. Pág WEB del
CCRS.
- Remote Sensing and Image Interpretation. T. Lilliesand, R. Kiefer. J. Wiley & Sons, Inc.
- La percepción remota: nuestros ojos desde el espacio. J. Lira. Ed. La Ciencia desde México.
- Introducción al manejo de datos SAR del satélite ERS-1998. M. Fea (Agencia Espacial
Europea). Univ. de Luján.
Parte de las imágenes satelitales que se muestran, fueron cedidas a Fuerza Aérea Argentina por
la CONAE (Comisión Nacional de Actividades Espaciales) en virtud de Convenios Específicos
de Colaboración, y procesadas posteriormente en el Centro de Sensores Remotos.
26