Está en la página 1de 42

DRONES Y SUS APLICACIONES A

LAS INFRAESTRUCTURAS
TÉCNICAS DE TRATAMIENTO DIGITAL
DE LA IMAGEN
Drones y sus aplicaciones a las infraestructuras
Técnicas de tratamiento digital de imagen

ÍNDICE

ÍNDICE ...................................................................................................................................................................................2

INDICE DE FIGURAS ...........................................................................................................................................................4

INDICE DE TABLAS .............................................................................................................................................................5

1. OBJETIVOS DEL TEMA .............................................................................................................................................6

2. LA IMAGEN DIGITAL ..................................................................................................................................................7

3. CORRECCIONES DE LA IMAGEN ......................................................................................................................... 11

3.1 Correcciones radiométricas ....................................................................................................................................... 12


3.2 Corrección de la distorsión geométrica .................................................................................................................... 13

4. REALCE DE LA IMAGEN ........................................................................................................................................ 19

4.1 Técnicas de realce radiométrico ............................................................................................................................... 19


4.2 Técnicas de realce geométrico ................................................................................................................................. 24

5. EXTRACCIÓN DE INFORMACIÓN ......................................................................................................................... 30

5.1 Análisis de componentes principales ........................................................................................................................ 30


5.2 Operaciones aritméticas ............................................................................................................................................ 32
5.3 Técnicas de clasificación ........................................................................................................................................... 35

6. EJERCICIOS ............................................................................................................................................................. 40

6.1 Ejercicio 1 ................................................................................................................................................................... 40


6.2 Ejercicio 2 ................................................................................................................................................................... 40
6.3 Ejercicio 3 ................................................................................................................................................................... 41

7. REFERENCIAS ......................................................................................................................................................... 42

3
Drones y sus aplicaciones a las infraestructuras

INDICE DE FIGURAS

Figura 1. Concepto de imagen digital. Valores codificados a 15 bits 6


Figura 2. Estructura BIL para una imagen de 3 bandas 7
Figura 3. Estructura BIP para una imagen de 3 bandas 7
Figura 4. Estructura BSQ para una imagen de n bandas 8
Figura 5. Histograma de frecuencias de una imagen 9
Figura 6. Características de transferencia de un detector 10
Figura 7. Deformaciones en la imagen debido a la captura 12
Figura 8. Concepto de puntos de control en la correlación de una imagen 13
Figura 9. Registro de una imagen digital 14
Figura 10. Registro según el vecino más próximo 14
Figura11. Registro mediante interpolación bilineal 15
Figura 12. Registro mediante convolución cúbica 15
Figura 13. Concepto de expansión lineal del histograma 18
Figura 14. Concepto de la función piecewise linear stretch 19
Figura 15. Ejemplo de ecualización de un histograma 20
Figura 16. Density slicing 22
Figura 17. Filtro de 3 x 3 23
Figura 18. Descomposición de la curva de distribución de valores digitales 24
Figura 19. Ejemplos de filtros direccionales 26
Figura 20. Concepto de análisis de componentes principales 28
Figura 21. Componentes principales de dos variables con alta correlación 28
Figura 22. Curvas de reflectancia espectral para vegetación, suelo y agua 30
Figura 23. Concepto de clasificación automática 31
Figura 24. Clasificador paralelepípedo en 2 dimensiones 33
Figura 25. Clasificador de mínima distancia en 2 dimensiones 34
Figura 26. Clasificador de máxima probabilidad en 2 dimensiones 35
Técnicas de tratamiento digital de imagen

INDICE DE TABLAS
Tabla 1. Creación del LUT en la ecualización del histograma 21

5
Drones y sus aplicaciones a las infraestructuras

1. OBJETIVOS DEL TEMA


El objetivo de este tema es introducir al alumno en los conceptos del tratamiento digital de
imagen, es decir, en el conjunto de transformaciones numéricas que podemos realizar sobre
los datos captados por los sensores a bordo de satélites, aviones o drones, en información útil
que ayude en la toma de decisiones y, por tanto, en la resolución de problemas.

En este tema vamos a conocer el significado matemático de lo que es una imagen o fotografía
digital y de las bandas en las que los sensores captan la radiación electromagnética reflejada o
irradiada por los objetos de la superficie terrestre.

Aunque existen cientos de algoritmos para procesar matemáticamente los datos digitales, el
proceso digital de imágenes puede dividirse en tres partes:

1. Restauración de la imagen:
a) Correcciones radiométricas.
b) Correcciones de las distorsiones geométricas.
2. Realce de la imagen:
a) Realces radiométricos.
b) Realces de los elementos geométricos.
3. Extracción digital de la información:
a) Análisis de componentes principales.
b) Operaciones aritméticas.
c) Clasificaciones multiespectrales.

La restauración de la imagen engloba los procedimientos para eliminar los errores y


distorsiones que inevitablemente se producen en la captura de las imágenes. El realce de la
imagen engloba las técnicas destinadas a mejorar la calidad visual de las imágenes ya que el
ojo humano no es capaz de ver todos los valores que captan los sensores.

Por último, el grupo de Extracción digital de la información engloba varias de las técnicas más
populares para convertir los datos /imágenes en información (mapas temáticos). Aunque
existen múltiples algoritmos, las técnicas más utilizadas son el análisis de componentes
principales, las operaciones aritméticas entre bandas espectrales (por ejemplo, el cálculo de
índices de vegetación) y las clasificaciones supervisadas (basadas en el conocimiento previo
del terreno) o no supervisadas (basadas en la distribución estadística de los valores de la
imagen).
Técnicas de tratamiento digital de imagen

2. LA IMAGEN DIGITAL
Una imagen es la representación de un objeto real mediante una matriz numérica
bidimensional. Las propiedades medidas por el sensor son convertidas desde un rango
continuo de valores, a un rango expresado por un número finito de enteros.

Normalmente, la radiación captada por el sensor se codifica en un byte o en 2 bytes (2 8,


valores entre 0 a 255 o 2 16, valores desde 0 a 65.536). Cada elemento de la matriz recibe el
nombre de píxel (picture element). Su posición en una imagen viene determinado por un
sistema de coordenadas en (x,y) con el origen en la esquina superior izquierda (figura 1).

Figura 1. Concepto de imagen digital. Valores codificados a 15 bits.

Las imágenes multibanda se pueden organizar de 3 formas distintas: Banda intercalada por
línea (BIL, Band Interleave by Line), banda intercalada por píxel (BIP, Band Interleave by Pixel)
y banda secuencial (BSQ, Band Sequential).

BIL, BIP y BSQ no son formatos de imagen, sino esquemas para almacenar los valores de
píxel de una imagen en un archivo. Estos archivos permiten la visualización de imágenes
simples y multibanda, y manejan datos en blanco y negro, en escala de grises, en pseudocolor,
en color verdadero o en multiespectral.

7
Drones y sus aplicaciones a las infraestructuras

Los archivos BIL, BIP y BSQ son archivos binarios y deben tener un archivo de encabezado
ASCII asociado para que el software de tratamiento digital de imagen los interprete. Este
archivo de encabezado contiene datos de la imagen como el número de filas y columnas o la
georreferenciación.

Los datos BIL almacenan información banda por banda para cada línea o fila de la imagen. Por
ejemplo, dada una imagen de tres bandas, las tres bandas de datos se escriben para la fila 1,
las tres bandas de datos se escriben para la fila 2, y así sucesivamente, hasta que se alcance
la cantidad total de filas en la imagen. La siguiente figura tomada de ESRI muestra los datos
BIL para de tres bandas:

Figura 2. Estructura BIL para una imagen de 3 bandas (Fuente ESRI).

Los datos BIP son similares a los datos BIL, salvo que los datos para cada píxel se escriben
banda por banda. Por ejemplo, con la misma imagen de tres bandas, los datos para las bandas
1, 2 y 3 se escriben para el primer píxel en la columna 1, los datos para las bandas 1, 2 y 3 se
escriben para el primer píxel en la columna 2, y así sucesivamente.
Técnicas de tratamiento digital de imagen

Figura 3. Estructura BIP para una imagen de 3 bandas (Fuente ESRI).

BSQ almacena una banda a la vez. Es decir, todos los píxeles para la banda 1 se almacenan
primero, después los datos de todos los píxeles para la banda 2, y así sucesivamente.

Figura 4. Estructura BSQ para una imagen de n bandas (Fuente ESRI).

El tamaño del archivo de una imagen viene dado por la relación:

Tamaño = nº de filas * nº de columnas * resolución radiométrica * nº de bandas

9
Drones y sus aplicaciones a las infraestructuras

Así, una imagen con 7 bandas espectrales con un tamaño de 7.020 columnas y 5.760 filas y
una codificada en 8 bits, tendría un tamaño de unos 276 Mbytes1.

El proceso o tratamiento digital de imagen (TDI) es el conjunto de transformaciones numéricas


que se realizan sobre la matriz original para obtener representaciones más adecuadas de la
imagen, según las aplicaciones. Cada píxel tiene asignado un valor digital que representa la
energía asociada al rango de longitud de onda en el que el detector es sensible.

Las bases matemáticas del proceso de imágenes se pueden encontrar en ROSENFELD y KAK
(1976)i; ANDREWS y HUNT (1977)ii; PRATT (1978)iii; GASKILL (1978)iv.

1
Calcula el tamaño del archivo teniendo en cuenta que 8 bits es 1 byte y 1024 bytes un Kilobyte.
Técnicas de tratamiento digital de imagen

3. CORRECCIONES DE LA IMAGEN
Cuando un sensor a bordo de una aeronave registra una imagen, ésta contiene errores en su
geometría y en los valores radiométricos asignados a los píxeles.

Los procesos de corrección o restauración tienen como finalidad eliminar los errores
radiométricos, ruido y distorsiones geométricas introducidas en la recogida y transmisión de
datos. Para calibrar la calidad de nuestra imagen, una herramienta fundamental es su
histograma.

El histograma es una representación gráfica de la distribución de los distintos valores


existentes en la imagen. En el eje horizontal (abscisas), se representa el rango de valores de la
imagen y en el eje vertical (ordenadas), se representa la frecuencia (en valores absolutos o en
porcentaje) con la que aparece cada píxel (Figura 5).

El histograma es un indicador de las características de la imagen. Si está desplazado hacia la


izquierda, la imagen será oscura y si lo está hacia la derecha, la imagen será clara. Si es
estrecho nos indica que la imagen está poco contrastada y, si ocupa todo el rango de valores,
nos habla de una imagen con valores muy contrastados. El histograma es un indicador de la
tendencia, varianza y heterogeneidad de la imagen.

Figura 5. Histograma de frecuencias de una imagen. En verde, el histograma muestra una distribución bimodal, con
valores contrastados (ocupa todo el rango). En rojo, histograma acumulado de la imagen.

11
Drones y sus aplicaciones a las infraestructuras

Los procesos de restauración de una imagen se realizar para eliminar las distorsiones que
afectan al color de la imagen (correcciones radiométricas), o a su geometría (correcciones
geométricas).

3.1 Correcciones radiométricas

El origen de las distorsiones radiométricas está en:

▪ El efecto de la atmósfera sobre la radiación electromagnética.


▪ Los errores en los sensores instalados.
Como hemos visto, la atmósfera dispersa selectivamente la radiación electromagnética según
su longitud de onda. Las bandas del visible suelen estar afectadas mucho más que las bandas
del infrarrojo. Esto induce a una pérdida en la calibración de los valores radiométricos
asociados a un determinado píxel.

Los errores radiométricos pueden ser también debidos al diseño y al modo operativo del
sensor. El más generalizado de estos errores es debido a los detectores.

Un detector ideal debería tener unas características de transferencia lineales, de tal manera,
que existiera una proporcionalidad entre la señal codificada y el nivel de radiación detectado
(figura 6).

Figura 6. Características de transferencia de un detector.


Técnicas de tratamiento digital de imagen

En realidad, los detectores presentan un grado de no-linealidad y, a menudo, se produce una


pequeña señal, aunque no se detecte radiación. Este valor recibe el nombre de compensación
(offset) y se atribuye a un ruido electrónico residual del sistema a temperaturas por encima del
cero absoluto. La pendiente de la recta recibe el nombre de ganancia (gain).

La corrección radiométrica se realiza mediante algoritmos matemáticos que relacionan los


valores digitales de los píxeles en cada banda, con su verdadera reflectancia en el terreno
(RICHARDS, 1986)v.

Desarrollos de estos algoritmos de corrección radiométrica se pueden encontrar en TURNER y


SPENCER (1972)vi; SLATER (1980)vii; FOSTER (1984)viii.

Cuando no se cuenta con la información necesaria (visibilidad, humedad relativa...) para aplicar
dichos algoritmos y se supone que la imagen está deteriorada por el efecto de la atmósfera, es
posible realizar una corrección aproximada. Esta técnica se basa en que las bandas de longitud
de onda larga están libres de perturbaciones atmosféricas.

Si analizados el histograma de las distintas bandas del sensor en una zona de aguas claras o
de umbría, una banda situada en el infrarrojo (0,8 a 1,1 m) tendrá valores cero para ese área.
Si al analizar el histograma observamos que los valores no son cero, el valor observado es
debido a la radiación dispersada por la atmósfera.

3.2 Corrección de la distorsión geométrica

El origen de las distorsiones geométricas es debido a varios factores:

▪ el relieve,
▪ la distorsión panorámica,
▪ la oblicuidad en el barrido,
▪ la variación en la altitud, actitud y velocidad de la aeronave,
▪ e incluso, la rotación terrestre…

La distorsión panorámica es común en un escáner donde el IFOV angular permanece


constante. El resultado es que el tamaño del píxel sobre el terreno es mayor en los extremos
de la imagen que en el nadir.

13
Drones y sus aplicaciones a las infraestructuras

Las variaciones en la velocidad, altitud y actitud (pitch o cabeceo, roll o alabeo y yaw o
guiñada) de la plataforma durante el barrido producen distorsiones geométricas muy variadas
(figura 7).

Figura 7. Deformaciones en la imagen debido a la captura. De izquierda a derecha, cabeceo, alabeo y guiñada.

Existen dos técnicas para corregir los distintos tipos de distorsión geométrica. La primera,
consiste en modelizar la naturaleza y magnitud de la fuente de distorsión y utilizar estos
modelos para establecer fórmulas de corrección. Es muy útil en aquellos tipos de distorsión que
están bien definidos. La segunda técnica, consiste en establecer relaciones matemáticas entre
la posición de un píxel en una imagen y las coordenadas correspondientes a ese punto en el
terreno.

Vamos hacer hincapié en la segunda técnica, ya que el software de proceso de imágenes


contiene un módulo que permite la realización de este tipo de correcciones geométricas2. Los
pasos a realizar para la corrección de una imagen, usando polinomios de transformación, son
tres:

1. Creación de los polinomios de transformación.


2. Registro.
3. Interpolación.

2
En este capítulo vamos a ver la corrección geométrica de la imagen y, en el capítulo de las aplicaciones
topográficas, profundizaremos en el concepto de ortocorrección y de proceso fotogramétrico digital.
Técnicas de tratamiento digital de imagen

Para la creación de los polinomios de transformación, partimos dos sistemas de coordenadas


cartesianas, uno define la localización de un punto del mapa (x,y) y el otro, define la posición
del píxel en la imagen (u,v). Estos dos sistemas se pueden relacionar mediante funciones:

u = f(x,y)

v = g(x,y)

Generalmente, estas funciones son polinomios de primer, segundo o tercer grado. Rara vez los
polinomios son de orden mayor de tres, ya que los errores que se introducen son mayores que
los que se pretende corregir. Un ejemplo de polinomio de segundo grado sería el siguiente:

u = a0 + a1x + a2y + a3xy + a4x2 + a5y2

v = b0 + b1x + b2y + b3xy + b4x2 + b5y2

Los valores de los coeficientes ai y bi son estimados, definiendo la posición de un punto en el


mapa y en la imagen. Estos puntos reciben el nombre de puntos de control (ground control
points, GCPs). Se trata de rasgos u objetos, perfectamente definidos espacialmente (cruce de
caminos, carreteras, ríos, torrentes...), que pueden ser identificados a la vez (figura 8) en
ambos sistemas de coordenadas (mapa e imagen).

Figura 8. Concepto de puntos de control en la correlación de una imagen.

15
Drones y sus aplicaciones a las infraestructuras

Una vez se han determinado los polinomios de transformación, el siguiente paso es el registro
de la imagen (figura 9) sobre el mapa. El proceso consiste en encontrar la localización de los
puntos de la imagen en la malla de píxeles definida anteriormente sobre el mapa. La densidad
de la malla se elige en función del tamaño de píxel que se desee en la imagen corregida, y no
tiene porqué ser el mismo de la imagen sin corregir (RICHARDS, 1986).

Figura 9. Registro de una imagen digital.

Normalmente, los centros de píxel que van a ser corregidos no coinciden exactamente con los
centros de píxel en la malla definida sobre el mapa, con lo que surge la duda de qué valor
radiométrico debemos asignar a la nueva posición del píxel. A este proceso se le llama
interpolación y puede realizarse mediante tres técnicas:

▪ Registro según el vecino más próximo (Nearest neighbour resampling). Se escoge el


valor del píxel cuyo centro esté más cercano al punto localizado en la imagen (figura
10).
Técnicas de tratamiento digital de imagen

Figura 10. Registro según el vecino más próximo.

▪ Interpolación bilineal (Bilinear interpolation). Se utilizan tres interpolaciones lineales


sobre los cuatro píxeles que rodean al punto de la imagen corregida (figura 11).

Figura11. Registro mediante interpolación bilineal.

▪ Convolución cúbica (Cubic Convolution). Los polinomios cúbicos se ajustan a lo largo de


las cuatro líneas de cuatro píxeles alrededor del punto en la imagen, formando cuatro
interpolaciones. Se utiliza un quinto polinomio para sintetizar un valor radiométrico en
dicho punto (figura 12).

17
Drones y sus aplicaciones a las infraestructuras

Figura 12. Registro mediante convolución cúbica.

La calidad de los puntos de control elegidos para la corrección geométrica viene dada por:

▪ la localización precisa en el mapa y en la imagen


▪ su distribución a lo largo de toda la imagen.

En ocasiones, es necesario procesar juntas dos o más imágenes de la misma región


geográfica, pero adquiridas en distintas fechas. En este caso, las escenas registradas deben
permitir una comparación píxel a píxel.

Dos imágenes pueden ser registradas, como hemos visto anteriormente, referenciando cada
una de ellas a una base geográfica. Otra forma de hacerlo, es georreferenciar solamente una
de ellas y realizar un registro imagen a imagen, tomando la imagen georreferenciada como
imagen maestra (master) y la otra como subordinada (slave).

La técnica que se utiliza es similar al caso anterior, las coordenadas (x,y) del mapa son
sustituidas por las coordenadas (m,n) correspondientes a la imagen maestra (imagen
registrada) y (u,v) siguen siendo las coordenadas de la imagen que va a ser registrada (imagen
subordinada).
Técnicas de tratamiento digital de imagen

4.REALCE DE LA IMAGEN
El realce consiste en un conjunto de técnicas destinadas a mejorar la interpretación visual de la
imagen. El realce puede ser radiométrico o geométrico. El realce radiométrico modifica el valor
del píxel individualmente, aumentando el contraste de la imagen. El realce geométrico, implica
una mejora espacial, ya que se cambia el valor digital del píxel utilizando los valores de los
píxeles que lo rodean.

Las composiciones en color constituyen un método para realzar las imágenes digitales, ya que
el ojo humano, que tan solo es capaz de distinguir unos 16 niveles de intensidad, es muy
sensible al color (DRURY, 1987)ix.

Una imagen queda definida por su histograma. Este representa la probabilidad estadística de
encontrar un determinado valor digital en la imagen.

Una imagen tiene un sólo histograma, aunque existe la posibilidad de que un mismo
histograma represente varias imágenes diferentes. El histograma indica el contraste y la
homogeneidad de la escena.

Asociado a esta idea, está el concepto de histograma acumulativo que representa el valor
digital umbral en la imagen en relación al número de píxeles. Es una función continua de la
variación del valor digital dentro de la imagen.

4.1 Técnicas de realce radiométrico

Normalmente, los datos contenidos en una imagen no ocupan todo el rango de valores
disponibles (entre 0 y 255, si está codificada en 8 bits), sino que suelen acumularse en el
centro del histograma (entre 40 y 120 aproximadamente). Estas imágenes presentan un
contraste bajo, ya que todas las intensidades están en un intervalo pequeño, pudiendo ocupar
un rango mayor.

Las técnicas de realce radiométrico que se utilizan, se caracterizan porque los nuevos valores
del píxel son generados a partir del valor original, independientemente de los píxeles que lo
rodean. Todas estas técnicas se realizan por tablas de color (Look Up Tables o LUT) que
relacionan el valor original con el nuevo valor del píxel. Tienen la particularidad de que son
fácilmente implementadas, en el software o hardware de los sistemas de proceso de imagen, y
el cambio de contraste se realiza en tiempo real.

19
Drones y sus aplicaciones a las infraestructuras

El valor digital mínimo del histograma se hace igual a 0 y el máximo igual a 255. Cada barra del
histograma se desplaza a una posición en la que se encuentra espaciada por igual. El
procesador realiza esta tarea mediante LUT (Lookup Table3). Convierte un valor de entrada (x)
en un valor de salida (y). Para una expansión lineal, la función sería la ecuación de una recta.

El ordenador reemplaza el valor de entrada por el de salida y no necesita recalcular los valores
de toda la imagen.

Las técnicas más utilizadas son:

▪ Modificación del contraste.


▪ Ecualización del histograma.
▪ Density slicing.

La modificación del contraste consiste en un remuestreo de los valores digitales de la imagen,


para dar una distribución más favorable. El aumento de contraste se puede realizar por una
expansión lineal del histograma (linear contrast stretch) (figura 13).

Figura 13. Concepto de expansión lineal del histograma.

3
La utilidad de una lookup table es obtener los resultados de una función sin necesidad de hacer el
cálculo, utilizando como valor indexado el valor de entrada y como valor de salida, el que toma de la
posición.
Técnicas de tratamiento digital de imagen

Sobre una imagen, con un contraste bajo, se realiza una expansión lineal del histograma para
que ocupe todo el rango de valores disponibles, con lo que se consigue una mejora sustancial
en la calidad visual de la imagen.

Todos los sistemas de proceso de imagen incorporan un realce automático de contraste


basado en la expansión lineal del histograma.

En ocasiones, en la imagen existen zonas muy oscuras o muy iluminadas y es necesario


recurrir a métodos más complejos, como los realces logarítmicos o estadísticos.

Mención aparte merece la modificación de contraste mediante piecewise linear stretch. Este
método es muy práctico, ya que el usuario es quien determina los puntos de ruptura del
histograma (figura 14).

Figura 14. Concepto de la función piecewise linear stretch.

La ecualización del histograma o normalización tiende a producir un histograma uniforme o


cuasi uniforme. El principio de este método es que un histograma, en el que todas las barras
tuvieran la misma altura, representaría una imagen con alta calidad en todos sus valores
digitales.

La figura 15 corresponde a una hipotética imagen de 24 píxeles, cada uno de los cuales puede
tener un valor digital entre 0 y 15. La transformación de este histograma viene dada por un
factor de escala (L-1) N-1 que actúa sobre el histograma acumulativo de la imagen. Este factor
de escala en nuestro caso es 15/24 = 0.625.

21
Drones y sus aplicaciones a las infraestructuras

La posición del nuevo valor digital viene dada por la posición en abscisas del histograma
acumulativo original (x) y tomando su nueva localización (y) del valor de ordenadas. La
multiplicación por el factor de escala nos da un nuevo valor. Si este valor no está disponible
bien, porque no se trata de un número entero o porque el sistema no tiene ese tipo de salida
implementado, se produce un reescalado, moviendo la barra del histograma al valor más
próximo disponible. La generación de la LUT a partir del histograma original queda recogida en
la tabla 1.

Figura 15. Ejemplo de ecualización de un histograma. (a) Histograma original. (b) Histograma acumulativo utilizado
para crear el LUT. (c) Histograma resultante (modificado de RICHARDS, 1986).

Este método no puede crear nuevos valores digitales, ni tampoco distribuir píxeles de un único
valor sobre varios valores diferentes. Todo lo que se hace es un muestreo de los valores de la
imagen para dar un histograma lo más uniforme posible (RICHARDS, 1986).

En la práctica, el sistema crea una tabla en la que se introducen los valores digitales originales
de los píxeles y se extraen los nuevos valores.
Técnicas de tratamiento digital de imagen

Tabla 1. Creación del LUT en la ecualización del histograma.

Valor digital más


Valores originales Valores sin escala Valores modificados
próximo

0 1 0,63 1

1 2 1,25 1

2 5 3,13 3

3 9 5,63 6

4 14 8,75 9

5 18 11,25 11

6 19 11,88 12

7 19 11,88 12

8 19 11,88 12

9 19 11,88 12

10 19 11,88 12

11 19 11,88 12

12 19 11,88 12

13 20 12,50 13

14 23 14,40 14

15 24 15,00 15

La técnica de Density slicing consiste en la conversión de un rango de niveles contiguos de


gris en un valor puntual del sistema RGB (MATHER, 1987)x. El rango entre 0 y 255 se convierte
en varias rebanadas o slices.

En la figura 16, se puede ver la función correspondiente al Density slicing de una imagen en
blanco y negro. Cada una de las rodajas es definida por el usuario.

23
Drones y sus aplicaciones a las infraestructuras

Figura 16. Density slicing.

Este mismo proceso puede realizarse en imágenes en color permitiendo distinguir


inmediatamente detalles muy finos.

Otra forma de realce de la imagen es generar composiciones en color RGB o IHS. Para una
mayor información sobre técnicas de realce radiométrico de imágenes digitales consultar
RICHARDS (1986) y MATHER (1987).

4.2 Técnicas de realce geométrico

Estas técnicas se caracterizan porque el nuevo valor del píxel viene determinado por el
conjunto de píxeles que lo rodean. En teledetección, son utilizados para suavizar los ruidos de
la imagen y para detectar bordes y líneas. Se trata de métodos para resaltar o suprimir, de
forma selectiva, información de la imagen destacando algunos elementos u ocultando valores
anómalos.

El proceso consiste en la aplicación a cada uno de los píxeles de la imagen de una matriz de
tamaño n x n (generalmente de 3 x 3 aunque puede ser mayor) compuesta por números
enteros que genera un nuevo valor mediante una función del valor original y los de los píxeles
circundantes. El resultado final se divide entre un escalar, generalmente la suma de los
coeficientes de ponderación.
Técnicas de tratamiento digital de imagen

Figura 17. Filtro de 3 x 3.

El resultado de esta operación se utiliza para definir el píxel sobre el que se encuentra centrada
la caja. De esta manera, al acabar el proceso, los valores radiométricos de todos los píxeles de
la imagen han sido modificados.

A la hora de aplicar un filtro hay que tener en cuenta que los bordes de la imagen no se van a
procesar, ya que la ventana de filtrado quedaría fuera de la imagen. De este modo se pierden
n-2 filas y n-2 columnas alrededor de la imagen.

Las variaciones espaciales a lo largo de una imagen pueden ser expresadas como una función
entre el valor digital de cada píxel y la distancia al origen de la línea (figura 18).

Un filtro digital es utilizado para extraer de la imagen un componente de una escala particular.
El modelo de variación espacial puede ser contemplado como una forma ondulatoria con
longitudes de ondas largas (bajas frecuencias), por tanto, un filtro que separe estos
componentes se denomina filtro de paso bajo. Por el contrario, existirán detalles con una
variación rápida y por lo tanto tendrán una longitud de onda corta (alta frecuencia). Al filtro que
separa estos componentes, se le denomina filtro de paso alto (MATHER, 1987).

Los filtros más utilizados son los de paso bajo (suavizan la imagen), de paso alto (aumentan el
contraste), los filtros direccionales (detectan en la imagen estructuras que siguen una
determinada dirección) y los de detección de bordes (permiten identificar y aislar objetos con
propiedades homogéneas dentro de la imagen).

25
Drones y sus aplicaciones a las infraestructuras

Figura 18. Descomposición de la curva de distribución de valores digitales según la longitud de onda.

El filtro de paso bajo (low pass filtering) sirve para eliminar los ruidos introducidos en la
creación de la imagen digital y que producen un fenómeno denominado de salt and pepper en
zonas homogéneas. Desgraciadamente, esta mejora en la imagen se realiza a expensas de
una pérdida de la información de alta frecuencia, ya que se produce un suavizado general de la
imagen. Dentro de este tipo de filtros tenemos:

▪ Filtro de media, asigna al pixel central la media de todos los píxeles incluidos en la
ventana. La matriz de filtrado estaría compuesta por unos y el divisor sería el número
total de elementos en la matriz.
Técnicas de tratamiento digital de imagen

▪ Filtro de media ponderada, los elementos de la matriz de filtrado no son todos 1 sino
que se da más peso a uno de ellos (generalmente el central) para obtener un resultado
más parecido a la imagen original y evitar que aparezca borrosa.

▪ Filtro de mediana permite el suavizado de la imagen, pero manteniendo los elementos


lineales. En este tipo de filtro, el valor del píxel central que cubre la caja viene dado por
la mediana de los valores que lo rodean (por ejemplo, dado un rango de valores: 3, 1, 2,
8, 5, 3, 9, 4, 27 su media es 6'88, pero su mediana es 5). La ventaja de este tipo de
filtros es que la mediana de un conjunto de números es siempre igual a uno de los
valores presentes y, además, es menos sensible a errores o a valores extremos en los
datos.

▪ Filtros adaptativos. Son considerablemente más complejos ya que los coeficientes de


ponderación se recalculan para cada uno de los píxeles en función del histograma de
los ND que aparecen en la ventana.

27
Drones y sus aplicaciones a las infraestructuras

▪ Filtros gaussianos. Simulan una distribución gaussiana bivariante. El valor máximo


aparece en el píxel central y disminuye hacia los extremos tanto más rápido cuanto
menor sea el parámetro de desviación típica s. El resultado será un conjunto de valores
entre 0 y 1. Para transformar la matriz a una matriz de números enteros se divide toda
la matriz por el menor de los valores obtenidos.

El filtro de paso alto (high pass filtering) se utiliza para detectar líneas y bordes en la imagen.
Este tipo de filtro introduce un factor multiplicativo a cada píxel en relación a los valores de los
píxeles adyacentes, con lo que se consigue que destaquen.

Los filtros direccionales se utilizan para detectar estructuras que siguen una determinada
dirección en el espacio resaltando el contraste entre los píxeles situados a ambos lados de la
estructura.

Figura 19. Ejemplos de filtros direccionales.

Existe una gran variedad de tipos de filtro, con complicados desarrollos matemáticos. CHAVEZ
y BAUER (1982)xi estudian el tamaño ideal de la ventana del filtro para el realce de bordes.
MATHER (1987) realiza una presentación detallada de las técnicas de filtrado y analiza
estudios anteriores que han utilizado o desarrollado estas técnicas.
Técnicas de tratamiento digital de imagen

Hay que tener presente, que los realces se hacen para mejorar la interpretación visual de los
datos, pero no deben hacerse si la extracción de información se realiza mediante algoritmos
matemáticos, ya que se distorsionan los valores originales de los píxeles y, por lo tanto, los
resultados de estos algoritmos pueden ser incongruentes.

29
Drones y sus aplicaciones a las infraestructuras

5. EXTRACCIÓN DE INFORMACIÓN
El carácter multitemporal y multiespectral de los datos de teledetección permite
transformaciones que producen nuevos componentes o bandas de la imagen. Estos
componentes son una representación alternativa y distinta de los datos recogidos en la imagen.
La relación entre los nuevos valores y los antiguos se realiza por medio de operaciones
lineales. Entre las técnicas más importantes y generalizadas en el tratamiento digital para
extraer la información contenida en una imagen, se encuentra:

1. El análisis de componentes principales.


2. Operaciones aritméticas entre bandas.
3. Técnicas de clasificación multiespectral.

5.1 Análisis de componentes principales

El análisis de componentes principales es una forma de generar un conjunto de imágenes con


una correlación cero entre las bandas y una máxima varianza.

Debido a estas propiedades, la información contenida en m bandas correlacionadas entre sí,


queda expresada en p componentes principales siendo p<m.

Esta propiedad es muy útil para crear 3 componentes sintéticos a partir de las 6 o más bandas
espectrales. De esta forma, es posible visualizar los 3 componentes principales en una
composición en falso color.

Otras características de los componentes principales es que reducen el tiempo de cálculo en


las técnicas de clasificación multiespectral o multitemporal, así como, las necesidades de
almacenamiento del disco, aunque estas características no son decisivas en trabajos de
detalle, debido a la capacidad de cálculo de los actuales procesadores y al bajo coste de los
sistemas de almacenamiento.

En una imagen de teledetección, las bandas adyacentes están correlacionadas. La presencia


de correlaciones entre bandas implica redundancia en la información, es decir, repetición de
datos.

La base del análisis de componentes principales se puede comprender con el siguiente


ejemplo. Si tenemos 2 variables x e y perfectamente correlacionadas. Su representación nos
dará una línea recta (figura 20).
Técnicas de tratamiento digital de imagen

Figura 20. Concepto de análisis de componentes principales.

La misma información quedaría recogida en un gráfico unidimensional, que utilizase la línea AB


como eje principal.

Figura 21. Componentes principales de dos variables con alta correlación.

Si x e y no están perfectamente correlacionadas, su representación gráfica sería similar a la


figura 21, y existiría una dirección dominante de variabilidad.

31
Drones y sus aplicaciones a las infraestructuras

Tomando esta dirección como eje mayor (AB), se puede definir un eje perpendicular a él. Una
representación utilizando estos nuevos ejes proporciona una mayor relevancia de las
estructuras presentes en los datos. Si la dirección CD contiene tan sólo una pequeña
proporción de la variabilidad existente en los datos, podemos ignorarla y nos encontramos
como en el caso anterior, que partiendo de dos variables llegamos a una sola dimensión.

Generalmente, los datos multiespectrales tienen una dimensionalidad menor que el número de
bandas espectrales. Una transformación de componentes principales de una imagen
multiespectral o multitemporal supone:

▪ definir la dimensionalidad de los datos, e


▪ identificar los ejes principales de variabilidad dentro de estos datos.

Existe mucha bibliografía sobre el análisis de componentes principales, cabe destacar para
mayor información RICHARDS (1986) y MATHER (1987).

5.2 Operaciones aritméticas

Las operaciones aritméticas (adición, sustracción, multiplicación y división) se realizan sobre


dos o más imágenes de la misma zona geográfica. Estas imágenes pueden contener
información multiespectral (varias bandas) o multitemporal (varias fechas).

La adición se utiliza para ver si el rango dinámico de una imagen tratada es igual al de la
imagen original o, por el contrario, es necesario un reescalado. Se utiliza para amortiguar
ruidos.

La sustracción se utiliza para resaltar las diferencias existentes entre imágenes y se utiliza,
principalmente, para detectar cambios en imágenes que han sido tomadas en distintas fechas.

La multiplicación se realiza entre la banda espectral y una matriz (mask) formada por unos y
ceros. De esta forma, el valor del píxel que es multiplicado por 0 se transforma en 0 y sin
embargo, el que es multiplicado por 1 mantiene su valor. Se utiliza cuando una imagen está
formada por varias áreas distintas, como, por ejemplo, en una zona de costa donde el interés
se puede centrar únicamente o bien en el mar, o bien en tierra. La máscara aísla esta región
haciendo cero el resto de la imagen.
Técnicas de tratamiento digital de imagen

La división o cociente entre bandas es una de las transformaciones más utilizadas en


teledetección. Las razones por las que los cocientes de bandas son muy utilizados se pueden
resumir en dos: la correlación entre los valores del cociente y la forma de las curvas de
reflectancia espectral entre dos longitudes de onda, y la reducción del efecto de la topografía.

El índice de vegetación consiste en una relación entre los valores de los píxeles de la banda
del infrarrojo próximo y los valores de los píxeles de la banda del rojo visible, según la
expresión matemática:

IR − Rojo
NDVI =
IR +Rojo

Donde:

▪ NDVI es el fichero resultante de la operación matricial.


▪ IR es la banda del Infrarrojo Reflejado.
▪ Rojo es la banda roja del visible.

Este índice es sensible a la presencia de vegetación y a su estado. La respuesta espectral de la


superficie terrestre en estas dos bandas del espectro electromagnético se ve ampliada en el NDVI:
Áreas con vegetación fotosintéticamente activa y elevada cobertura presentan valores altos de
NDVI, debido a su alta reflectancia electromagnética en el rango del infrarrojo próximo y su baja
reflectancia en el rango del visible. El suelo desnudo presenta valores de NDVI muy bajos.

La utilización de un cociente para diferenciar masas vegetales se basa en el comportamiento


radiométrico que presentan las cubiertas vegetales (Figura 22).

33
Drones y sus aplicaciones a las infraestructuras

Figura 22. Curvas de reflectancia espectral para vegetación, suelo y agua.

La respuesta espectral de una vegetación verde y sana muestra un claro contraste entre la banda
roja del visible (de 0,6 a 0,7 micras) y la del infrarrojo reflejado (de 0,7 a 1,1 micras). Mientras en
la región del visible, los pigmentos de la hoja absorben la mayor parte de la luz que reciben para
realizar la función clorofílica, en el infrarrojo la reflectividad es muy alta.

Una vegetación verde, sana y con un alto índice de biomasa, presenta una reflectividad baja en
la banda roja del espectro y alta en el infrarrojo reflejado. Por el contrario, la vegetación enferma,
senescente o con poca biomasa, así como los suelos, presentan un menor contraste en estos
valores.

De los valores obtenidos en el cociente, aquellos que son negativos se desprecian, mientras que,
los valores bajos son identificados como “suelo”, y los valores más altos como “vegetación”.
Cuanto mayor es el valor del NDVI, mayor es la actividad fotosintética de la planta.

Los cocientes entre bandas espectrales han sido muy utilizados en biogeografía y exploración
geológica. Aunque las posibilidades de crear cocientes son prácticamente infinitas, PERRY y
LAUTENSHLAGER (1984)xii demostraron que la mayoría son equivalentes y el cociente NIR/R
es sin duda el más interesante.
Técnicas de tratamiento digital de imagen

5.3 Técnicas de clasificación

La clasificación automática de una imagen digital consiste en asociar los píxeles en grupos que
representan objetos del mundo real (figura 23).

Figura 23. Concepto de clasificación automática.

Existen dos técnicas diferentes y la mayoría de las veces complementarias:

Clasificación no supervisada: es una medida por la que los píxeles en una imagen son
asignados a clases espectrales sin que el operador tenga conocimiento de la naturaleza de
dichas clases. Los algoritmos que se utilizan son clústeres o agrupamientos.

Estos procedimientos sirven para determinar el número y la localización de las clases


espectrales en las que se pueden dividir los datos digitales. El operador puede identificar, a
posteriori, la naturaleza de las clases, con ayuda de mapas e información de campo.

La clasificación no supervisada puede ser interesante para conocer la estructura de las clases
espectrales en una imagen antes de realizar un análisis más detallado por clasificación
supervisada. Existen una gran cantidad de algoritmos más o menos complejos para el análisis
clúster.

Clasificación supervisada: es aquella en la que el operador especifica el número de clases a


diferenciar y las características estadísticas de cada clase. Sin duda, es el procedimiento más
utilizado en análisis cuantitativo de datos de teledetección.

Los diversos algoritmos que se utilizan están basados en que cada clase espectral puede ser
descrita por un modelo de distribución probabilística en el espacio multiespectral.

35
Drones y sus aplicaciones a las infraestructuras

Independientemente del algoritmo que vaya a utilizar, RICHARDS (1986) propone que para
llevar a cabo una clasificación supervisada son necesarios 5 pasos:

1. Decidir los tipos de cubierta en los que se desea segmentar la imagen.


2. Elegir píxeles representativos de cada una de las clases a diferenciar.

3. Utilizar dichos píxeles para estimar los parámetros del algoritmo de clasificación que
se va a utilizar. En ocasiones, al conjunto de parámetros de cada clase dada se le
llama signatura de clase.

4. Clasificar todos los píxeles de la imagen dentro de uno de los tipos definidos (clases
de información).

5. Elaborar tablas o mapas con los resultados de la clasificación.

Para introducirnos en la técnica de la clasificación supervisada vamos a estudiar 3 de los


algoritmos más comunes:

Clasificador paralelepípedo. Un paralelepípedo es simplemente un cuerpo geométrico cuyas


caras opuestas son paralelas. Para definir este cuerpo, todo lo que se requiere es una
estimación para cada clase de los valores más altos y más bajos en cada banda que se vaya a
utilizar en el análisis. Los píxeles son clasificados según la caja en la que caen (figura 24).

Es rápido y eficiente. Presenta dificultades cuando la media de 2 categorías diferentes se


superpone. Los píxeles que están en esa zona, son clasificados como no seguros y son
colocados arbitrariamente en una de las 2 clases.
Técnicas de tratamiento digital de imagen

Figura 24. Clasificador paralelepípedo en 2 dimensiones.

Clasificador de mínima distancia. Utiliza información sobre la localización de cada clase


en un espacio cartesiano n-dimensional definido por n bandas, que van a ser usadas como
base de la clasificación.

La localización de cada categoría en el espacio n-dimensional viene dado por la clase media
o centro. Cada píxel es asignado a una categoría mediante el cálculo de la distancia a los
valores medios de cada clase (figura 25).

37
Drones y sus aplicaciones a las infraestructuras

Figura 25. Clasificador de mínima distancia en 2 dimensiones.

Después del cálculo de distancias, el píxel se asigna a la clase más cercana. Si se


encuentra lejos de todas, queda como no clasificado.

Clasificador de máxima probabilidad. Utiliza también la media como medida de


localización del centro de cada clase en el espacio n-dimensional, además, hace uso de una
medida de disposición o despliegue de los valores alrededor de la media en cada uno de los
n ejes definidos en el espacio.

Al clasificar un píxel, se evalúa la varianza y la correlación de las clases espectrales. Se


supone que la distribución de los datos es gaussiana (distribución normal). La distribución de
una clase espectral queda definida por la media y la matriz de covarianza (describe varianza
y correlación).

La longitud de los ejes de unas elipses proyectadas en un sistema de coordenadas (x,y) son
proporcionales a la varianza de las dos variables. La localización, forma y tamaño de la
elipse refleja la media, varianza y covarianza de las dos variables (figura 26).
Técnicas de tratamiento digital de imagen

Figura 26. Clasificador de máxima probabilidad en 2 dimensiones.

Aunque una clasificación de máxima probabilidad es muy costosa en tiempo, sus resultados
son los más fiables. Cuantas más bandas utilicemos mejor será la clasificación.

Los tres métodos requieren estimar ciertas características estadísticas de las clases
espectrales en las que son localizados los píxeles. Estas estimaciones se establecen a partir
de muestras identificadas sobre la imagen con ayuda de los datos de campo, cartografía o
fotografía aérea.

Para mayor información sobre las técnicas de clasificación utilizadas en análisis de imágenes
de teledetección, consultar SWAIN y DAVIS (1978)xiii donde además incluye material
conceptual sobre aspectos probabilísticos, o RICHARDS (1986).

39
Drones y sus aplicaciones a las infraestructuras

6. EJERCICIOS

6.1 Ejercicio 1

Calcula lo siguientes filtros de mediana:

6.2 Ejercicio 2

Calcula los siguientes filtros de media:


Técnicas de tratamiento digital de imagen

6.3 Ejercicio 3

Calcula los siguientes filtros de media ponderada:

41
Drones y sus aplicaciones a las infraestructuras

7. REFERENCIAS

i
ROSENFERD, A. KAK, A.C. (1976), Picture processing by computer. Academic Press. New
York.
ii
ANDREWS, H.C. y HUNT, B.R. (1977), Digital image restoration. Prentice-Hall, Englewood
Cliffs, N.J.
iii
PRATT, W.K. (1978), Digital image processing. John Wiley and Sons. New York.
iv
GASKILL, J. (1978), Linear systems, Fourier transforms and optics. John Wiley and Sons. New
York.
v
RICHARDS, J.A. (1986), Remote Sensing Digital Image Analysis. An Introduction. Springer-
Verlag. Berlin.
vi
TURNER, R.E. y SPENCER, M.H. (1972), Atmospheric Model for Correction of Spacecraft
Data: Proceeding 8th International Symposium on Remote Sensing of the Environment. Ann
Arbor. Michigan; 895-934.
vii
SLATER, P.N. (1980), Remote Sensing. Optics and Optical Systems. Addison-Wesley. London.
viii
FOSTER, B.C. (1984), Derivation of Atmospheric Correction Procedures for Landsat MSS with
particular reference to urban data: Int. Journal Remote Sensing, 5: 799-817.
ix
DRURY, S.A. (1987), Image Interpretation in Geology. Allen & Unwin. London.
x
MATHER, P.M. (1987), Computer processing of remotely-sensed images. Jonh Wiley and Sons.
London.
xi
CHAVEZ, P.S. y BAUER, B. (1982), An automatic kernel-size selection technique for edge
enhancement: Remote Sensing of Environment, 12: 23-38.
xii
PERRY, C.R. y LAUTENSCHLAGER, L.F. (1984), Functional equivalence of spectral
vegetation indices: Remote sensing of Environment, 14:169-182.
xiii
SWAIN, P. y DAVIS, S.M. (1978), Remote Sensing: The Quantitative Approach. Mc. Graw Hill.
New York.

También podría gustarte