Está en la página 1de 144

PROCESAMIENTO DIGITAL DE

IMÁGENES
UNIVERSIDAD DISTRITAL FRANCISCO JOSE
DE CALDAS
FACULTAD DE INGENIERIA
INGENIERÍA CATASTRAL Y
GEODESIA

CRISTHIAN DAVID MORA


20161025053

DOCENTE ENCARGADO:
RUBEN JAVIER MEDINA DAZA

2019-3
Tabla de Contenido
INTRODUCCIÓN................................................................................................................................. 8
1. PROBLEMA............................................................................................................................ 9
2. JUSTIFICACIÓN................................................................................................................... 10
3. OBJETIVO GENERAL.......................................................................................................... 11
3.1. OBEJTIVOS ESPECIFICOS.................................................................................................11
4. MARCO TEORICO............................................................................................................... 12
5. METODOLOGÍA................................................................................................................... 18
5.1. Descarga de una imagen LANDSAT.....................................................................................18
5.2. Unión de bandas en ERDAS IMAGE....................................................................................21
5.3. Recorte de una imagen.........................................................................................................24
5.4. Perfiles de una imagen LANDSAT........................................................................................27
5.5. Pseudocolor del recorte........................................................................................................ 28
5.6. Fusión de imágenes.............................................................................................................. 33
5.6.1. Fusión de imágenes: Transformada de Brovey.....................................................................34
5.6.2. Fusión de imágenes: Multiplicación.......................................................................................37
5.6.3. Fusión de imágenes: Componentes Principales...................................................................39
5.7. Estadística de una imagen....................................................................................................42
5.7.1. Estadísticas unibanda........................................................................................................... 42
5.7.2. Estadísticas multibanda........................................................................................................ 46
5.8. Correcciones radiométricas...................................................................................................57
5.8.1. Corrección de una imagen landsat 7 ETM+..........................................................................57
5.9. Filtrado de imágenes satelitales............................................................................................61
5.9.1. Filtro paso bajo...................................................................................................................... 62
5.9.1.1. Filtro de media...................................................................................................................... 62
5.9.1.2. Filtro de media ponderada....................................................................................................62
5.9.2. Filtro paso alto....................................................................................................................... 63
5.9.2.1. Filtro menos media................................................................................................................ 63
5.9.2.2. Filtros basados en derivadas................................................................................................64
5.9.2.2.1. Filtro Laplaciano.............................................................................................................. 64
5.9.2.2.2. Filtro menos Laplaciano...................................................................................................64
5.9.3. Filtros direccionales.............................................................................................................. 65
5.9.3.1. Filtro Norte - Sur.................................................................................................................... 65
5.9.3.2. Filtro Este – Oeste................................................................................................................ 65
5.9.4. Filtro para la detección de bordes.........................................................................................66
5.9.4.1. Filtro Sobel C........................................................................................................................ 66
5.9.4.2. Filtro Sobel F......................................................................................................................... 66
5.9.5. Filtros del Software............................................................................................................... 67
5.9.5.1. Filtro Edge Detect................................................................................................................. 67
5.9.5.2. Filtro Edge Enhance.............................................................................................................. 67
5.9.5.3. Horizontal.............................................................................................................................. 68
5.9.5.4. Filtro Vertical......................................................................................................................... 68
5.9.5.5. Filtro Summary...................................................................................................................... 69
5.10. Análisis de Componentes Principales...................................................................................69
5.11. Transformada de Tasseled Cap............................................................................................70
5.12. Índice de vegetación............................................................................................................. 73
2
5.13. Georreferenciación de una imagen.......................................................................................75
5.14. Extracción de la información temática...................................................................................80
5.14.1. Clasificación supervisada en ERDAS....................................................................................80
5.14.2. Clasificación supervisada ENVI.............................................................................................83
6. RESULTADOS...................................................................................................................... 87
6.1. Imagen descargada.............................................................................................................. 87
6.2. Unión de bandas en ERDAS IMAGE....................................................................................91
6.3. Recorte de una imagen.........................................................................................................92
6.4. Pseudocolor.......................................................................................................................... 93
6.4.1. Resultado del pseudocolor....................................................................................................93
6.4.2. Discriminación de coberturas (Pseudocolor).........................................................................94
6.5. Fusión de imágenes.............................................................................................................. 95
6.5.1. Transformada de Brovey.......................................................................................................95
6.5.2. Multiplicación......................................................................................................................... 96
6.5.3. Componentes Principales.....................................................................................................97
6.6. Recorte de 25 x 25................................................................................................................ 98
6.7. Unión de las fusiones, pancromática y verdadero color........................................................99
6.8. Correcciones Radiométricas...............................................................................................100
6.9. Filtrado de imágenes satelitales..........................................................................................101
6.9.1. Filtro paso bajo...................................................................................................................... 101
6.9.1.1. Filtro de media.................................................................................................................... 101
6.9.1.1. Filtro de media ponderada..................................................................................................101
6.9.2. Filtro paso alto....................................................................................................................... 102
6.9.2.1. Filtro menos media.............................................................................................................. 102
6.9.2.2. Filtros basados en derivadas...............................................................................................103
6.9.2.2.1. Filtro Laplaciano............................................................................................................... 103
6.9.2.2.2. Filtro menos Laplaciano...................................................................................................103
6.9.3 Filtros direccionales................................................................................................................. 104
6.9.3.1. Filtro Norte - Sur.................................................................................................................. 104
6.9.3.2. Filtro Este - Oeste............................................................................................................... 104
6.9.4. Filtro para la detección de bordes..........................................................................................105
6.9.4.1. Filtro Sobel C...................................................................................................................... 105
6.9.4.2. Filtro Sobel F....................................................................................................................... 105
6.9.5. Filtro del Software.................................................................................................................. 106
6.9.5.1. Filtro Edge Detect................................................................................................................ 106
6.9.5.2. Filtro Edge Enhance............................................................................................................ 106
6.9.5.3. Filtro Horizontal................................................................................................................... 107
6.9.5.4. Filtro Vertical....................................................................................................................... 107
6.9.5.5. Filtro Summary.................................................................................................................... 108
6.10. Transformada de Tasseled Cap..........................................................................................109
6.11. Índice de Vegetación........................................................................................................... 110
6.12. Georreferenciación de una imagen.....................................................................................112
6.13. Extracción de la información temática.................................................................................113
6.9.5. Extracción por Mínima Distancia, Malahanobis, Máxima Probabilidad (ERDAS)...................113
6.9.5. Extracción por Mínima Distancia, Malahanobis, Máxima Probabilidad, IsoData, K-medias
(ENVI)................................................................................................................................. 114
7. ANEXOS............................................................................................................................. 116
3
7.1. ANEXO 1............................................................................................................................ 116
7.2. ANEXO 2............................................................................................................................ 117
7.3. ANEXO 3............................................................................................................................ 118
7.4. ANEXO 3............................................................................................................................ 125
8. CONCLUSIONES............................................................................................................... 126
BIBLIOGRAFIA................................................................................................................................ 127

4
Ilustración 1: Coordenadas de archivo......................................................................................................12
Ilustración 2: Media.................................................................................................................................... 13
Ilustración 3: Desviación estándar............................................................................................................. 14
Ilustración 4: Correlación........................................................................................................................... 14
Ilustración 5: Covarianza........................................................................................................................... 14
Ilustración 6: Registro a USGS.................................................................................................................. 16
Ilustración 7: Interfaz USGS...................................................................................................................... 16
Ilustración 8: Selección de zona (CRITERIA)............................................................................................17
Ilustración 9: Selección de programa (LANDSAT OLI/TIRS C1 LEVEL 1).................................................17
Ilustración 10: Selección de imagen.......................................................................................................... 18
Ilustración 11: Vista previa de la imagen seleccionada..............................................................................18
Ilustración 12: Selección de tipo de descarga a realizar............................................................................19
Ilustración 13: Interfaz ERDAS IMAGE......................................................................................................19
Ilustración 14: Herramienta LAYER SATCK..............................................................................................20
Ilustración 15: Unión 8 bandas.................................................................................................................. 20
Ilustración 16: Vista de 8 bandas............................................................................................................... 21
Ilustración 17: Imagen verdadero color......................................................................................................21
Ilustración 18: Imagen infrarrojo cercano...................................................................................................22
Ilustración 19: Herramienta INQUIRE-BOX...............................................................................................22
Ilustración 20: Despliegue INQUIRE BOX.................................................................................................23
Ilustración 21: Posición de la herramienta SUBSET & CHIP- CREATE SUBSET IMAGE.........................23
Ilustración 22: Interfaz CREATE SUBSET AND CHIP...............................................................................24
Ilustración 23: Vista del recorte.................................................................................................................. 24
Ilustración 24: Selección herramienta SPATIAL PROFILE........................................................................25
Ilustración 25: Interfaz SPATIAL PROFILE................................................................................................25
Ilustración 26: Interfaz SURFACE PROFILE.............................................................................................26
Ilustración 27: Apertura de la imagen........................................................................................................ 26
Ilustración 28: Selección de layer y pseudocolor.......................................................................................27
Ilustración 29: Infrarrojo cercano (pseudocolor).........................................................................................27
Ilustración 30: Herramienta de atributos....................................................................................................28
Ilustración 31: Tabla de atributos............................................................................................................... 28
Ilustración 32: Criteria................................................................................................................................ 28
Ilustración 33: Interfaz de criteria con operación.......................................................................................29
Ilustración 34: Asignación de color azul.....................................................................................................29
Ilustración 35: Asignación de color amarillo...............................................................................................30
Ilustración 36: Herramienta RESOLTION MERGE....................................................................................31
Ilustración 37: Orden de la PAN y RGB-VC...............................................................................................32
Ilustración 38: Fusión transformada de Brovey-nn.....................................................................................32
Ilustración 39: Data type de 16 bit............................................................................................................. 33
Ilustración 40: Apertura Trans. Brovey y RGB-VC.....................................................................................33
Ilustración 41: Herramienta de comparación.............................................................................................34
Ilustración 42: Comparación entre las imágenes TB y RGB-VC................................................................34
Ilustración 43: Orden de la PAN y RGB-VC...............................................................................................35
Ilustración 44: fusión por multiplicación-nn................................................................................................35
Ilustración 45: Asignación 16 bit................................................................................................................ 36
Ilustración 46: Imagen de multiplicación y RGB-VC...................................................................................36
Ilustración 47: RGB-VC y multiplicación....................................................................................................37
Ilustración 48: Orden de la PAN y RGB-VC...............................................................................................37
Ilustración 49: Fusión Componentes Principales-nn..................................................................................38
Ilustración 50: Asignación 16 bit................................................................................................................ 38
Ilustración 51: Apertura imagen PP-RGB-VC............................................................................................39
Ilustración 52: PP-RGB-VC....................................................................................................................... 39
Ilustración 53: Banda 5 (pseudocolor).......................................................................................................40
Ilustración 54: Recorte de 25 x25.............................................................................................................. 40
Ilustración 55: Tamaño del recorte y del píxel...........................................................................................41
Ilustración 56: Pixel de 15 Ilustración 57: Pixel de 30.......................................................................41
Ilustración 58: Comprobación de tamaño..................................................................................................42
Ilustración 59: Matriz de 25x25.................................................................................................................. 42
Ilustración 60: Estadística unibanda.......................................................................................................... 43
Ilustración 61: Unión de las 13 bandas (LAYER SATCK)..........................................................................44
Ilustración 62: 13 bandas unidas............................................................................................................... 45
Ilustración 63: Herramienta MODEL MARKER..........................................................................................45
Ilustración 64: Carga de Imagen................................................................................................................ 46
Ilustración 65: Operación que se hará a la imagen....................................................................................46
Ilustración 66: Operación de Correlación...................................................................................................47
Ilustración 67: Output de la matriz............................................................................................................. 47
Ilustración 68: Opción de correr el programa.............................................................................................48
Ilustración 69: Herramienta SESSION LOG..............................................................................................48
Ilustración 70: Visualización de la matriz...................................................................................................49
Ilustración 71: Matriz en el bloc de notas...................................................................................................49
Ilustración 72: Matriz en Excel (Correlatividad)..........................................................................................49
Ilustración 73:Matriz en Excel (Covarianza)...............................................................................................50
Ilustración 74: OIF más optimo (2,5,6).......................................................................................................51
Ilustración 75: Matriz Correlación con sus bandas.....................................................................................52
Ilustración 76: Fusiones vs RGB................................................................................................................ 52
Ilustración 77: Fusiones vs Pancromática..................................................................................................52
Ilustración 78: Herramienta de despliegue de histogramas.......................................................................53
Ilustración 79: Interfaz CREATE FEATURE SPACE IMAGES...................................................................53
Ilustración 80: Comparación de histogramas.............................................................................................54
Ilustración 81: Resultado apertura de todas las bandas............................................................................55
Ilustración 82: Banda 1 Ilustración 83: Banda 2................................................................................55
Ilustración 84: Banda 3 Ilustración 85: Banda 4................................................................................56
Ilustración 86: Banda 5 Ilustración 87: Banda 6..................................................................................56
Ilustración 88: Banda 7 Ilustración 89: Banda 8.................................................................................57
Ilustración 90: Banda 9 Ilustración 91: Banda 10...............................................................................57
Ilustración 92: Banda 11............................................................................................................................ 58
Ilustración 93: Resultado LAYER STACK verdadero color........................................................................58
Ilustración 94: Resultado LAYER STACK infrarrojo cercano.....................................................................59
Ilustración 95: Resultado recorte imagen LANDSAT.................................................................................59
Ilustración 96: Resultado apertura pseudocolor banda 5...........................................................................60
Ilustración 97: Resultado 5 coberturas.......................................................................................................61
Ilustración 98: Apertura TB-RBG_VC........................................................................................................ 62
Ilustración 99: Apertura Multiplicación-RGB_VC........................................................................................63
Ilustración 100: Apertura Componentes Principales-RGB_VC..................................................................64
Ilustración 101: Resultado recorte 25x25...................................................................................................64
Ilustración 102: Resultado LAYER STACK................................................................................................65
INTRODUCCIÓN

La teledetección ha jugado un papel muy importante en ciertos campos


de estudio ya que gracias a ella se ha puede obtener información que
podemos ver a simple vista, cuando esta se junta con el procesamiento
digital de imágenes el rango de campos de estudio a los cuales les
puede brindar información, aumenta ya que con un buen manejo de las
herramientas que nos ofrece, de las diferentes operaciones
matemáticas que podemos hacer y cómo las podemos aplicar, la
obtención de datos crece y así mismo podemos hacer un mejor manejo
de ellos para así dar solución a la problemática que se quiera
solucionar.

En el siguiente documento se hará la revisión de los diferentes


métodos, herramientas que se utilizaran para que se pueda hacer un
mejor análisis de los datos que nos brindan las imágenes satelitales,
para así poder obtener un mejor resultado junto con esto se hará la
revisión de los conceptos básicos que se deben tener en cuenta en el
procesamiento digital de imágenes para así tener más claridad en los
procesos llevados a cabo.
1. PROBLEMA

La adquisición de información para poder ampliar el conocimiento ha sido


uno de los propósitos de la humanidad, pero esta a su vez se ve frenada por
si mismo y por sus limitaciones naturales, ante esto el ser humano ha
desarrollado nuevos métodos y tecnologías para no parar su incontrolable
curiosidad hacia lo desconocido. Al ya haber abarcado y obtenido la
información sobre nuestro entorno, pero solo al alcance de nuestro espectro
visible se ve la necesidad de estudiar lo que no podemos ver ayudándonos
con las imágenes satélites y las herramientas necesarias para hacer el
procesamiento de estas.

Ahora el procesamiento digital de imágenes en conjuntos las imágenes


satelitales nos brindaran la solución a las problemáticas del desconocimiento
de las herramientas a utilizar, de cómo reconocer y discriminar las diferentes
coberturas que tenemos en una zona específica de estudio por medio de
diferentes métodos, de saber cómo analizar una imagen desde su metadato
y su estadística finalmente de cómo sacar el mayor provecho de los datos
desde el más mínimo como lo es un pixel hasta lo más grande como lo es
nuestra imagen satelital.
2. JUSTIFICACIÓN

El propósito de este documento es entender y hacer un buen procesamiento


digital a las imágenes para la obtención de datos que se encuentran en ellas,
por medio de diferentes procesos, así podremos analizar la información que
nos arroje utilizando la herramienta ERDAS IMAGE para cumplir con los
procesos que se deben realizar para dar la solución a la problemática que se
esté solucionando ya sea el análisis de coberturas de una zona, obtención y
estudio de Estadsiticas de una imagen satelital, calidad y estado del agua,
crecimiento en la agricultura entre otros.
3. OBJETIVO GENERAL

Generar, evaluar y validar un paso a paso de prácticas para el


desarrollo de diferentes procesos digitales sobre una imagen satelital
para un posterior análisis o interpretación.

3.1. OBEJTIVOS ESPECIFICOS

3.1.1. Sintetizar las diferentes propiedades físicas implicadas en la


teledetección y como estas inciden en la obtención de la imagen de
interés.
3.1.2. Identificar los objetos dentro de una imagen satelital con datos
proporcionados por la imagen y la utilización de la herramienta
ERDAS IMAGINE para la correcta identificación y manipulación de
dichos datos.
3.1.3. Categorizar diferentes tipos de procesamiento digital de imágenes
para la correcta identificación de coberturas y obtención de
estadísticas.
4. MARCO TEORICO

A continuación, se presentarán los conceptos de procesamiento digital


que se deben tener en cuenta para el entendimiento del siguiente
documento.

Fuente de energía: Es el origen del flujo energético detectado por el


sensor. Tenemos dos tipos: (1) Teledetección pasiva: Foco externo al
sensor, (2) Teledetección pasiva: Haz energético emitido por este
como lo es la energía solar. [ CITATION Emi95 \l 9226 ]

Cubierta terrestre: Esta puede estar compuesta por distintas masas


de vegetación, suelo, agua o construcciones humanas, estas recibirán
la señal energética que procede de la fuente de energía luego de esto
según sus características físicas la reflectarán. [ CITATION Emi95 \l
9226 ]

Sensor: Este tiene la finalidad de captar la energía proveniente de la


cubierta terrestre, codificarla y grabarla para enviarla al sistema de
recepción. [ CITATION Emi95 \l 9226 ]

Recepción: Este es aquel de recibir la información que transmite la


plataforma donde se encuentra en sensor donde se guardara en un
formato apropiado y después de su respectivo tratamiento se le
suministrara a los intérpretes. [ CITATION Emi95 \l 9226 ]

Interprete: Es la parte encargada de analizar a información que se


encuentra de manera análoga o digital para así facilitarla si se solicita
para un problema de estudio [ CITATION Emi95 \l 9226 ]

Usuario final: Al cual le corresponde el análisis del documento


resultado de la previa interpretación. [ CITATION Emi95 \l 9226 ]

Resolución: Es la habilidad de registrar, discriminando la información


en detalle. (SD-33-Principios-teledeteccion-REUTER.pdf, 2009)

Metadato: Conjunto estructurado de datos que describen a otros


datos, a su estructura interna y a sus servicios. [ CITATION Cal09 \l
9226 ]

 .JPEG: es un conjunto de técnicas de compresión de datos


establecidas por el “Joint Photographic Experts Group” y se
considera que en la conversión existe perdida de información
. (ERDAS_FieldGuide.pdf, 2005)
 .TIFF: es un formato que es altamente compatible con otros que
se utiliza para la trasmisión de imágenes, video, almacenamiento,
documentos, etc. (ERDAS_FieldGuide.pdf, 2005)
 .IMG: es el formato por defecto de ERDAS IMAGINE y tiene dos
tipos de layers los temáticos y los continuos.
(ERDAS_FieldGuide.pdf, 2005)

Resolución espacial: Designa al objeto más pequeño que puede ser


distinguido sobre una imagen y es representada por un píxel.
[ CITATION Emi95 \l 9226 ]

Resolución espectral: Indica el número y anchura de las bandas


espectrales que puede discriminar el sensor. [ CITATION Emi95 \l 9226
]

Resolución radiométrica: Se refiere a la sensibilidad del sensor, esto


es, a su capacidad para detectar variaciones en la radiancia espectral
que recibe. [ CITATION Emi95 \l 9226 ]

Resolución temporal: Se refiere a la frecuencia de cobertura que


proporciona el sensor. Es decir, se refiere a la periodicidad con la que
este adquiere imágenes de la misma porción de la superficie terrestre. [
CITATION Emi95 \l 9226 ]

Sistema de Coordenadas: los pixeles tienen una ubicación definida


dentro de la imagen que se encuentran organizadas en una grilla de
columnas y filas y que son conocidos normalmente como datos ráster.
Las coordenadas pueden ser de dos tipos, coordenadas de archivo y
coordenadas de mapa. (ERDAS_FieldGuide.pdf, 2005)

Coordenadas De Archivo: Estas se refieren a la ubicación de cada


píxel dentro de la imagen y empiezan en la esquina superior izquierda y
con la coordenada (0,0). (ERDAS_FieldGuide.pdf, 2005)
Ilustración 1: Coordenadas de archivo

Coordenadas De Mapa: Estas se pueden expresar en uno o varios


sistemas de proyección y estas dependen del método de la toma de
datos utilizado para crear el archivo (detección remota, escaneo de un
mapa existente, Etc.). (ERDAS_FieldGuide.pdf, 2005)

Píxel: Se define como el elemento más básico de una imagen por lo


cual tiene el valor más pequeño dentro de ella.
(ERDAS_FieldGuide.pdf, 2005)

Nivel Digital: Un nivel digital es el valor numérico que se le asigna a


un píxel y viene representado por un numero entero y se traduce
fácilmente como un nivel de gris, que en una imagen de 8 bite va de 0
a 255) y forman las imágenes cuando son desplegadas en una
computadora. (ERDAS_FieldGuide.pdf, 2005)

Tablas de color: Las tablas de color son capas en donde se


almacenan los colores Rojo, Azul y Verde en forma de tabla.
(ERDAS_FieldGuide.pdf, 2005)

Pseudo color: Son aquellos procedimientos donde se diseña


artificialmente una tabla de color para realizar un mejor realce de las
bandas y objetos de la imagen satelital. [ CITATION Emi95 \l 9226 ]
[ CITATION Cal09 \l 9226 ]

Perfil Espacial: Es una pantalla que traza la información espectral a lo


largo de una polilínea definida por el usuario.(ERDAS_FieldGuide.pdf,
2005)

Perfil Espectral: Es una pantalla que traza la información de


reflectancia de un pixel a lo largo de una polilínea definida por el
usuario. (ERDAS_FieldGuide.pdf, 2005)
Perfil Superficial: Es una pantalla que le permite designar un área X,
y Y ver cualquier capa seleccionada, Z. (ERDAS_FieldGuide.pdf, 2005)

Fusión de datos: Es una técnica que completa conjuntos de datos de


diferentes fuentes para conseguir un archivo, aunque artificial con
todas las variables de interés. Es un medio de limitar la recolección de
datos, reconstruyendo la información faltante. Es una estimación
estadística. (Alonso, 2001)

Medidas estadísticas unibanda: Medidas de tendencia central

Media: Es una medida de tendencia central y un estimador imparcial,


para distribuciones simétricas tiende a acercarse a la media de la
población a diferencia de otras medidas centrales como la mediana o
la moda, es poco confiable cuando en la muestra hay valores extremos
ya que estos valores pueden afectar mucho el cálculo, en una
distribución normal esta se encuentra en el pico de la curva (Jensen, J.
R, 2005).

Ilustración 2: Media

Mediana: Es una medida de tendencia central la cual se encuentra en


el medio de la distribución de frecuencias, la mitad de los valores se
encuentran a su izquierda y la otra mitad a su derecha (Jensen, J. R,
2005).

Moda: Es el valor que se repite más veces en una distribución y


usualmente es el punto más alto de la curva (histograma) (Jensen, J.
R, 2005).

Varianza: Es la desviación promedio al cuadrado de todas las


observaciones de un elemento con respecto a la media de la
distribución (µk), para e caso de las imágenes se observa la desviación
de un nivel digital (BVik) con respecto a la media (Jensen, J. R, 2005).
Desviación estándar: Es la raíz cuadrada de la varianza de un
conjunto de valores y mide el grado de dispersión de estos, con
respecto a la media. (ERDAS_FieldGuide.pdf, 2005)

Ilustración 3: Desviación estándar

Medidas estadísticas multibanda

Correlación: mide la relación lineal entre dos variables sus valores


varían entre 0 y 1 siendo el 0 un nivel de correlación casi nulo y el 1 un
nivel y correlación alta sin indicar igualdad. (ERDAS_FieldGuide.pdf,
2005)

Ilustración 4: Correlación

Covarianza: mide la relación lineal entre dos variables y sus valores


varían entre menos infinito e infinito por lo cual es difícil identificar la
relación entre las variables. (ERDAS_FieldGuide.pdf, 2005)

Ilustración 5: Covarianza
Emitancia: la capacidad de un cuerpo real de emitir energía respecto al
cuerpo negro (Lopez, 2002)

Interacción entre la radiación electromagnética y la atmósfera: La


radiación electromagnética. Se puede ver como una clase de energía que
se expande como un grupo de ondas electromagnéticas a la velocidad de
la luz (c=3·108 m/s en el vacío). Las ondas electromagnéticas están
formadas por la superposición de dos campos perpendiculares entre sí,
uno eléctrico y otro magnético. [ CITATION Ver16 \l 9226 ]

En el caso de la superficie terrestre, los gases y partículas interactúan


con los flujos de radiación emitidos por el sol, creando así los efectos de
dispersión y absorción.

Corrección atmosférica de una imagen digital: La corrección


atmosférica es una técnica que se aplica a las imágenes digitales, con el
propósito de eliminar el efecto de los aerosoles y la radiancia intrínseca
que se introduce en el sensor y se ve reflejado en la imagen, como
producto de la interacción del sensor con la atmósfera. [ CITATION Agu14 \l
9226 ]
Las señales de radiación electromagnética colectadas por los sensores
de los satélites en el espectro solar son modificadas por absorción,
dispersión y emisión producidas por gases y aerosoles que viajan por
medio de la atmósfera, desde la superficie de la Tierra hasta el sensor.
[ CITATION Lop91 \l 9226 ]
En el caso del rayado de líneas se puede utilizar la herramienta Focal
Analysis del programa ERDAS para corregir imágenes con ese tipo de
errores.

Calibración Radiométrica: Es un proceso que posibilita convertir la


información de cada pixel de la imagen digital, a niveles de reflectancia,
es decir, permite disminuir los efectos de dispersión o absorción
causados por la presencia de partículas en la atmósfera. [ CITATION IDE11 \l
9226 ]

Corrección atmosférica relativa: Es una técnica que no requiere de


variables atmosféricas, por lo que es necesario estandarizar los efectos
atmosféricos a una atmósfera de referencia o corregirlos en forma
absoluta, para poder analizar las curvas de crecimiento espectrales de la
vegetación a un nivel de píxel por píxel. [ CITATION Fer18 \l 9226 ].

Corrección atmosférica absoluta: Es una técnica que requiere de


distintas variables atmosféricas, como lo son la temperatura del aire, la
humedad, la presión, la visibilidad y la altitud.

Realces de imágenes digitales: Son técnicas que permiten mejorar la


calidad de la imagen para permitir un mejor análisis visual.

Ajuste de contraste: Sirve para adecuar la resolución radiométrica de la


imagen, cuando la resolución radiométrica del sensor supera la
capacidad de representación de valores de la tarjeta gráfica que se
utilice, se puede comprimir el rango de visualización hasta adecuarlo al
rango disponible.[ CITATION Fra18 \l 9226 ]

Expansión Lineal: Establece el valor de 0 para los píxeles con valor


inferior o igual a un mínimo y el valor de 1 para los píxeles con valor igual
o superior a un máximo.

Técnicas de realce:

Aplicaciones en color: El empleo del color en el procesamiento de


imágenes está fundamentado en la mayor capacidad del ojo humano
para distinguir variaciones de tono que de valor. Se puede realizar
mediante dos procesos:

 Color Verdadero: Asociación de un tono primario a cada una de


las tres bandas que integren la imagen multiespectral.

 Pseudo Color: Aplicación del color sobre una imagen


monobanda

 Transformaciones IHS: Extracción de tres nuevas bandas


basadas en el sistema de coordenadas de color Intensidad, Tono
y Saturación (Intensity, Hue, Saturation) [ CITATION Fra18 \l 9226 ].
FILTRADO

Esta técnica sirve para suavizar los bordes de una imagen, reducir los
picos de ruido o simplemente hacer menos bruscos los cambios de
intensidad en la imagen. Se consideran filtros paso-bajo, ya que eliminan
la información de alta frecuencia en la imagen.

Filtro Media: El filtro de suavizado más simple es el correspondiente a la


media, en la cual se obtiene un píxel de salida haciendo la media
aritmética de los píxeles de la ventana elegida. Cuanto mayor sea la
ventana, mayor será el efecto de difuminado.

Filtro Gaussiano: Similar al filtro media, pero aplicando una máscara


diferente, donde los píxeles más cercanos al píxel actual tienen más
peso que los exteriores. Los pesos de los píxeles se calculan con una
campana de Gauss dependiente de la distancia al píxel actual, y su
varianza indica el nivel de suavizado.[ CITATION Nic12 \l 9226 ]

Filtro paso bajo: atenúan las componentes de medias-bajas frecuencias


y dejan intactas las bajas en función de la frecuencia de corte que se
elija. Se usan para eliminar ruido de alta frecuencia, o eliminar todo lo
que no sean variaciones suaves de nivel de gris.

Filtro paso alto: atenúan las componentes de baja frecuencia y dejan


intactas las de medias-altas en función de la frecuencia de corte que se
elija. Se usan para quedarnos con las propiedades de la imagen en los
que los niveles de gris varían bruscamente, por bordes de la
imagen[CITATION Gon96 \l 9226 ]

Análisis de componentes principales: El ACP resulta una técnica muy


útil cuando lo que se pretende eliminar la correlación entre los niveles
digitales de la imagen digital. Mediante el ACP, se destacan las
diferencias entre las bandas de la imagen. Cuando las imágenes de
entrada son bandas de radiación reflejada en la región visible del
espectro, el empleo del ACP resulta especialmente útil, ya que las
bandas de entrada se encuentran muy correlacionadas y es necesario el
empleo de algoritmos que reduzcan los datos redundantes. [ CITATION
Car17 \l 9226 ]

Índices de vegetación

NDVI Diferencia normalizada: Minimiza efectos topográficos y produce


escala lineal de medición. La escala va de –1 a 1 con el valor cero
representando el valor aproximado donde empieza la ausencia de
vegetación. Los valores negativos representan superficies sin vegetación.
La normalización que realiza reduce el efecto de la degradación de
calibración del sensor y la influencia de los efectos atmosféricos. Gran
sencillez matemática. [ CITATION Ped13 \l 9226 ]
EVI: El Enhanced Vegetation Index, EVI, agrega a las bandas infrarroja
cercana y del rojo, la banda azul, junto con coeficientes de corrección
atmosférica y del efecto de suelo desnudo. Este índice es un buen
complemento al NDVI, puesto que, si este último es esencialmente
sensible a las variaciones de la banda roja, el EVI es más sensible a la
banda infrarroja cercana, lo que lo hace diferenciar de mejor forma las
variaciones estructurales del dosel vegetal.[ CITATION Gao03 \l 9226 ]

SAVI: Incorpora una constante de suelo, la cual se usa de acuerdo con


vegetación de baja, intermedia o alta densidad. Considera la influencia
de la luz y del suelo oscuro en el índice. [ CITATION Ped13 \l 9226 ]

Anomalías Geométricas

 Distorsiones originadas por la plataforma: Un satélite, al igual que un


avión, aunque en menor medida, está sujeto a oscilaciones aleatorias de
su altitud, velocidad y orientación de sus tres ejes. Estas oscilaciones
alteran de un modo impredecible la relación que se establece entre
posiciones en la superficie terrestre y posiciones en la matriz de datos.
 Distorsiones provocadas por la rotación terrestre: Debido a la altitud
a la que se encuentran los satélites y a que la toma de una imagen
completa requiere cierto tiempo, la superficie terrestre se habrá
desplazado desde el inicio de la toma de la imagen hasta el final.
 Distorsión provocada por la curvatura terrestre: Esta distorsión es
casi inapreciable en las plataformas aerotransportadas, mientras que es
importante en sensores espaciales, ocasionando efectos de bordes muy
significativos en satélites con una gran cobertura.
 Distorsión de oblicuidad: El barrido de una línea completa, consume un
tiempo finito, la distorsión se da porque los dos extremos de la línea no
forman una línea perpendicular a la traza del satélite.
 Distorsión por efecto del relieve: Especialmente en regiones
montañosas, los puntos de la imagen se ven desplazados debido a la
visión en perspectiva del relieve. [ CITATION Mar10 \l 9226 ]
Corrección Geométrica

Consiste en vincular una región de una imagen con una correspondiente


región de otra imagen, la cual es tomada con un sensor diferente o un
ángulo de vista diferente. Permite corregir la posición relativa del píxel, la
cual se modificó por la geometría del sensor o por variaciones en el
terreno.
Puntos de control: Cuando se comparan imágenes que proceden de
distintos satélites (multimodales), tanto la resolución espacial como la
orientación son distintas, lo que dificulta la búsqueda automática de
pares de puntos de control.[ CITATION VAr04 \l 9226 ].

Modelización matemática: El método posibilita restablecer las


condiciones reales de escena a partir del conocimiento de los parámetros
orbitales del satélite. Estos parámetros se graban en el archivo de
cabecera de imagen. Conocidas esta condición las correcciones
consisten en realizar unas transformaciones geométricas sencillas o una
composición.

Georreferenciación: La georreferenciación de imágenes satelitales es el


proceso mediante el cual se dota de validez cartográfica a una imagen
digital corrigiendo geométricamente la posición de los píxeles y
atribuyéndoles además coordenadas en algún sistema de referencia de
la tierra.

Rectificación polinómica: Esta rectificación no puede resolverse


normalmente mediante una transformación de primer grado, que
permitiría transformaciones de rotación, traslación y cambio de escala, ya
que los espacios de referencia están distorsionados de forma compleja:
proyección cónica o cilíndrica en el espacio imagen y la proyección
geográfica en el espacio de proyección.[ CITATION Cua03 \l 9226 ].

Clasificación supervisada: Utiliza firmas espectrales obtenidas de las


muestras de capacitación para clasificar una imagen. Con la ayuda de la
barra de herramientas Clasificación de imagen, puede crear fácilmente
muestras de capacitación para representar las clases que desea extraer.

Clasificación no supervisada: La clasificación sin supervisión busca


clases espectrales (o clústeres) en una imagen multibanda sin la
intervención del analista. La barra de herramientas Clasificación de
imagen ayuda a realizar la clasificación sin supervisión proporcionando
acceso a las herramientas para crear clústeres, capacidad para analizar
la calidad de los clústeres y acceso a las herramientas de clasificación.
Metodología para la clasificación Corine Land Cover: Dentro del
programa CORINE (Coordination of information on the environment)
promovido por la Comisión de la Comunidad Europea fue desarrollado el
proyecto de cobertura de la tierra “CORINE Land Cover” 1990 (CLC90),
el cual definió una metodología específica para realizar el inventario de la
cobertura de la tierra. La base de datos de Corine Land Cover Colombia
(CLC) permite describir, caracterizar, clasificar y comparar las
características de la cobertura de la tierra, interpretadas a partir de la
utilización de imágenes de satélite de resolución media (Landsat), para la
construcción de mapas de cobertura a diferentes escalas.

Evaluación de la calidad de la información temática extraída de una


Imagen: La exactitud temática describe el grado de fidelidad de los
valores de los atributos Asignados a los elementos en la base de datos
respecto de su verdadera característica presentada en el terreno y la
clasificación correcta de los objetos y sus relaciones. La exactitud
temática maneja subelementos como exactitud de clasificación y
exactitud de atributos.

Clasificación supervisada y logaritmos matemáticas: Utiliza firmas


espectrales obtenidas de las muestras de capacitación para clasificar una
imagen. Con la ayuda de la barra de herramientas Clasificación de
imagen, puede crear fácilmente muestras de capacitación para
representar las clases que desea extraer.

 Media
 Desviación típica
 Máximo
 Mínimo

Clasificación no supervisada y logaritmos matemáticas: La


clasificación sin supervisión busca clases espectrales (o clústeres) en
una imagen multibanda sin la intervención del analista. La barra de
herramientas Clasificación de imagen ayuda a realizar la clasificación sin
supervisión proporcionando acceso a las herramientas para crear
clústeres, capacidad para analizar la calidad de los clústeres y acceso a
las herramientas de clasificación.

 La intervención humana se centra más en la interpretación de


resultados que en la consecución de estos
 Supone la búsqueda automática de grupos de valores homogéneos

Exactitud Temática: En un sentido estricto ninguna clasificación puede


considerarse completa hasta que su grado de exactitud sea evaluado.
Este puede definirse como el grado de concordancia entre las clases
asignadas por el clasificador y sus ubicaciones correctas según datos de
tierra recolectados por el usuario y considerados como datos de
referencia. A tomar como referencia el conjunto de datos de
entrenamiento, aunque obviamente este procedimiento conduce a
sobreestimar la exactitud de la clasificación.
5. METODOLOGÍA

La metodología que vamos a realizar en la primera parte de este


proyecto hará referencia a la obtención de la imagen con la cual vamos
a trabajar y utilizando la herramienta de ERDAS IMAGE se le dará el
primer procesamiento a la imagen como lo veremos a continuación

5.1. Descarga de una imagen LANDSAT

Esta imagen la obtendremos de la pagina web del USGS y la


podremos adquirir siguiendo estos pasos.

1. Lo primero que haremos será registrarnos con un usuario


y contraseña

Ilustración 6: Registro a USGS

2. Luego de hacer esto se nos enviara a la interfaz de la pagina

Ilustración 7: Interfaz USGS


3. Tenemos varias opciones de como escoger el lugar de donde
queremos obtener la imagen. En este caso vamos a utilizar el mapa
y seleccionaremos el lugar de interés, esto lo veremos en Search
Criteria y nos mostrara las coordenadas del lugar.

Ilustración 8: Selección de zona (CRITERIA)

4. Después nos iremos a Data Sets donde nos mostrara los diferentes
programas donde seleccionaremos LANDSAT- LANDSAT collection
1 level 1 y finalmente LANDSAT O OLI/TIRS C1 LEVEL 1.
Escogemos este ya que las imágenes que nos proporciona son
multiespectrales y gratuitas.

Ilustración 9: Selección de programa (LANDSAT OLI/TIRS C1 LEVEL 1)


5. Nos trasladamos a los resultados que nos arroja, aquí escogeremos
la mejor imagen para trabajar aquella que no tenga más de 20% de
nubosidad.

Ilustración 10: Selección de imagen

6. Procedemos a ver la vista previa de la imagen para verificar que


esta si cumpla con los requisitos que necesitamos.

Ilustración 11: Vista previa de la imagen seleccionada


7. Para finalizar con la descarga de la imagen seleccionamos la última
opción de descarga ya que esta contendrá todas las bandas de la
imagen

Ilustración 12: Selección de tipo de descarga a realizar

5.2. Unión de bandas en ERDAS IMAGE

1. El primer paso por realizar es abrir la herramienta de


ERDAS IMAGE y esta se vera de esta manera.

Ilustración 13: Interfaz ERDAS IMAGE


2. Nos dirigimos donde nos dice RASTER-SPECTRAL para activar
la herramienta LAYER STACK.

Ilustración 14: Herramienta LAYER SATCK

3. Se desplegará la interfaz de la herramienta en donde uniremos


nuestras bandas, seleccionándolas desde INPUT y añadiéndolas
con ADD, debemos tener en cuenta como las añadimos ya que esto
influirá en el resultado, en OUTPUT damos el nombre, tipo y destino
de nuestra unión.

Ilustración 15: Unión 8 bandas


4. De esta unión obtendremos la combinación de 8 bandas la cual
se vera de esta manera

Ilustración 16: Vista de 8 bandas

5. Al haber culminado este proceso hacemos lo mismo, pero solo


añadiendo las bandas 4-3-2 en ese orden para así formar el
verdadero color.

Ilustración 17: Imagen verdadero color


6. Así como en los pasos anteriores obtendremos ahora un falso
color con la siguiente unión 5-3-2.

Ilustración 18: Imagen infrarrojo cercano

5.3. Recorte de una imagen

Procederemos a hacer el recorte de la imagen para así tener una zona


concreta de estudio y se hará de la siguiente manera

1. Nos dirigimos a la herramienta INQUIRE que está ubicada en la


parte de HOME donde seleccionaremos la sub-herramienta
INQUIRE-BOX.

Ilustración 19: Herramienta INQUIRE-BOX


2. Se desplegará un recuadro y una ventana en donde nos muestra las
medidas o coordenadas de nuestro recorte.

Ilustración 20: Despliegue INQUIRE BOX

3. Luego de esto nos dirigimos a RASTER a la herramienta SUBSET &


CHIP donde seleccionaremos la subherramienta CREATE SUBSET
IMAGE la cual nos permitirá hacer el recorte de nuestra imagen que
previamente seleccionamos en el inquire box.

Ilustración 21: Posición de la herramienta SUBSET & CHIP- CREATE SUBSET IMAGE
4. El programa nos muestra la interfaz del CREATE SUBSET IMAGE
en donde nos mostrara como queremos guardar nuestro recorte y si
lo queremos importar de nuestro INQUIRE BOX.

Ilustración 22: Interfaz CREATE SUBSET AND CHIP

5. Al terminar este proceso podremos ver el resultado de la siguiente


manera analizando si el recorte nos es útil para estudiar.

Ilustración 23: Vista del recorte


5.4. Perfiles de una imagen LANDSAT

En esta sección analizaremos los diferentes perfiles que podemos


encontrar en el recorte de la zona de estudio que anteriormente
escogimos. Para poder realizar esto procederemos a realizar los
siguientes procesos.

1. Para empezar, abrimos nuestro recorte el cual será multiespectral y


nos dirigiremos a la sección MULTIESPECTRAL donde
seleccionamos la herramienta SPATIAL PROFILE donde nos
mostrará los tres tipos de perfiles.

Ilustración 24: Selección herramienta SPATIAL PROFILE

2. Comenzaremos por el perfil espacial en donde tendremos que


realizar una polilínea en donde nos mostrara el espectro de
reflectancia de una sola banda o de muchas bandas esto a
preferencia de lo que vayamos a estudiar. En este caso banda 5

Ilustración 25: Interfaz SPATIAL PROFILE


3. Al ya haber realizado el perfil espacial procedemos a hacer el
estudio del perfil superficial, el cual nos arroja la reflectancia de los
valores del archivo de datos en una sola banda con un área
rectangular previamente seleccionada. En este caso lo mostraremos
con la banda 5.

Ilustración 26: Interfaz SURFACE PROFILE

5.5. Pseudocolor del recorte

Ahora procederemos a abrir la imagen con una banda especifica en


pseudocolor esto para poder identificar más fácil las coberturas y así
poder de acuerdo con el valor del píxel poder diferenciarlas como lo
veremos a continuación.

1. Abrimos nuestro recorte con las 7 bandas, pero con la diferencia de


que en la opción RASTER OPTIONS cambiaremos a
PSEUDOCOLOR y lo abriremos con la banda 5.

Ilustración 27: Apertura de la imagen


Ilustración 28: Selección de layer y pseudocolor

Se vera de la siguiente manera.

Ilustración 29: Infrarrojo cercano (pseudocolor)


2. Para nosotros poder ver los atributos que tiene la imagen que serán
necesarios para así dar color a las diferentes coberturas lo
podremos hacer desde la herramienta SHOW ATTRIBUTES que la
podemos encontrar en la sección de TABLE.

Ilustración 30: Herramienta de atributos

Y se mostraran en la parte inferior de la pantalla.

Ilustración 31: Tabla de atributos

3. Para poder hacer la selección de pixeles según su valor, lo haremos


por medio de la herramienta CRITERIA por medio de rangos.

Ilustración 32: Criteria


4. Se desplegará la interfaz de la herramienta donde pondremos
nuestros valores para discriminar los pixeles.

Ilustración 33: Interfaz de criteria con operación

5. Procederemos a seleccionar los pixeles que estén dentro del rango y


haciendo clic sobre uno de ellos podremos cambiar el color de ellos
para así ver el resultado.

Ilustración 34: Asignación de color azul


Ilustración 35: Asignación de color amarillo

De esta manera vemos los resultados al discriminar diferentes


coberturas por medio de los valores del píxel y dándoles un color
respectivo a cada una.
5.6. Fusión de imágenes

Ahora realizaremos la fusión de imágenes por tres diferentes métodos, pero


solo utilizando un método de remuestreo el cual será “vecino más cercano”
en donde principalmente se revisará la mejora del píxel y como cambia su
resolución espacial y espectral.

Para esta fusión utilizaremos solo una herramienta, pero en ella


cambiaremos los métodos para ver cómo se diferencian entre ellos. Esta
herramienta es PAN SHARPEN y la subherramienta que utilizaremos
RESOLUTION MERGE.

Ilustración 36: Herramienta RESOLTION MERGE


5.6.1. Fusión de imágenes: Transformada de Brovey

1. Después de a ver hecho clic en la herramienta que vamos a utilizar


se abre la interfaz del RESOLUTION MERGE en donde la primera
imagen que subimos será la pancromática y luego la RGB-
Verdadero Color.

Ilustración 37: Orden de la PAN y RGB-VC

2. Luego seleccionamos el método que utilizaremos (en este caso


transformada de brovey) y la técnica de resampleo que como
previamente lo habíamos dicho será vecino más cercano (Nearest
Neighbor).

Ilustración 38: Fusión transformada de Brovey-nn


3. Para finalizar y así poder poner nuestro resultado pasamos la
imagen a un tipo de dato (Data Type) de salida de 16 bit

Ilustración 39: Data type de 16 bit

4. Abrimos nuestras dos imágenes a comparar en este caso imagen de


la transformada de brovey y verdadero color.

Ilustración 40: Apertura Trans. Brovey y RGB-VC


5. Para poder comprar el resultado con alguna otra imagen lo podemos
hacer haciendo uso de la herramienta SWIPE.

Ilustración 41: Herramienta de comparación

6. Nos mostrara esto.

Ilustración 42: Comparación entre las imágenes TB y RGB-VC


5.6.2. Fusión de imágenes: Multiplicación

1. Después de a ver hecho clic en la herramienta que vamos a utilizar


se abre la interfaz del RESOLUTION MERGE en donde la primera
imagen que subimos será la pancromática y luego la RGB-
Verdadero Color.

Ilustración 43: Orden de la PAN y RGB-VC

2. Luego seleccionamos el método que utilizaremos (en este caso


multiplicación) y la técnica de resampleo que como previamente lo
habíamos dicho será vecino más cercano (Nearest Neighbor).

Ilustración 44: fusión por multiplicación-nn


3. Para finalizar y así poder poner nuestro resultado pasamos la
imagen a un tipo de dato (Data Type) de salida de 16 bit.

Ilustración 45: Asignación 16 bit

4. Abrimos nuestras dos imágenes a comparar en este caso imagen de


la multiplicación y verdadero color.

Ilustración 46: Imagen de multiplicación y RGB-VC


5. Se mostrará esto:

Ilustración 47: RGB-VC y multiplicación

5.6.3. Fusión de imágenes: Componentes Principales

1. Después de a ver hecho clic en la herramienta que vamos a utilizar


se abre la interfaz del RESOLUTION MERGE en donde la primera
imagen que subimos será la pancromática y luego la RGB-
Verdadero Color.

Ilustración 48: Orden de la PAN y RGB-VC


2. Luego seleccionamos el método que utilizaremos (en este caso
componentes principales) y la técnica de resampleo que como
previamente lo habíamos dicho será vecino más cercano (Nearest
Neighbor).

Ilustración 49: Fusión Componentes Principales-nn

3. Para finalizar y así poder poner nuestro resultado pasamos la


imagen a un tipo de dato (Data Type) de salida de 16 bit

Ilustración 50: Asignación 16 bit


4. Abrimos nuestras dos imágenes a comparar en este caso imagen de
los componentes principales y verdadero color.

Ilustración 51: Apertura imagen PP-RGB-VC

5. Se mostrará esto:

Ilustración 52: PP-RGB-VC


5.7. Estadística de una imagen

5.7.1. Estadísticas unibanda

Para mostrar la estadística de nuestra imagen a trabajar haremos los


siguientes pasos:

1. Abrimos nuestra imagen recortada utilizando la opción de


pseudocolor con la banda 5.

Ilustración 53: Banda 5 (pseudocolor)

2. Hacemos un recorte de 25 x 25 pixeles

Ilustración 54: Recorte de 25 x25


3. Debemos tener en cuenta el tamaño del píxel ya que si el tamaño
del píxel es de 15 nos quedara de 50x50. Si esto ocurre cambiamos
el tamaño del píxel a 30 de la siguiente manera:

Ilustración 55: Tamaño del recorte y del píxel

a. Abrimos la herramienta SPATIAL y escogemos RESAMPLE


PIXEL SIZE se desplegará la interfaz de esta y daremos en nuevo
tamaño del pixel que será X= 30 y Y= 30 en las casillas
correspondientes.

Ilustración 56: Pixel de 15 Ilustración 57: Pixel de 30


b. Verificamos en el metadato de la imagen si el tamaño del píxel y el
tamaño del recorte corresponden con lo solicitado. (Este
procedimiento fue realizado para obtener un total de 625 datos).

Ilustración 58: Comprobación de tamaño

4. Luego de obtener nuestro recorte con el tamaño correcto de pixel


podemos dirigirnos al metadato, ver los valores de los pixeles y
obtener nuestra matriz de 25x25

Ilustración 59: Matriz de 25x25


5. Para finalizar con la obtención de valores estadísticos de nuestro
recorte de 25x25 nos trasladamos a Excel para hacer un buen
procesamiento de los datos, donde pegaremos nuestra matriz y la
volveremos una sola columna para así hacer más sencillo el
desarrollo de la información.

Ilustración 60: Estadística unibanda

a. En ella encontraremos:

 Frecuencia
 Frecuencia acumulada
 Mediana
 Moda (puede ser unimodal o multimodal)
 Media
 Varianza (Medida del contraste que proporciona la imagen)
 Desviación estándar
5.7.2. Estadísticas multibanda

Para realizar hallar los valores estadísticos que tenemos en una


imagen multiespectral debemos hacer lo siguiente

1. Debemos obtener una imagen multibanda como lo hemos hecho


previamente esto lo haremos por medio del LAYER STACK uniendo
las diferentes bandas que tenemos en las siguientes imágenes:

 Imagen de componentes principales (3 bandas)


 Imagen de transformada de Brovey (3 bandas)
 Imagen de multiplicación (3 bandas)
 Pancromática (1 banda)

Esto para un total de 13 bandas las cuales deben estar todas en un


formato de 16 bits (Todas las bandas de cada una de las imágenes
deben ser añadidas):

Ilustración 61: Unión de las 13 bandas (LAYER SATCK)


2. Al hacer esta unión de las bandas obtendremos la siguiente
imagen.

Ilustración 62: 13 bandas unidas

3. Al ya haber obtenido nuestra imagen lo que debemos hacer para


obtener las estadísticas de ella es irnos a la sección de TOOLBOX
para utilizar la herramienta MODEL MARKER con la cual
obtendremos la matriz covarianza y correlación.

a. Nos dirigimos a MODEL MARKER donde se abrirá la siguiente


interfaz

Ilustración 63: Herramienta MODEL MARKER


b. Con esta herramienta seleccionamos ciertas figuras que nos van a
ayudar de la siguiente manera:

i. Cargamos la imagen

Ilustración 64: Carga de Imagen

ii. Luego utilizamos la herramienta que nos ayudara con el cálculo


de la función a realizar que en este caso serán la covarianza y
la correlatividad.

Ilustración 65: Operación que se hará a la imagen


Ilustración 66: Operación de Correlación

iii. Luego seleccionamos la opción que nos genera la matriz en


esta particularmente daremos clic OUTPUT y en SHOW
MATRIX SESSION LOG para que nos muestre la matriz. (Mismo
proceso para correlación y covarianza).

Ilustración 67: Output de la matriz


c. Después de ya haber realizado el esquema corremos este para
que nos genere la matriz en el SESSION LOG. (Mismo proceso
para correlación y covarianza).

Ilustración 68: Opción de correr el programa

4. Nos ubicamos en la sección del VIEW SESSION LOG para así


poder ver nuestra matriz. (Mismo proceso para correlación y
covarianza).

Ilustración 69: Herramienta SESSION LOG


Nuestra matriz de covarianza se vería de la siguiente manera

Ilustración 70: Visualización de la matriz

5. Esta matriz es pegada a un bloc de notas donde eliminamos las


fechas y las horas, reemplazamos los “.” por “,” y la guardamos.
(Mismo proceso para correlación y covarianza).

Ilustración 71: Matriz en el bloc de notas

6. Procedemos a abrir nuestra matriz en Excel para así poder hacer su


proceso respectivo. Al tener 13 bandas debemos obtener una matriz
de 13x13 en ambos casos. (Mismo proceso para correlación y
covarianza).

Ilustración 72: Matriz en Excel (Correlatividad)


Ilustración 73: Matriz en Excel (Covarianza)
7. Procedemos a hacer el cálculo del OIF en la matriz de
correlación.

Ilustración 74: OIF mas optimo (2,5,6)


8. Ahora con nuestra matriz de 13 x 13 vamos a hacer la comparación
de la pancromática con las fusionadas y del verdadero color con las
fusionadas.
Ilustración 75: Matriz Correlación con sus bandas

Ilustración 76: Fusiones vs RGB

Ilustración 77: Fusiones vs Pancromática

9. Para finalizar con la estadística multibanda lo último que haremos


será una muestra de los histogramas bidimensionales de nuestra
imagen de 13 bandas. Seleccionamos la sección de RASTER, nos
dirigimos a la herramienta SUPERVISED y seleccionamos la
subherramienta FEATURE SPACE IMAGE.
Ilustración 78: Herramienta de despliegue de histogramas

10. Se abrirá la interfaz de FUEATURE SPACE IMAGE donde


seleccionaremos OUTPUT TO VIEWER para que nos muestres
todos los histogramas.

Ilustración 79: Interfaz CREATE FEATURE SPACE IMAGES


11. Por último, se mostrará la comparación entre 2 bandas que tienen
buena correlatividad y 2 que no tienen mucha ya que sus puntos
están más dispersos.

Ilustración 80: Comparación de histogramas


5.8. Correcciones radiométricas

5.8.1. Corrección de una imagen landsat 7 ETM+

Para la realización de este proceso lo primero que debemos obtener es


una imagen que cuente con pérdida de información

1. Obtenemos la imagen de la página de USGS del satélite Landsat 7


ETRS +, procedemos a abrirla en ERDAS Image para verificar que
este dañada.
2. Hacemos la unión de las bandas para así poder obtener más
información y color en la imagen

3. Realizamos un recorte en la imagen en donde contemplemos la mitad


de ella con líneas de rayado y la otra no para así apreciar el cambio.
4. Ahora con la herramienta Focal Analysis realizaremos las respectivas
iteraciones para así mejorar y eliminar el rayado en la imagen.

5. Al desplegarse la ventana de la herramienta se configurar de la


siguiente manera para que así nos ayude a restaurar los valores de
rayado y con esta quitar los datos atípicos.
6. Hacemos la cantidad necesaria de iteraciones hasta conseguir que el
rayado de líneas ha desaparecido.
a. Primera iteración:
b. Segunda Iteración

.
5.9. Filtrado de imágenes satelitales

A continuación, realizaremos diferentes tipos de filtros a la imagen Landsat 8 que


hemos descargado para así poder resaltar o suprimir de una forma selectiva
información que se encuentra dentro de la imagen para poder identificar diferentes
objetos o descubrir anomalías en ella.

1. Abrimos nuestra imagen verdadero color la cual realizamos previamente y


seguido a esto abrimos la herramienta MODEL MAKER.

2. Al momento de desplegarse añadiremos la imagen entrante, la matriz del tipo de


filtro que utilizaremos, el tipo de operación que utilizaremos en este caso será
una CONVOLUCIÓN y la imagen saliente como se muestra en la imagen.
5.9.1. Filtro paso bajo

5.9.1.1. Filtro de media

Para poder ver el resultado de este método lo primero que tenemos


que hacer es asignar la matriz correspondiente.

5.9.1.2. Filtro de media ponderada

A continuación, para la obtención de este filtro ya que n esta


predeterminado en el programa, se hará manualmente la asignación
de los valores en la matriz.
5.9.2. Filtro paso alto

Este filtro lo encontramos por defecto en el programa con el cual vamos a


realzar el contraste de los objetos.

5.9.2.1. Filtro menos media

Para obtener un resultado de este filtro debemos poner los valores


de la matriz en cada uno de los espacios manualmente ya que el
programa no los tiene por defecto
5.9.2.2. Filtros basados en derivadas

Estos filtros se dividen en dos por un lado tenemos el filtro


laplaciano y el filtro menos laplaciano, estos nos van a ayudar a
ver los cambios que sean más o menos bruscos que son
producidos entre pixeles antiguos.

5.9.2.2.1. Filtro Laplaciano

5.9.2.2.2. Filtro menos Laplaciano


5.9.3. Filtros direccionales

Con esta clase de filtros se detectarán estructuras que sigan determinada


dirección para así resaltar los objetos que estén en ella.

5.9.3.1. Filtro Norte - Sur

5.9.3.2. Filtro Este – Oeste


5.9.4.Filtro para la detección de bordes

Para este método utilizaremos los filtros Sobel el cual nos ayudara a
realzar la variación que hay entre filas y columnas.

5.9.4.1. Filtro Sobel C


5.9.4.2. Filtro Sobel F

5.9.5. Filtros del


Software

5.9.5.1. Filtro Edge


Detect
5.9.5.2. Filtro Edge Enhance

5.9.5.3. Horizontal
5.9.5.4. Filtro Vertical

5.9.5.5. Filtro Summary


5.10. Análisis de Componentes Principales

Esta metodología de Componentes Principales se basa en un


transformación que permite disminuir la redundancia y se emplea con
antelación a un análisis visual o a una técnica más compleja de clasificación
por medio de algoritmos matemáticos.

El objetivo de este técnica es sintetizar toda la información incluida en un


grupo de N bandas espectrales aun grupo menos de nuevas bandas.

Ver anexo 1

5.11. Transformada de Tasseled Cap


Con la utilización de este método se relacionan las bandas por medio de una
combinación lineal la cual va a obtener un significado que guarda una
relación principalmente con la vegetación.

En los siguientes pasos veremos como el programa omitiendo la banda del


infrarrojo, arrojándonos 6 bandas las cuales corresponden la humedad, el
verdor y el brillo.

1. Lo primero que hacemos es abrir la herramienta Tasseled Cap

2. Al ver la ventana de la herramienta seleccionamos el tipo de satélite


que será LANDSAT 4 TM y podemos ver la matriz que acompaña a las
bandas.
3. Con la imagen resultante de nuestro Tasseled Cap sacaremos la
banda numero 2 la cual esta relacionada con la vegetación que
tendremos en ella lo cual haremos con un Layer Stack.

4. Al haber sacado esta banda procedemos a abrirla configurando Ráster


Options para
poderla abrir
como
pseudocolor.
5. Con la imagen que acabamos de crear, lo que haremos será abrirla en
pseudocolor como lo hemos hecho previamente para así poder
discriminar la cobertura de vegetación con la ayuda de la herramienta
SHOW CRITERIA.
5.12. Índice de vegetación

Este índice es mas conocido como Índice Normalizado de Vegetación (NDVI)


en donde la diferencia entre las bandas 4 y 3 nos mostrara la cobertura
vegetal y el estado en el que este en estas se muestra una reflectividad muy
alta y baja respectivamente.

Para poder identificar estos índices se seguirán los siguientes pasos:

1. Abriremos nuestra imagen previamente concatenada de 7 bandas y


vamos a la herramienta UNSUPERVISED se desplegará un menú de
opciones y daremos clic en NDVI.
2. En el momento que esta se despliegue al tener 7 bandas el programa
toma la imagen como si fuera una Landsat 8 MS en la cual
especificaremos su rojo e infrarrojo cercano.

3. Para que podamos ver el histograma y poder discriminar la vegetación


del resto de las coberturas nos dirigimos la METADATA en donde
daremos clic en histograma.
4. Con la imagen que acabamos de crear, lo que haremos será abrirla en
pseudocolor como lo hemos hecho previamente para así poder
discriminar la cobertura de vegetación con la ayuda de la herramienta
SHOW CRITERIA.

5.13. Georreferenciación de una imagen


En esta sección lo que haremos será georreferenciar una imagen la cual no
tenga un sistema de coordenadas tomando como base una imagen que si
las tenga para así poderla orientar de una forma correcta.

1. Para este caso tenemos una imagen de una parte de Bogotá la cual no
esta referenciada entonces descargaremos una que tenga esta misma
zona en la pagina de USGS y concatenaremos sus 7 bandas como lo
hemos hecho previamente.

2. Procedemos a realizar el recorte de la imagen, este tiene que coincidir


con la misma zona o una aproximada para poder hacer la
georreferenciación.

3. Procedemos a abrir nuestra imagen la cual no esta georreferenciada.


4. Nos dirigimos a la herramienta CONTROL POINTS en donde se
desplegará una tabla donde encontraremos los modelos geométricos,
para este caso escogeremos polinomial.
5. Al momento de aceptar veremos en pantalla nuestra imagen en
MULTIPOINT GEOMETRIC CORRECTION, pondremos la imagen sin
georreferenciar

6. Procedemos a abrir nuestra imagen ya georreferenciada en esta


misma ventana para así poder encontrar una comparación entre las
dos con la herramienta REFERENCE MAP INFORMATION.
7. Podremos ver la imagen sin georreferenciar al lado izquierdo y la
georreferenciada en el lado derecho, se procede a iniciar la colocación
de los puntos de control los cuales nos ayudaran a orientar nuestra
imagen con respecto a la otra con cierto error que el programa
corregirá después de que se pongan mas de tres puntos de control.
Los primeros tres deben ser colocados por el usuario uno en la imagen
de la izquierda y el otro en la imagen de la derecha en lo posible en el
mismo lugar.
8. Luego seleccionamos la herramienta RESAMPLE la cual nos dará el
resultado final de nuestra georreferenciación, algo que se debe tener
presente es el tamaño del pixel el cual en nuestro caso será de 30 x
30.

9. Al momento de aceptar
esta opción nuestra
imagen ya estará
georreferenciada.
5.14. Extracción de la información temática

Con los siguientes métodos de extracción lo que se realizara es discriminar


los datos según sus firmas espectrales para así poder observar las
diferentes coberturas que tenemos en nuestra zona de estudio para
determinar la naturaleza de los objetos para esto vamos a utilizar dos
métodos una clasificación supervisada y no supervisada. La expondremos
en 2 diferentes software como lo son ERDAS y ENVI.

5.14.1. Clasificación supervisada en ERDAS


1. Utilizaremos la imagen falso color de nuestro recorte original para así
poder discriminar los valores por la diferencia de rojos que podemos
ver en esta nos dirigimos a la opción de RASTER para escoger la
herramienta supervisada y vamos a la opción SIGNATURE EDITION.

2. Al momento de desplegarse la ventana de la opción que escogimos


veremos una tabla vacía, esta la llenaremos con las diferentes clases
con las que vamos a clasificar la imagen.

3. No cerraremos esta pestaña solo la minimizamos, procedemos a


hacer nuestros polígonos para así poder asignar las clases esto lo
haremos dando clic en RASTER y la opción DRAWING en la opción
POLYGON.
4. Haremos tantos polígonos como coberturas veamos y así mismo las
creamos con el mismo nombre en el SIGNATURE EDITION.

5. Finalizado el proceso de discriminación de coberturas volvemos a la


opción RASTER en donde seleccionaremos SUPERVISED y abrimos
la herramienta SUPERVISED CLASSIFICATION.

6. Nos dirigimos a la herramienta SUPERVISED a la opción


SUPERVISED CLASSIFICATION aquí debemos tener muy presente
la forma en que ingresamos los datos, la imagen que ingresamos será
con la que estamos trabajando la cual será falso color, ingresamos
nuestro SIGNATURE que serán los polígonos que creamos y
guardamos, por último, escogemos la regla paramétrica a utilizar para
así poder ver los resultados.
7. Por último, para poder observar la ubicación de los puntos de control
que se han tomado nos vamos a la herramienta SUPERVISED a la
opción ACCURACY ASSESSMENT daremos clic en la parte
mostrada y con clic izquierdo a la imagen que acabamos de crear,
así es EDIT damos clic en CREATE/ADD RANDOM POINTS para
así ver los puntos.
5.14.2. Clasificación supervisada ENVI

1. Lo primero que haremos es abrir la imagen la cual le vamos a


realizar la clasificación.

2. Nos dirigimos a la herramienta REGION OF INTEREST (ROI)


en el cual dibujaremos los polígonos de las diferentes coberturas
estos deben tener área similar, tomaremos uno y el otro será de la
misma cobertura, pero de diferente zona para así tener una
referencia.

3. Podemos poner cuantos polígonos queramos de las diferentes


coberturas que observemos.
4. Ahora escogeremos la regla paramétrica la primera será
mahalanobis los mismos pasos se realizarán para máxima
probabilidad, mínima distancia, K-medias y IsoData.

5. Al momento en el que se despliegue la pestaña de la herramienta


veremos que están todas las clases que hicimos previamente pero
no utilizaremos todas, las únicas serán las que no son de referencia.
6. Después de obtener el resultado vamos a buscar la matriz para
nosotros saber los errores por comisión y omisión, que lo haremos
con la herramienta CONFUSION MATRIX USING GROUND TRUTH
ROIs, en esta vamos a relacionar las clases y las clases de
referencia.

7. Al momento de aceptar vemos la matriz donde se nos mostraran los


errores por el método de mahalanobis sabremos que es buena si es
superior al 75%.
La cual veremos organizada en el Anexo 2 para ver matriz de
mahalanobis, máxima probabilidad y IsoData.

8. Para IsoData el proceso es un poco diferente ya que debemos fijar


un numero de iteraciones que realice el programa y el número de
clases mínima como se muestra en la imagen.
6. RESULTADOS

6.1. Imagen descargada

Ilustración 81: Resultado apertura de todas las bandas

Como podemos ver nuestra imagen descargada se ve en una escala


de grises ya que para que nos de algún color la imagen necesitamos
del RGB en la combinación que se requiera para dar un falso color o
un color verdadero.
Ilustración 82: Banda 1 Ilustración 83: Banda 2
Ilustración 84: Banda 3 Ilustración 85: Banda 4

Ilustración 86: Banda 5 Ilustración 87: Banda 6


Ilustración 88: Banda 7 Ilustración 89: Banda 8

Ilustración 90: Banda 9 Ilustración 91: Banda 10


Ilustración 92: Banda 11

6.2. Unión de bandas en ERDAS IMAGE

Ilustración 93: Resultado LAYER STACK verdadero color

1. Como observamos al ya haber realizado la unión con la herramienta


LAYER STACK ya tenemos color en nuestra imagen en este caso un
verdadero color (4,3,2) por así decirlo vemos la imagen como nuestros
ojos ven.
Ilustración 94: Resultado LAYER STACK infrarrojo cercano

2. En esta imagen obtuvimos un falso color haciendo la combinación de


3 bandas (5,3,2) algo como un infrarrojo cercano, esto para dar un
ejemplo de todas las combinaciones posibles que podemos hacer
para así poder discriminar los datos que necesitemos.

6.3. Recorte de una imagen

Ilustración 95: Resultado recorte imagen LANDSAT


 Al ya haber efectuado el recorte podemos ver como mejora la resolución
espectral, esto nos ayuda para poder observar de mejor manera los datos
que vamos a estudiar, ya teniendo nuestra zona de estudio en la cual vamos
a centrar todo nuestro trabajo podremos hacer un mejor uso de la
información.

6.4. Pseudocolor

6.4.1. Resultado del pseudocolor

Ilustración 96: Resultado apertura pseudocolor banda 5

 Como podemos apreciar la única banda que se abrió (aun siendo una imagen
multiespectral) que será la banda 5 del infrarrojo cercano podemos ver que
esta se encuentra en escala de grises ya que no esta combinada con ninguna
otra banda así que lo que estamos viendo es la reflectancia de los objetos en
el infrarrojo cercano.
6.4.2. Discriminación de coberturas (Pseudocolor)

Ilustración 97: Resultado 5 coberturas

1. Lo primero que vemos es el color azul como sabemos en el infrarrojo


cercano en una escala de grises el agua se muestra muy oscura
como lo vemos en la imagen anterior a esta, al ya haber discriminado
los pixeles que hacen referencia a esta cobertura, así que nuestra
primera cobertura será el agua.

2. Lo segundo que vemos es el color beige a lo cual haremos referencia


al suelo desnudo que es aquel que tiene los valores mas bajos de los
pixeles es decir los más claros.

3. Del color verde oscuro podemos identificar bosque denso y ciertos


tipos de cultivos.

4. El color amarillo hace referencia a los pastos que se encuentran en la


zona de estudio.

5. Por último, encontramos el color verde claro que en este caso lo


haremos referencia a lo que son las construcciones que se
encuentran allí.
6.5. Fusión de imágenes

6.5.1. Transformada de Brovey

Ilustración 98: Apertura TB-RBG_VC

 Como podemos ver en la imagen se percibe una notoria diferencia entre las
dos imágenes y más en como en la podemos ver, la vemos un poco más
nítida, pero si nos fijamos bien estamos ganando riqueza espacial gracias a la
banda del pancromático, pero perdemos un poco de riqueza espectral (color
de la imagen).
6.5.2. Multiplicación

Ilustración 99: Apertura Multiplicación-RGB_VC

 En la parte izquierda tenemos la imagen verdadero color sin ningún método


de fusión y en la parte derecha tenemos la fusión por medio de la
multiplicación al hacer un análisis más profundo de la imagen observamos
que la perdida de riqueza espectral es muy notoria, vemos como se torna un
poco opaca a comparación del anterior método, claramente ganamos riqueza
espacial percibiendo que es más fácil discriminar ciertos objetos que sin
ningún tipo de fusión.
6.5.3. Componentes Principales

Ilustración 100: Apertura Componentes Principales-RGB_VC

 para hacer la fusión de imágenes, así como lo vemos ganamos una riqueza
espacial considerable y una riqueza espectral donde podemos apreciar de
una mejor manera las coberturas y así poderlas discriminarlas de mejor
manera, esta aprovecha lo mejor de las dos imágenes primero de la
pancromática con su excelente resolución espacial y mejora la resolución
espectral de los pixeles como lo vemos en ella. (Parte izquierda: Imagen de
componentes principales y Parte derecha: Imagen RGB (4,3,2).
6.6. Recorte de 25 x 25

Ilustración 101: Resultado recorte 25x25

 En este recorte podemos observar el número de pixeles que tenemos


y así mismo cada celda representara un espacio de la matriz, al
estar tan cerca podemos ver píxel por píxel.
6.7. Unión de las fusiones, pancromática y verdadero color

Ilustración 102: Resultado LAYER STACK


 Como vemos en la imagen este es el resultado de haber unido las 13
bandas de las fusiones, la pancromática y el verdadero color, de esta
obtendremos las estadísticas que nos ayudaran a los diferentes
análisis que vayamos a hacer ya sea la matriz de correlación, la matriz
de covarianza para el cálculo del OIF y más cosas que estaremos
desarrollando conforme se avance.
6.8. Correcciones Radiométricas

Ilustración 103 Corrección Radiométrica

 Como podemos observar nuestra imagen que posteriormente contenía


gaps en ella ya fueron eliminados, con lo cual reparamos el problema
que tenía el sensor del LANDSAT 7 ETM+ así podremos trabajar con la
imagen como podemos ver cada vez que se realizó una iteración el
color en la imagen tuvo un realce y los gaps fueron disminuyendo.
6.9. Filtrado de imágenes satelitales

6.9.1. Filtro paso bajo

6.9.1.1. Filtro de media

6.9.1.1. Filtro de media ponderada


6.9.2. Filtro paso alto

6.9.2.1. Filtro menos media


6.9.2.2. Filtros basados en derivadas

6.9.2.2.1. Filtro Laplaciano

6.9.2.2.2. Filtro menos Laplaciano


6.9.3 Filtros direccionales

6.9.3.1. Filtro Norte - Sur

6.9.3.2. Filtro Este - Oeste


6.9.4. Filtro para la detección de bordes

6.9.4.1. Filtro Sobel C

6.9.4.2. Filtro Sobel F


6.9.5. Filtro del Software

6.9.5.1. Filtro Edge Detect

6.9.5.2. Filtro Edge Enhance


6.9.5.3. Filtro Horizontal

6.9.5.4. Filtro Vertical


6.9.5.5. Filtro Summary
6.10. Transformada de Tasseled Cap

 Como podemos observar con el proceso tasseled cap pasamos de


tener 6 bandas a tener 3 las cuales las cuales nos van a representar el
brillo de la imagen, el verdor y la humedad facilitando la discriminación
de las diferentes coberturas que podamos encontrar enfatizando más
la vegetación.

 Como podemos ver cuando abrimos en pseudocolor vamos a poder


hacer la clasificación de las coberturas
 Como podemos observar es una clasificación regular de coberturas
ya que contiene muchos errores en cuestión de la información ya
conocida y comparándola con esta misma, al solo contar con la ayuda
del INQUIRE para asi saber el valor del pixel, al analizar la cobertura
de agua vemos como da valores de agua en donde hay
construcciones también como el agua de rio se confunde con el agua
del lago

6.11. Índice de Vegetación


 Con índice de vegetación podemos ver que el agua se diferencia
demasiado de las otras coberturas haciendo más fácil la
discriminación de esta así también el suelo desnudo, los cultivos y el
bosque denso muestran una respuesta espectral muy diferente a las
otras y con la ayuda nuestro histograma podemos saber la vegetación
sana, dañada o en donde no hay vegetación observando las dos
campanas de gauss que nos muestra este dando un mejor resultado
que TASSELED CAP.
6.12. Georreferenciación de una imagen

 Después de realizado el proceso con la imagen base que teníamos


cada pixel se ha ubicado en su posición planimétrica
correspondiente para así remover la distorsión geométrica,
sabremos que nuestro resultado es optimo si hacemos un SWIPE
con nuestra imagen base y la que georreferenciamos con esta, el
resultado debe ser el mostrado en la imagen.
6.13. Extracción de la información temática

6.9.5. Extracción por Mínima Distancia, Malahanobis, Máxima


Probabilidad (ERDAS)
6.9.5. Extracción por Mínima Distancia, Malahanobis, Máxima
Probabilidad, IsoData, K-medias (ENVI)
7. ANEXOS

7.1. ANEXO 1

Ejercicio:

Para obtener la ecualización del histograma, es necesario conocer:


 Valor de brillo original BVi
 Valor de brillo Bvi
 Frecuencia f(BVi )
 Probabilidad f(BVi )/n
 Asignar clase BVi original a la nueva clase es más cercano al valor

Completar la siguiente tabla:

Original Brightnes Li Frequenc Probability ki Ki vr Li Assign


brightnes s value, y f(BVi ) f(BVi )/n original BVi
s value BVi class to the new
BVi class it is
closest to in
value
0 BV 0 790 0.1883 0.188 1
3
1 BV 0.1 1023 0.2438 0.432 4
1
2 BV 0.2 850 0.2026 0.634 6
7
3 BV 0.3 656 0.1563 0.791 7
4 BV 0.4 329 0.0784 0.869 8
4
5 BV 0.5 245 0.0584 0.927 9
8
6 BV 0.6 122 0.0290 0.956 9
8
7 BV 0.7 81 0.0193 0.976 9
1
8 BV 0.8 71 0.0169 0.993 9
9 BV 0.9 3 0.000715 0.993 9
7
10 BV 1 25 0.00595 1 10
7.2. ANEXO 2
7.3. ANEXO 3
1. Matriz de Malahanobis

Confusion Matrix      
         
Overall Accuracy = (363/365) 99,4521%
Kappa Coefficient = 0.9933  

Ground Truth (Pixels)


SUELO CONSTRUCCIONE BOSQUE AGUA RIO AGUA
Class CULTIVOS REF DESNUDO REF REF DENSO REF REF REFE TOTAL
Unclassified 0 0 0 0 0 0 0
CULTIVOS 42 0 0 0 0 0 42
SUELO DESNUDO 0 95 0 0 0 0 95
CONSTRUCCIONE 0 0 59 0 0 0 59
BOSQUE DENSO 0 0 0 73 0 0 73
AGUA RIO 0 0 2 0 52 0 54
AGUA 0 0 0 0 0 42 42
Total 42 95 61 73 52 42 365

Ground Truth (Percent)


SUELO CONSTRUCCIONE BOSQUE AGUA RIO AGUA
Class CULTIVOS REF DESNUDO REF REF DENSO REF REF REFE TOTAL
Unclassified 0% 0% 0% 0% 0% 0% 0%
CULTIVOS 100% 0% 0% 0% 0% 0% 11,51%
SUELO DESNUDO 0% 100% 0% 0% 0% 0% 26,03%
CONSTRUCCION
E 0% 0% 96,72% 0% 0% 0% 16,16%
BOSQUE DENSO 0% 0% 0% 100% 0% 0% 20,00%
AGUA RIO 0% 0% 3,28% 0% 100% 0% 14,79%
AGUA 0% 0% 0% 0% 0% 100% 11,51%
Total 100% 100% 100% 100% 100% 100% 100%

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
CULTIVOS 0 0 0/42 0/42
SUELO DESNUDO 0 0 0/95 0/95
CONSTRUCCIONE
S 0 3,28 0/59 2/61
BOSQUE DENSO 0 0 0/73 0/73
AGUA RIO 3,7 0 1/27 0/52
AGUA 0 0 0/42 0/42

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
CULTIVOS 100% 100% 42/42 42/43
SUELO DESNUDO 100% 100% 95/95 95/95
CONSTRUCCIONES 96,72% 100% 59/61 59/59
BOSQUE DENSO 100% 100% 73/73 73/73
AGUA RIO 100% 96,30% 52/52 52/54
AGUA 100% 100% 42/42 42/42

2. Matriz de Mínima Distancia

Confusion Matrix      
         
Overall Accuracy = (359/365) 98,3562%
Kappa Coefficient = 0.9799  

Ground Truth (Pixels)


SUELO CONSTRUCCIONE BOSQUE AGUA RIO AGUA
Class CULTIVOS REF DESNUDO REF REF DENSO REF REF REFE TOTAL
Unclassified 0 0 0 0 0 0 0
CULTIVOS 42 0 0 0 0 0 42
SUELO DESNUDO 0 95 2 0 0 0 97
CONSTRUCCIONE 0 0 55 0 0 0 55
BOSQUE DENSO 0 0 4 73 0 0 77
AGUA RIO 0 0 0 0 52 0 52
AGUA 0 0 0 0 0 42 42
Total 42 95 61 73 52 42 365
Ground Truth (Percent)
SUELO CONSTRUCCIONE BOSQUE AGUA RIO AGUA
Class CULTIVOS REF DESNUDO REF REF DENSO REF REF REFE TOTAL
Unclassified 0% 0% 0% 0% 0% 0% 0%
CULTIVOS 100% 0% 0% 0% 0% 0% 11,51%
SUELO DESNUDO 0% 100% 3,28% 0% 0% 0% 26,58%
CONSTRUCCIONE 0% 0% 90,16% 0% 0% 0% 15,07%
BOSQUE DENSO 0% 0% 6,56% 100% 0% 0% 21,10%
AGUA RIO 0% 0% 0% 0% 100% 0% 14,25%
AGUA 0% 0% 0% 0% 0% 100% 11,51%
Total 100% 100% 100% 100% 100% 100% 100%

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
CULTIVOS 0 0 0/42 0/42
SUELO DESNUDO 2,06 0 2/97 0/95
CONSTRUCCIONES 0 9,84 0/55 6/61
BOSQUE DENSO 5,19 0 4/77 0/73
AGUA RIO 0 0 0/52 0/52
AGUA 0 0 0/42 0/42

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
CULTIVOS 100% 100% 42/42 42/42
SUELO DESNUDO 100% 97,94% 95/95 95/97
CONSTRUCCIONES 90,16% 100% 55/61 55/55
BOSQUE DENSO 100% 95% 73/73 73/77
AGUA RIO 100% 100% 52/52 52/52
AGUA 100% 100% 42/42 42/42

3. Matriz de Máxima Probabilidad


Confusion Matrix      
         
Overall Accuracy = (282/365) 77,2603%
Kappa Coefficient = 0,7192  

Ground Truth (Pixels)


SUELO CONSTRUCCIONE BOSQUE AGUA RIO AGUA
Class CULTIVOS REF DESNUDO REF REF DENSO REF REF REFE TOTAL
Unclassified 0 0 0 0 0 0 0
CULTIVOS 42 0 0 0 0 0 42
SUELO DESNUDO 0 92 0 0 0 0 92
CONSTRUCCIONE 0 3 61 0 38 42 144
BOSQUE DENSO 0 0 0 73 0 0 73
AGUA RIO 0 0 0 0 14 0 14
AGUA 0 0 0 0 0 0 0
Total 42 95 61 73 52 42 365

Ground Truth (Percent)


SUELO CONSTRUCCIONE BOSQUE AGUA RIO AGUA
Class CULTIVOS REF DESNUDO REF REF DENSO REF REF REFE TOTAL
Unclassified 0% 0% 0% 0% 0% 0% 0%
CULTIVOS 100% 0% 0% 0% 0% 0% 11,51%
SUELO DESNUDO 0% 96,84% 0% 0% 0% 0% 25,21%
CONSTRUCCIONE 0% 3,16% 100% 0% 73,08% 100% 39,45%
BOSQUE DENSO 0% 0% 0% 100% 0% 0% 20,00%
AGUA RIO 0% 0% 0% 0% 26,92% 0% 3,84%
AGUA 0% 0% 0% 0% 0% 0% 0,00%
Total 100% 100% 100% 100% 100% 100% 100%

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
CULTIVOS 0 0 0/42 0/42
SUELO DESNUDO 0 3,16 0/92 3/95
CONSTRUCCIONE
S 57,64 0 83/144 0/61
BOSQUE DENSO 0 0 0/73 0/73
AGUA RIO 0 73,08 0/14 19/26
AGUA 0 100 0/0 42/42

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
CULTIVOS 100% 100% 42/42 42/42
SUELO DESNUDO 96,84% 100% 92/95 92/92
CONSTRUCCIONES 100% 42,36% 61/61 61/144
BOSQUE DENSO 100% 100% 73/73 73/73
AGUA RIO 26,92% 100% 14/52 14/14
AGUA 100% 0% 0/42 0/0

4. Matriz K-Medias

Confusion Matrix      
         
Overall Accuracy = (175/271) 64,5756%
Kappa Coefficient = 0,571  

Ground Truth (Pixels)


AGUA
BOSQUE SUELO RIO
Class CONSTRUCCIONES DENSO CULTIVOS REFE AGUA REFE DESNUDO REFE TOTAL
Unclassified 0 0 0 0 0 0 0
Class 6 42 0 0 0 0 0 42
Class 4 0 1 30 0 0 0 31
Class 3 0 3 31 14 0 0 45
Class 2 0 0 0 59 0 0 59
Class 1 0 0 0 0 42 52 94
Unclassified 0 0 0 0 0 0 0
Total 42 1 61 73 42 52 271

Ground Truth (Percent)


AGUA
BOSQUE SUELO RIO
Class CONSTRUCCIONES DENSO CULTIVOS REFE AGUA REFE DESNUDO REFE TOTAL
Unclassified 0% 0% 0% 0% 0% 0% 0%
Class 6 100,00% 0% 0% 0% 0% 0% 15,50%
Class 4 0% 100% 49,18% 0% 0% 0% 11,44%
Class 3 0% 0% 50,82% 19,18% 0% 0% 16,61%
Class 2 0% 0% 0% 80,82% 0% 0% 21,77%
Class 1 0% 0% 0% 0% 100% 100% 34,69%
Unclassified 0% 0% 0% 0% 0% 0% 0,00%
Total 100% 100% 100% 100% 100% 100% 100%

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
Class 6 0 0 0/42 0/42
Class 4 96,77 0 30/31 0/1
Class 3 31,11 49,18 14/45 30/61
Class 2 0 19,18 0/59 14/73
Class 1 55,32 0 52/94 0/42
Unclassified 0 100 0/0 52/52

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
Class 6 50,82% 68,89% 42/42 31/45
Class 4 80,82% 100% 1 1/31
Class 3 100% 100% 31/61 31/45
Class 2 100% 44,68% 59/73 59/59
Class 1 100% 3,23% 42/42 21/47
Unclassified 0% 0% 0/52 0/0

5. Matriz IsoData

Confusion Matrix      
         
(175/27 64,5756
Overall Accuracy = 1) %
Coefficien
Kappa t = 0,571  

Ground Truth (Pixels)


AGUA
BOSQUE SUELO RIO
Class CONSTRUCCIONES DENSO CULTIVOS REFE AGUA REFE DESNUDO REFE TOTAL
Unclassified 0 0 0 0 0 0 0
Class 3 31 14 0 0 0 0 45
Class 2 0 59 0 0 0 0 59
Class 6 0 3 42 0 0 0 42
Class 1 0 0 0 42 0 52 94
Class 4 30 0 0 0 1 0 31
Unclassified 0 0 0 0 0 0 0
Total 61 73 42 42 1 52 271
Ground Truth (Percent)
AGUA
BOSQUE SUELO RIO
Class CONSTRUCCIONES DENSO CULTIVOS REFE AGUA REFE DESNUDO REFE TOTAL
Unclassified 0% 0% 0% 0% 0% 0% 0%
Class 3 50,82% 19,18% 0% 0% 0% 0% 16,61%
Class 2 0% 80,82% 0% 0% 0% 0% 21,77%
Class 6 0% 0,00% 100% 0% 0% 0% 15,50%
Class 1 0% 0% 0% 100% 0% 100% 34,69%
Class 4 49,18% 0% 0% 0% 100% 0% 11,44%
Unclassified 0% 0% 0% 0% 0% 0% 0,00%
Total 100% 100% 100% 100% 100% 100% 100%

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
Class 3 31,11 49,18 14/45 30/61
Class 2 0 19,18 0/59 14/73
Class 6 0 0 0/42 0/42
Class 1 55,32 0 52/94 0/42
Class 4 96,77 0 30/31 0/1
Unclassified 0 100 0/0 52/52

Class Commission Omission Commission Omission


  (Percent) (Percent) (Pixels) (Pixels)
Class 3
50,82% 68,89% 31/61 31/45
Class 2 80,82% 100% 59/73 59/59
Class 6 100% 100% 42/42 42/42
Class 1 100% 44,68% 42/42 42/94
Class 4 100% 3,23% 1 1/31
Unclassified 0% 0% 0/52 0/0

7.4. ANEXO 3
8. CONCLUSIONES

Podemos evidenciar como después de haber llevado un debido proceso la


herramienta ERDAS IMAGE dentro de lo que la hemos estudiado nos brinda un
satisfactorio resultado para la solución hacia nuestra problemática que
sencillamente se basa en adquirir la mayor información de nuestra imagen, en
este software interactuamos con la imagen de una manera sencilla llevando una
metodología en la cual aplicamos diferentes funciones a nuestra zona de estudio
la cual nos brindó un buen análisis del territorio.

Se llega a la conclusión de que las matemáticas y operaciones básicas nos dan


la información que no podemos ver conociendo de que más que una imagen es
un arreglo marcial, pero que es necesaria para así hacer un buen procesamiento
de la imagen, esto evidenciado en la estadística de la imagen y los diferentes
métodos que aplicamos para hacer mejoras en las resoluciones espectrales y
espaciales que vemos en la teoría y que el programa aplica desde su
programación, esto con el fin de dar un excelente resultado.

El usuario debe tener un conocimiento teórico de los conceptos básicos del


procesamiento digital de imágenes para así poder hacer un buen uso del
software al momento que se vaya a llevar a la práctica, ya que si se tiene
ausencia de este no reconocerá los procesos que se están llevando a cabo ni el
trasfondo de estos, afectando así el resultado final de la imagen y bajando la
calidad de este.

Con la clasificación ya realizada podemos ver como el software de ENVI es


mucho mas amigable con el usuario y hace la clasificación con mas eficacia que
ERDAS como lo pudimos ver en los resultados , centrándonos mas en el método
a escoger podemos ver como mahalanobis y máxima probabilidad son ambos
muy similares, tenemos IsoData y K-medias los cuales al momento de hacer la
clasificación nos muestran las clases pero estas se llegan a confundir cuando las
vamos a asociar con las de referencia y tenemos que mínima distancia dado los
resultados de la clasificación y haciendo la comparación con una imagen
verdadero color podemos ver que es la que mejor clasifica y arroja los mejores
resultados.
BIBLIOGRAFÍA

Aguilar Arias, H., Mora Zamora, R., & Vargas Bolaños, C. (2014). METODOLOGÍA
PARA LA CORRECCIÓN ATMOSFÉRICA DE IMÁGENES ASTER, RAPIDEYE,
SPOT 2 Y LANDSAT 8 CON EL MÓDULO FLAASH DEL SOFTWARE ENVI.
Aguayo, P. M. (2013). Apuntes de Teledetección:Indices de vegetación.
Carrion Ruiz, B., & Lerma, J. (2017). ANÁLISIS DE COMPONENTES PRINCIPALES
DE IMÁGENES MULTIESPECTRALES EN EL ÁMBITO DEL ARTE
RUPESTRE. CIGeo .
Cuartero, A. F. (2003). RECTIFICACIÓN Y ORTORRECTIFICACIÓN DE IMÁGENES
DE SATÉLITE:ANÁLISIS COMPARATIVO Y DISCUSIÓN . Revista
Internacional de ciencia y tecnologia de la informacion geográfica.
Dobernack, N. A. (2012). Procesamiento de Imagenes .
Gao, X., & Huete, A. y. (2003). Multisensor comparisons and validation of MODIS
vegetation indices at the semiarid Jornada Experimental Range. IEEE
Transaction on Geoscience and Remote Sensing.
Gonzalez, R. W. (1996). Procesamiento Digital de Imagenes. Addison-Weskey.
IDEAM -Instituto de Hidrología, Meteorología y Estudios Ambientales. (2011).
Protocolo de procesamiento digital de imágenes.
Lopez, E. (1991). Corrección Atmósferica en el espectro solar. Valencia.
Martín, V. (2016). INTERACCIÓN DE LA RADIACIÓN SOLAR CON LA SUPERFICIE
DE LA TIERRA Y LA ATMÓSFERA. Montevideo .
Martinez , A., Gallud, J., & Aboad, F. (2010). DISTORSIONES EN LA ADQUISICIÓN
DE IMAGENES DE TELEDECCIÓN Y SU CORRECIÓN.
Pellat, F. P. (2018). Correcciones atmosféricas relativas de imágenes de satélite:
patrones invariantes múltiples e inversiones.
Torres, F. L. (2018). Realce de la imagen digital .
V. Arévalo Espejo, J. G. (2004). CORRECCIÓN GEOMÉTRICA PARA LA
COMPARACIÓN DE IMÁGENES DE SATÉLITE DE DISTINTA RESOLUCIÓN .
Callejo. (2009). El uso de los metadatos para el desarrollo de un modelo de
interoperabilidad para las infraestructuras de datos espaciales.
Chuvieco, E. (1995). Fundamentos de Teledeteccion . Madrid: Ediciones RIALP.

También podría gustarte