Está en la página 1de 410

Procesamiento de Imágenes

Biomédicas
Representación de una imagen
¿Qué es una imagen?
Definición de Imagen
Una imagen puede ser definida matemáticamente por una
función:

F(x,y)
donde x e y son coordenadas espaciales de la imagen sobre
el plano y f es la intensidad o nivel de gris en ese punto
coordenado
Imagen digital

Si las coordenasas x e y,
junto con la amplitud de
los valores de f, son
cantidades discretas,
entonces hablamos de
una imagen digital o mapa
de bits.
Pixel
Unidad más pequeña
de información que
compone una
imagen.

La cantidad de pixeles
de una imagen
determina el tamaño
en BYTES que esta
tendrá.
Mapa de Bits
Las imágenes mapa de bits
se refieren a que la imagen
estará construida por una
cuadrícula discreta que va a
contener información acerca
del color de cada una de
ellas.
Profundidad de Pixel

A las imágenes en mapa de bits


se las suele definir por la
cantidad de pixeles, tamaño de
la imagen y por su profundidad
de color (en bits por píxel), que
determina la calidad del color
de la imagen.
Profundidad de Pixel
Profundidad de Pixel
Profundidad de Pixel
Profundidad de Pixel
Profundidad de Pixel
La cantidad y
profundidad de los
píxeles que
componen una
imagen tiene un
importante efecto
sobre la percepción
de la misma.
Vecindad entre Píxeles
Es importante primero clarificar de
qué manera serán tomas los ejes
cartesianos, que definen el plano
de una imagen. En principio uno
podría poner los ejes en cualquier
lugar que desee, pero de forma
conveniente se suele usar como
origen de coordenadas el extremo
superior derecho de la imagen.
Vecindad entre Píxeles
Un píxel P ubicado en las coordenadas (x,y) posee dos
vecinos verticales y dos vecinos verticales y sus coordenadas
serán expresadas por:

★ (x-1,y);(x+1,y) en dirección horizontal 0º.


★ (x,y-1);(x,y+1) en dirección vertical 90º.

Este se conjunto se denomina vecindad-4 o vecindad r=1 de


Von Neumann de P y lo pueden encontrar bajo la notación
N4(P).
Vecindad entre Píxeles

Vecindad de Von
Neumann de radio uno.
Los píxeles horizontales y
verticales, más cercanos,
que rodean al que
tomamos como central
P(x,y).
Vecindad entre Píxeles
Un píxel P ubicado en las coordenadas (x,y) posee también
cuatro vecinos diagonales cuyas coordenadas serán:

★ (x-1,y+1);(x+1,y-1) en dirección diagonal positiva 45º.


★ (x-1,y-1);(x+1,y+1) en dirección diagonal negativa 135º.

Este se conjunto se suma al anterior para determinan un


nuevo escenario denominado vecindad-8 o vecindad r=1 de
Moore de P y lo pueden encontrar bajo la notación N8(P).
Vecindad entre Píxeles

Vecindad de Moore de radio


uno. Los píxeles diagonales
más cercanos se suman a los
cuatro vecinos horizontales y
verticales que rodean al
central P(x,y).
Vecindad entre Píxeles
Vecindad entre Píxeles
Estas vecindades se pueden expandir abarcando más
cantidad de píxeles cercanos. Podemos pensar vecindades
como círculos (Von Neumann) o cuadrados (Moore)
concéntricos.
Modos de Color
Los modos de color son la base para la representación de
esos valores de color de cada píxel del sensor.
Modos de Color
Estas bases son las
que toman los
diferentes soportes en
los que podemos
representar una
imagen digital para
mostrarnos el color
que tiene cada píxel.
Espacios de Color
El espacio de color más
comúnmente utilizado es el
RBG. Define tres canales:
uno rojo R, uno verde G y
uno azul B, como colores
primarios. Donde cada
canal está en su valor
máximo y los otros dos a
cero.
Espacios de Color
YUV es un espacio de color
típicamente usado como parte de
un sistema de procesamiento de
imagen en color. Una imagen en
color se codifica en este espacio
teniendo en cuenta la percepción
humana. Define un espacio de color
en términos de una componente de
luminancia y dos componentes de
crominancia (UV).
Espacios de Color
Logrando un ancho de banda reducido para los
componentes de diferencia de color o crominancia, de esta
forma, hace que los errores, o las imperfecciones, de color se
oculten de manera eficiente a la percepción del ojo humano.
FOV (field of view)

El campo de visión (FOV)


es la porción del universo
que se incluye en la
imagen. Cuanto mayor
sea el FOV mayor será el
área de la que se obtiene
la imagen.
Histograma

El histograma es una
representación gráfica de
la distribución de los
distintos tonos de una
imagen.
Histograma
Percepción de imágenes
BRILLO
Propiedad de la imagen que
nos permite ver con mayor
claridad los objetos. El brillo
aumenta la luminosidad
total de la imagen, por
ejemplo aclarando los
colores oscuros y
blanqueando los claros.
Percepción de imágenes
Percepción de imágenes
CONTRASTE
Diferencia relativa en intensidad
que existe entre un punto de una
imagen y sus alrededores.
Cuando el contraste es nulo,
resulta imposible distinguir un
objeto de su fondo. En cambio, a
mayor contraste, mayor facilidad
para la diferenciación.
Percepción de imágenes
Percepción de imágenes
NITIDEZ

La nitidez de una imagen,


en términos de percepción,
es el grado de claridad con
que el observador ve los
detalles de una imagen.
Viene determinada por dos
elementos principales, la
resolución y el contraste.
Percepción de imágenes
RUIDO
La aparición aleatoria de
rastros y de variaciones del
brillo o del color en la imagen
digital. Estos rastros suelen
presentarse en la mayoría de
los casos como puntos de
tamaño variable, pero también
se pueden considerar otros
artefactos.
Resolución Espacial
La habilidad de un sistema
de imágenes de demostrar
pequeños detalles de un
objeto es conocida como
resolución espacial.
Depende del tamaño del
pixel, el tamaño de la matriz
y el algoritmo de
reconstrucción.
Resolución Espacial
Resolución en contraste
La resolución en contraste
es la capacidad de
distinguir estructuras que
tienen un contraste similar.
Lo ideal es tener una buena
resolución espacial y una
buena resolución de
contraste, pero no siempre
es posible.
Resolución en contraste
Rango Dinámico
Es la capacidad de captar
el detalle en las luces y en
las sombras dentro una
misma imagen. Es decir,
nuestro objetivo ideal es
conseguir negros y
blancos casi puros con
gran cantidad de valores
intermedios.
Calidad de imagen
Etapas del procesamiento
de imágenes
Proceso mediante el
cual se toma una
imagen y se produce
una versión
modificada de la
misma. Todo esto
por medio de un
sistema de cómputo.
Etapas del procesamiento
de imágenes
Procesamiento de Imágenes
Biomédicas
Adquisición de Imágenes:
Generalidades
¿Cómo obtenemos una
imagen con fines
diagnósticos?
Diagnóstico por
imágenes
El diagnóstico por imágenes
permite a los médicos observar el
interior del cuerpo para buscar
indicios sobre una afección
médica. Una variedad de aparatos
y técnicas pueden crear imágenes
de las estructuras y actividades
dentro del cuerpo.
Modalidad de Imágenes
Médicas
Los sistemas de imágenes
médicas detectan diferentes
señales físicas que surgen de un
paciente, al interactuar con
distintas emisiones, y producen
imágenes. Una modalidad de
imagen es un sistema de
adquisición de información que
utiliza una técnica particular.
Modalidades de
Imágenes Médicas
Algunas de estas
modalidades usan
radiación ionizante:
emisiones
electromagnéticas con
suficiente energía para
ionizar átomos y
moléculas dentro del
cuerpo.
Modalidades de
Imágenes Médicas
La radiación ionizante en
las imágenes médicas
deben usarse con
prudencia para evitar
causar daños graves al
organismo y a su
genoma.
Imágenes de rayos X
Esta modalidad de
obtención de imágenes se
han utilizado en el
diagnóstico clínico casi
desde el momento en que
Roentgen descubrió los
rayos X. Estas emisiones
se generan mediante un
tubo de rayos X
Tubo de rayos X
El calentamiento de un
filamento de tungsteno
dentro del cátodo libera
electrones por excitación
térmica. Una diferencia de
potencial acelera los
electrones hacia el ánodo
positivo (50-120 kV), donde
golpean un objetivo de
tungsteno, produciendo
rayos X.
Espectro de rayos X
Los electrones pierden su
energía cinética cuando se
desaceleran al chocar con
el objetivo (target).
Alrededor del 99% de esa
energía se disipa como
calor y sólo el 1% restante
se convierte en rayos X.
Interacción de rayos X
Los rayos X interactúan con el
cuerpo ya sea por absorción
EFECTO FOTOELÉCTRICO, o
por dispersión EFECTO
COMPTON. El primero
contribuye a la dosis de
radiación (energía absorbida por
unidad de masa) y, en
consecuencia, al riesgo de daño
biológico para el paciente.
Formación de la imagen
La consecuencia de estas interacciones es que se reduce la
intensidad del haz. Distintos tejidos afectan el haz en
diferentes cantidades, dependiendo de su grosor (t) y el
coeficiente de atenuación (μ) del material.

I(t)=I0e-𝝻t
Imagen de Rayos X
En la placa, o radiografía, de
rayos X plana la imagen es
una simple proyección
bidimensional, o un
diagrama de sombras, de un
objeto tridimensional. La
superposición 2D de tejidos
del paciente en el campo de
visión circunscripto por el
colimador del equipo.
Resolución espacial
El desenfoque total, o la falta de nitidez, de un sistema
comprende una combinación de fuentes contribuyentes:

Utot≈(Ug2+Um2+Ud2+Ui2)½

Estos factores degradan la imagen, esencialmente su


resolución espacial: el tamaño de la característica detectable
más pequeña, o la separación mínima resoluble de
características en el interior del paciente.
Resolución espacial:Ug
Resolución espacial:Um
Resolución espacial:Ud
Resolución espacial:Ui
Contraste
El efecto de la dispersión de
los rayos en el interior del
paciente produce una
intensidad de fondo
aproximadamente
constante, IS, superpuesta a
la imagen real y, en
consecuencia, reduce el
contraste.
Contraste
Un principio general: cuanto
mejor sea la calidad de imagen
requerida, más radiación se
necesitará para lograrlo. En las
imágenes de rayos X, se debe
buscar un compromiso entre la
dosis de radiación del paciente
y la calidad de la imagen.
Radiografía
Convencional
Radiografía Digital
Radiografía Digital
Mamografía
Fluoroscopía
Fluoroscopía: DSA
Tomografía Computada
Es una técnica que se
desarrolló para producir
imágenes transversales,
escaneando una porción de
tejido desde múltiples
direcciones utilizando un
haz estrecho en forma de
abanico.
Tomografía Computada

Los datos de cada dirección


comprenden una proyección
unidimensional del objeto, y
una imagen transversal se
puede reconstruir
retrospectivamente a partir
de múltiples proyecciones.
Tomografía Computada
Así, se puede producir una
imagen transversal como si
fuera una rebanada
seleccionada vista de frente. Si
se obtienen muchas imágenes
transversales, los datos se
pueden presentar como una
imagen en cualquier plano, o
incluso como una imagen
compuesta tridimensional.
Tomografía Computada
La tarea de la reconstrucción de
imágenes, en tomografía
computarizada por rayos X, es
resolver los coeficientes de
atenuación individuales de cada
estructura del paciente y asignar
un valor que dependa de los
coeficientes de atenuación a cada
píxel en una matriz bidimensional
que luego describe la imagen
transversal.
Tomografía Computada
Medicina Nuclear
La medicina nuclear es una modalidad
de obtención de imágenes
diagnósticas en la que se utilizan
radiotrazadores o radiofármacos.
Estos radiofármacos se aplican dentro
del organismo humano por diversas
vías. Una vez introducido dentro del
organismo, se distribuye. Esta
distribución es detectada por un
aparato llamado cámara gamma.
Medicina Nuclear:
Gammagrafía
Medicina Nuclear:
SPECT
Medicina Nuclear: PET

Eventos de coincidencia
Emisores de positrones
Medicina Nuclear: PET
Modalidad de Imágenes
Médicas
Existe un segundo
conjunto de
modalidades de
obtención de imágenes
que utiliza radiación
no-ionizante como
método de adquisición.
Resonancia Magnética:
MRI
La resonancia magnética (MRI) utiliza el
fenómeno de la resonancia magnética
nuclear: los nucleones no apareados se
orientan en un campo magnético, y los
pulsos de radiofrecuencia se utilizan
para cambiar el equilibrio de sus
orientaciones. Cuando el sistema
restablece el equilibrio, produce las
señales que forman la imagen.
Resonancia Magnética:
MRI
Las imágenes de resonancia
magnética proporcionan detalles
anatómicos y fisiológicos, es decir,
estructura y función de tejidos,
excelente visualización de los
mismos y alta una alta resolución
espacial. El método más versátil y
completo.
Resonancia Magnética:
MRI
La resonancia magnética se basa en la
resonancia magnética nuclear. Los
nucleones no apareados se comportan
como pequeños imanes, con un
momento magnético asociado. El núcleo
de hidrógeno, un solo protón, es de
particular importancia en las imágenes
de resonancia magnética debido a su
abundancia en los tejidos biológicos.
Resonancia Magnética:
MRI
Resonancia Magnética:
MRI
Un campo magnético oscilante
aplicado como un pulso puede
rotar la magnetización en la
muestra y colocarla en el plano
transverso. Cuando el pulso de
excitación termina, la
magnetización transversa en la
muestra precesa alrededor del
campo constante.
Resonancia Magnética:
MRI
Ecografía
El ultrasonido para uso
diagnóstico utiliza sonido de
alta frecuencia y una técnica
simple de pulso-eco. Cuando
un haz de ultrasonido se
extiende a través de un
volumen de interés, se puede
formar una imagen transversal
a partir de un mapeo de
intensidades de eco.
Ecografía
Las imágenes se obtienen mediante el
procesamiento de los haces
ultrasónicos (ecos) reflejados por las
estructuras corporales. Luego,
mediante un complejo proceso
electrónico se transforma en una
imagen en la pantalla. El porcentaje
del haz que es reflejado, se determina
mediante la diferencia en la
impedancia acústica entre los dos
medios.
Ecografía
El ultrasonido se define como una
serie de ondas mecánicas,
generalmente longitudinales,
originadas por la vibración de un
cuerpo elástico (cristal
piezoeléctrico) y propagadas por
un medio material (tejidos
corporales) cuya frecuencia
supera a la del sonido audible por
el humano.
Ecografía
Cuando un haz ultrasónico es
propagado de un medio a otro,
parte de él se propaga a través del
segundo medio, mientras que un
pequeño porcentaje es reflejado a
manera de «eco» y llega al
transductor ( receptor) en donde
se transforma en un pequeño
pulso de voltaje.
Ecografía
Las imágenes ecográficas están
formadas por una matriz de
elementos fotográficos. Las
imágenes en escala de grises
están producidas por la
visualización de los ecos
regresando al transductor como
elementos fotográficos ( píxeles)
variando en brillo en proporción
a la intensidad del eco.
Ecografía
Procesamiento de Imágenes
Biomédicas
Mejoramiento de Imágenes I: Dominio
Espacial
¿Qué significa mejorar
una imagen?
Muestreo y
Cuantización
Si deseamos pasar una imagen
continua f(x,y) a forma digital,
tenemos que muestrear la función
en ambas coordenadas y en
amplitud. La digitalización de los
valores de coordenadas se llama
muestreo. La digitalización de los
valores de amplitud se llama
cuantización.
Aliasing

El teorema de muestreo de Nysquist-Shannon nos dice


que, si la función se muestrea a una velocidad igual o
mayor que el doble de su frecuencia más alta, es posible
recuperar completamente la función original de sus
muestras. Si la función está submuestreada, entonces un
fenómeno llamado aliasing corrompe la imagen
muestreada.
Patrones de Moiré
Mejoramiento de
Imágenes
● Procesar una imagen de tal modo que la Imagen
resultante sea más adecuada que la original para una
aplicación específica.
● La medida del “Más adecuada”, depende de cada
aplicación.
● Un método para mejorar una imagen para una aplicación,
puede no ser el más adecuado para otra.
Mejoramiento de
Imágenes
● Dominio Espacial : (en el plano de la imagen)
○ Las técnicas se basan en la manipulación directa de los
píxeles de la imagen.
● Dominio de la Frecuencia :
○ Las técnicas se basan en modificar la Transformada de
Fourier de la Imagen.
Hay técnicas de mejoramiento que se basan en
combinaciones de los métodos de las dos categorías
anteriores.
Fuentes de Degradación
Imperfección A la
del sistema condición
de imagen atmosférica
Al movimiento
Imperfección relativo entre el
en el canal de objeto y la
transmisión cámara
Ruido
El ruido digital es la
variación aleatoria (que no
se corresponde con la
realidad) del brillo, o el
color, en las imágenes
digitales producido por el
dispositivo de entrada
(sistema de adquisición).
Tipos de Ruidos
Muy a menudo, una imagen
se corrompe por el ruido,
que puede surgir en el
proceso de adquisición de la
imagen, o durante su
transmisión, incluso durante
la reproducción de la
imagen.
Tipos de Ruidos
Dependiendo de la
naturaleza del ruido,
como el tipo de ruido
aditivo o
multiplicativo, existen
varios enfoques para
eliminar el ruido de
una imagen.
Ruido Aditivo
Ruido que es independiente de la señal de la imagnes.
Matemáticamente podemos expresarlo de la siguiente
manera:

g(x,y)=f(x,y)+η(x,y)

Donde f(x,y) es la imagnes original y η(x,y) la función


componente de ruido. Existen distintos modelos de ruido,
según las funciones de densidad de probabilidad que sigan
sus intensidades η(x,y).
Ruido multiplicativo
Ruido que es dependiente de la señal de la imagnes.
Matemáticamente podemos representarlo de la siguiente manera:

g(x,y)=f(x,y)+f(x,y)η(x,y)
g(x,y)=f(x,y)(1+η(x,y))

Si η(x,y) la función componente de ruido es cero las imágenes no


se modifican. Pero si η(x,y) es más grande que 1 la señal de
entrada multiplica a la del ruido, y éste pasa a depender de esa
señal: g(x,y)=f(x,y)η(x,y).
Ruido Gaussiano
Ruido Gaussiano (o normal)
Modela el ruido producido
por los circuitos electrónicos
o ruido de los sensores por
falta de iluminación y/o altas
temperaturas. La intensidad
de todos los píxeles se ve
afectada.
Ruido Sal y Pimienta
Se observa la imagen cubierta
de forma dispersa por una serie
de píxeles blancos y negros.
Suele aparecer cuando la señal
de la imagen es afectada por
intensas y repentinas
perturbaciones. Se produce
normalmente en la cuantificación
al digitalizar la imagen.
Ruido Uniforme

Toma valores en un
determinado intervalo de
forma equiprobable. Se
da en un menor número
de situaciones reales.
Imagen Mejorada
➔ Para la percepción visual humana:
◆ La evaluación de la calidad de una imagen es un
proceso bastante subjetivo.
◆ Es difícil normalizar la definición de lo que es una
buena imagen.
➔ Para un programa:
◆ La evaluación es más fácil.
◆ Una buena imagen es la que produce el mejor
resultado del algoritmo de reconocimiento.
Filtrado Digital

Operaciones que se realizan directamente sobre pixels.

g(x,y) = T[f(x,y)]

donde, f(x,y) es la imagen de entrada, g(x,y) es la imagen


resultante T es un operador sobre f, definido sobre un
entorno del punto (x,y).
El método en el
dominio espacial
Las operaciones espaciales de filtrado se definen
en un entorno de vecindad del punto a
transformar (x,y). El entorno del píxel, sobre el
cual se opera para obtener la nueva imagen, se
define con una máscara.

El centro de esta, se mueve


recorriendo todos los píxeles de la
imagen original.
Transformación punto a
punto
Cuando la máscara es = 1x1 píxeles:

★ g(x,y) depende solo del valor de f en (x,y).


★ T = función que transforma el nivel de gris del punto.
s = T( r)
★ Donde
○ r = nivel de gris de f(x,y)
○ s = nivel de gris de g(x,y)
Mejoramiento del
contraste
Una aplicación es el
mejoramiento del contraste:
● Se oscurecen los niveles de
gris por debajo de m
● Se hacen más brillantes los
grises por encima de m
Umbralización
Un caso extremo de la
operación anterior es la
umbralización.

Produce un imagen
(binaria) con dos niveles,
blanco y negro.
Convolución
Convolución
Convolución
Para poder aplicar también la convolución en los píxeles del
borde de la imagen existen varias alternativas, algunas de
las cuales son:
I. Completar con ceros los valores de alrededor.
II. Repetir los valores en el borde.
III. Completar con los valores de la parte simétrica opuesta.
Filtros

Existen muchos
tipos de filtros,
que cumplen
distintas
funciones.
Filtros
★ Suavizar la imagen: reducir las variaciones de intensidad
entre píxeles vecinos.
★ Eliminar ruido: modificar aquellos píxeles cuyo nivel de
intensidad es muy diferente al de sus vecinos.
★ Realzar la imagen: aumentar las variaciones de
intensidad, allí donde se producen.
★ Detectar bordes: detectar aquellos píxeles donde se
produce un cambio brusco en la función intensidad.
Máscaras más utilizadas
Filtrado del Ruido
Se prefieren los filtros espaciales:

● Tienen un mejor rendimiento con un


menor costo en memoria y tiempo
de ejecución.
● Sin embargo, no existe un único
filtro lineal o no lineal que sea
óptimo para todas las imágenes.
Filtro Promediador
Se usa para suavizar imágenes. Es
es el más simple, intuitivo y fácil
de implementar. Su función es
reducir la cantidad de variaciones
de intensidad entre píxeles
vecinos. Se visita cada píxel de la
imagen y se reemplaza por la
media de los píxeles vecinos.
Filtro Promediador
Desventajas:

➔ El filtro de la media es bastante sensible a cambios


locales.

➔ El filtro de la media puede crear nuevas intensidades de


grises que no aparecían en la imagen.
Filtro Promediador
Filtro Gaussiano
El filtro gaussiano se usa para
emborronar imágenes y eliminar
ruido. Es similar al filtro de media
pero se usa una máscara diferente,
modelizando la función gaussiana:

G(x,y)=1/2πσ2(e -(x2+y2)/2σ2)
Filtro Gaussiano
Algunas Ventajas:

➔ Es separable: es decir, en lugar de realizar una


convolución bidimensional, podemos realizar dos
convoluciones unidimensionales. Una en sentido
horizontal y otra en sentido vertical.

➔ El filtro gaussiano produce un suavizado más uniforme


que el filtro promediador.
Filtro Gaussiano
Filtro Gaussiano

Tanto el filtro gaussiano como el


promediador se utilizan para eliminar
el ruido gaussiano.
Filtro Mediana
Se visita cada píxel de la imagen y
se reemplaza por la mediana de los
píxeles vecinos. La mediana se
calcula ordenando los valores de
los pixeles vecinos en orden y
seleccionado el que queda en
medio.
Filtro Mediana
Desventajas:

➔ Este filtro no es lineal. Dadas dos imágenes A y B,


mediana(A+B) ≠ mediana(A)+mediana(B)

Ventajas:

➔ El filtro de Mediana es el más eficiente para eliminar


ruido de tipo sal y pimienta.
Filtro Mediana
Procesamiento de Imágenes
Biomédicas
Mejoramiento de Imágenes II:
Detección de Bordes y Ec. Histograma
¿A qué denominamos
bordes de una
imagen?
Definición de Bordes

Los bordes de una imagen


digital se pueden definir
como transiciones entre dos
regiones de niveles de gris
significativamente distintos.
Filtros Espaciales
Los filtros espaciales tienen como
objetivo modificar la contribución de
determinados rangos de frecuencias a
la formación de la imagen. El término
espacial se refiere al hecho de que el
filtro se aplica directamente a la
imagen y no a una transformada de la
misma, es decir, el nivel de gris de un
píxel se obtiene directamente en
función del valor de sus vecinos.
Filtros Espaciales:
Recordemos que...
La forma de operar de los
filtros lineales es por medio de
la utilización de máscaras que
recorren toda la imagen
centrando las operaciones
sobre los píxeles que se
encuadran en la región de la
imagen original que coincide
con la máscara (convolución).
Clasificación de Filtros
Los filtros espaciales pueden clasificarse basándose en su
linealidad:

❖ Filtros Lineales:
➢ Pasa Bajo
➢ Paso Alto
➢ Pasa Banda

❖ Filtros No-Lineales
Otra Clasificación
Basándose en su finalidad:

★ Filtros de suavizado, Smoothing


★ Filtros de realce, Sharpening
★ Filtros diferenciales: Laplaciano, Prewitt, Sobel, por
mencionar algunos.
Filtros de Suavizado:
Pasa Bajos
El suavizado de imágenes se
utiliza normalmente bajo dos
supuestos:
● Dar a una imagen un
difuminado o efecto especial.
● Para la eliminación de ruido.
El suavizado borra los detalles más finos de una imagen,
atenuando las altas frecuencias.
Filtros de Realce: Pasa
Altos
● Los filtros pasa altos disminuyen el
número de grises presentes,
aumentando el contraste global de
la imagen.
● Se mejora la nitidez y los detalles al
procesar la imagen. Estos detalles se
verán realzados.
Para realce se usan los filtros sharpen
Filtros Diferenciales
El hacer un promedio de unos
píxeles sobre una región de la
imagen, tiende a emborronar los
detalles de una imagen. Como el
promedio es similar a la
integración, la diferenciación
tendrá el efecto opuesto y ello
realzará los detalles de una
imagen.
Filtros Diferenciales
El método de diferenciación más común en el proceso de
aplicaciones es el gradiente. Para una función f(x,y), el
gradiente de f en las coordenadas (x,y) se define como el
vector:
∇f=[∂f/∂x, ∂f/∂y]
Cuya magnitud y dirección se calculan a partir de:

∇f~[(∂f/∂y)2+(∂f/∂x)2]½
θ=arctg[∂f/∂x/∂f/∂y]
Detección de Borde
Detectar los bordes de una imagen se
trata de localizar los cambios
abruptos en la función intensidad de
la imagen y resaltarlos.
La mayoría de las técnicas para
detectar bordes emplean operadores
locales basados en distintas
aproximaciones discretas de la
primera y segunda derivada entre los
niveles de grises de la imagen.
Detección de Bordes
Por lo tanto, detectar un borde
consiste en encontrar, para cada
(x, y):

➢ La magnitud de ∇f (x, y)

➢ Y el ángulo α(x,y), que forma


el vector gradiente con el eje x
Detección de Bordes
El gradiente es perpendicular a la dirección del borde

La dirección del gradiente es la


dirección de máximo crecimiento
de la función, o sea, es la
dirección de máxima variación.
El borde queda determinado por
los pixels con más alto valor de
magnitud.
Primer Aproximación
Considerando la región de la
imagen, donde I son los valores de y
nivel de gris, la aproximación más
simple es emplear la diferencia (I5-I6)
en la dirección de x e (I5-I8) en la
dirección de y.
Entonces: x
∇ƒ≈[(I5-I6)2+(I5-I8)2]1/2
Segunda Aproximación
Otra buena aproximación a la
derivada primera es tomar la
diferencia cruzada:

∇ƒ≈[(I6-I8)2+(I5-I9)2]1/2

Las ecuaciones anteriores pueden implementarse pensando


en kernels de 2x2. Estas máscaras se llaman operadores de
Roberts.
Tercer Aproximación
Otra aproximación es emplear máscaras de
tamaño 3x3:

∇ƒ≈|(I7+I8+I9)-(I1+I2+I3)|+
|(I3+I6+I9)-(I1+I4+I7)|

La diferencia entre la tercera y primera filas


del núcleo, aproxima la derivada en la
dirección x y la diferencia entre la tercera y
la primera columna a la derivada en la
Tercer Aproximación
Los filtros que implementan esta última aproximación se
denominan filtros de Prewitt y/o Sobel:

PREWITT SOBEL
Ejemplo Filtro Roberts
Ejemplo Filtro Prewitt y
Sobel
Filtros Diferenciales: Método
de Derivadas Segundas
Si solamente nos interesa la magnitud (sin la orientación)
definimos el operador lineal Laplaciano:

∇2f(x,y)=∂2f/∂x2 + ∂2f/∂y2

★ Tiene las mismas propiedades en todas las direcciones


★ Es invariante a rotaciones
★ Se utiliza para el zero-crossing (cruce por cero de la derivada
segunda)
★ Desventajas: más sensitivo al ruido y produce bordes dobles
Filtro Laplasiano
Este tipo de filtro se basa en
un operador derivativo, por
lo que acentúa las zonas que
tienen gran discontinuidad
en la imagen.
Se puede aproximar como:
Filtro Laplasiano
La ubicación de los bordes se encuentra haciendo zero
crossing.

Se detectan los bordes buscando


los lugares de la imagen en donde
el laplaciano se hace cero,esto
implica un cambio de concavidad
en la intensidad y, por lo tanto, se
asume que es un punto de
existencia de borde.
Zero-crossing
● Los resultados del Laplaciano generan muchos bordes falsos
● Zero-crossing, es donde aparecen cambios de signo, índice
de que hay un borde.
Un método para remover falsos contornos consiste en chequear
que la varianza local sea suficientemente grande en esos
puntos.
Filtro Canny
Para que un detector de bordes pueda ser considerado
óptimo debe cumplir los siguientes puntos:
★ Buena detección: el algoritmo debe marcar el mayor
número de bordes reales de la imagen como sea posible.
★ Buena localización: los bordes deben estar lo más cerca
posible del borde de la imagen real.
★ Respuesta mínima: El borde de una imagen sólo debe ser
marcado una vez, y siempre que sea posible, el ruido de la
imagen no debe crear falsos bordes.
Algoritmo de Canny
Para satisfacer estos requisitos Canny utiliza el cálculo de
variaciones:
★ Obtención del gradiente:obtener magnitud y orientación
del vector gradiente en cada pixel.
★ Supresión de no máxima: Conseguir el adelgazamiento del
ancho de los bordes hasta lograr que sean de un pixel de
ancho.
★ Histéresis de umbral: Aplicar esta función de histéresis
que está basada en dos umbrales.
Obtención del Gradiente
Aplicar un filtro Gaussiano para eliminar ruido y suavizar la
imagen gradiente en cada pixel
Luego se aplica un filtro de
detección de bordes (Roberts,
Prewitt, Sobel, por ejemplo) a
partir de esto, se pueden
determinar el gradiente de
borde y la dirección.
Se obtienen dos imágenes: Im, de la magnitud del gradiente,
e Io, de la orientación del gradiente.
Supresión no máxima
Posteriormente se observa si el valor de la magnitud de
gradiente es más pequeño que al menos uno de sus dos
vecinos en la dirección del ángulo obtenida:

➔ De ser así se asigna el valor 0 al píxel,


➔ En caso contrario se asigna el valor que tenga la magnitud
del gradiente.
Histéresis con
Umbralización
★ Se fijan dos umbrales H1 < H2.
★ Se recorre la matriz salida, de la supresión de no
máximos. Si la magnitud del píxel supera el umbral H2
se interpreta como píxel fuerte. Si, por el contrario, la
magnitud del píxel es superior a H1 pero inferior a H2
es interpretado como píxel débil.
★ Consideramos borde a todos los píxeles fuertes más
los píxeles débiles que sean vecinos de los píxeles
fuertes. Obteniendo una detección mucho más limpia.
Filtro Canny
Histograma
El histograma de una imagen digital con
L niveles de intensidad en el rango
[0,L-1] es definido como la función
discreta:

h( rk)=nk

donde rk es el k-ésimo nivel de


intensidad en el intervalo [0,L-1] y nk es
el número de pixels en la imagen con
intensidad rk.
Histograma
Normalizado
A menudo es útil trabajar con
histogramas normalizados.
Para esto dividimos todos los
elementos del histograma por
el número total de pixels de la
imagen:

p( rk)=h( rk)/n=nk/n
Histograma Acumulado

La funcion del histograma


acumulativo se define como
una funcion monotona
creciente en donde todos los
valores a partir del segundo
valor son recalculados con la
suma de su valor inmediato
anterior.
Ecualización del
Histograma
Para modificar una imagen
también se pueden utilizar
operaciones globales, como lo es
la ecualización de histograma,
que tiene como objetivo acentuar
el contraste visual, aprovechando
de mejor manera el rango de
valores de intensidad disponible.
Ecualización del
Histograma
El histograma se considera
ecualizado si todos los niveles de
intensidad tienen una frecuencia
lo más similar posible. Para lograr
esto en la práctica, basta con
lograr que el histograma
acumulado de la imagen se
aproxime a una recta
Ecualización del
Histograma
Para generar una imagen con el histograma ecualizado se
requieren varios pasos:
1. Calcular el histograma de la imagen
2. Normalizar el histograma (dividirlo entre el número total de
píxeles)
3. Calcular el histograma acumulado (ir sumando los píxeles
desde el valor 0 al 255)
4. Se aplica el algoritmo, g(x,y) = (H(f(x,y))-1)*255/H(255)
Imagen Ecualizada
Escalamiento
Esta técnica consiste en determinar un rango de intensidades
de interés [f1,f2] que se busca escalar, como máximo, a una
intensidad fmax.
Entonces, se definen las funciones:
★ e = {f si f incluido en [f1,f2] ; 0 si no}
★ g = ((e-f1)/(f1-f2)).fmax

De modo tal que si f se encuentra en el rango deseado, su


valor se verá escalado a ((f-f1)/(f1-f2)).fmax. Caso contrario, se
le asignará (-f1/(f2-f1)).fmax siempre.
Escalamiento
Ecualización Local

La ecualización local se realiza


por bloques de la imagen que se
ecualizan de forma
independiente. Permite revelar
estructuras finas de la imagen en
algunas situaciones.
Procesamiento de Imágenes
Biomédicas
Reconstrucción: TR, TF y Dominio de la
Frecuencia
¿Que significa reconstruir
una imagen?
Recordemos...

Un escáner de Tomografía
Computarizada consta de una
estructura circular, denominada
gantry, que contiene una fuente de
rayos X y los detectores. Esto nos
permite medir la radiación luego de
atravesar al paciente, quien se
encuentra recostado en una camilla
que se mueve lentamente a través
del gantry.
Un poco de Historia...

En los procesos radiológicos se


suponía que la radiación atravesaba
material homogéneo, pero en realidad
los diferentes tejidos tienen distinta
densidad. Cormack (1966) se planteó
entonces el problema de determinar la
densidad de un objeto a partir de la
atenuación de los rayos X que lo
atravesaban, dirigidos en distintas
direcciones.
¿Que quería resolver?

El problema trataba de
determinar, en primer lugar, los
niveles de atenuación de los
rayos X, al atravesar una sección
del cuerpo, y en segundo lugar,
con la información obtenida,
reconstruir el objeto
desconocido determinando su
densidad en cada punto.
Transformada de Radon

En 1917 Johann Radon ya había


resuelto el problema. Demostró la
posibilidad de recuperar una función
cuando se conocen todas sus
integrales de línea. Lo que nos
permite reconstruir un objeto
bidimensional y tridimensional a
partir de un conjunto de infinitas
proyecciones.
Transformada de Radon

Con esta transformada, a la


función de coeficiente de
atenuación 𝑓(𝑥,𝑦) del objeto se
le asigna su integral a lo
largo de una curva L.
Geométricamente cada una
de estas integrales es una
proyección del objeto en la
dirección de la curva L.
Transformada de Radon

★ Los rayos X viajan en líneas rectas y los haces son


monocromáticos.
★ Al interactuar con la materia los rayos X se atenúan, es
decir, su intensidad decrece.
★ Cada material está caracterizado por su coeficiente de
atenuación 𝜇.
★ La intensidad I de cada haz de rayos se atenúa de acuerdo
con la ley de Beer: I(t)=I0e-𝝻s
Ley de Beer

La ley de Beer, aplicada a la intensidad del rayo que viaja a lo


largo de una curva L, establece que la relación entre la
intensidad inicial 𝐼0 y la intensidad 𝐼1 recibida por el detector
se calcula a partir de:
Ley de Beer

Ahora, consideraremos una sección transversal de un objeto


tridimensional. Sea la sección transversal perpendicular al eje
z, entonces, el coeficiente de atenuación en el plano es una
función de dos variables:

Y el decrecimiento relacional del rayo X a través del plano xy


a lo largo de la línea L está dado por la siguiente ecuación:
Transformada de Radon

Fijamos un sistema de coordenadas


𝑥, 𝑦, 𝑧 como se muestra en la figura.
El valor de cada píxel de la imagen
generada será proporcional al valor
del coeficiente de atenuación para el
haz de rayos al atravesar el vóxel
correspondiente. El coeficiente de
atenuación de cada rebanada o
corte transversal estará dado por:
Transformada de Radon

Si expresamos a 𝜇𝑐(𝑥,𝑦)=𝑓(𝑥,𝑦).
Al interactuar el haz de rayos X con la
sección transversal su intensidad
disminuirá satisfaciendo la ley de
Beer:

Si L es la trayectoria descrita por el


haz e 𝐼0, 𝐼1 sus intensidades antes y
después de atravesar el corte,
separamos variables e integramos la
ecuación anterior y obtenemos:
Transformada de Radon

Así obtenemos expresión de la transformada de Radon

A esta cantidad Radón la denomino proyección de 𝑓(x,y) a lo


largo de la recta L y demostró que conociendo todas sus
proyecciones es posible determinar la función 𝑓(x,y)
Transformada de Radon

La dirección del rayo AB define una


dirección perpendicular t donde se
proyecta el rayo. La línea t hace un
ángulo θ en el eje X. La ecuación del
rayo AB está dada por:

t=x cosθ + y senθ


Transformada de Radon

Entonces, la proyección particular


generada, a un ángulo θ, es función de
una variable t. La proyección se
calcula a partir de las integrales de
línea de f(x, y) a lo largo de líneas
paralelas que pasan a través de la
imagen. Por lo tanto:
Transformada de Radon

Es claro, entonces, que para poder precisar todas las


proyecciones es necesario el uso de un parámetro más, en
este caso el ángulo θ.
Sinograma

La representación en el plano de la
transformada de Radon se suele
llamar sinograma: es la
representación gráfica de una
matriz en la que el índice de las filas
depende del ángulo θ y el índice de
las columnas depende de la
distancia t de la línea de medida al
centro de coordenadas del sistema
de detección.
Sinograma
Unidades Hounsfield

Resultado de la
transformación de la escala
de coeficientes de atenuación
lineal de rayos X en una
nueva escala en la cual el
valor de atenuación del agua
destilada en CNPT, se define
como 0 unidades de
Hounsfield (HU), mientras
que la radiodensidad del aire
se define como -1000 HU.
Algoritmos de Reconstrucción

En la práctica, ni el ángulo θ ni el
parámetro t resultan ser variables
continuas. Por lo tanto, la
medición experimental es un
conjunto discreto de proyecciones
para un número finito de ángulos.
A partir de este conjunto, la
cuestión es buscar un algoritmo
para reconstruir la imagen f’(x, y). {Pθj(tk), j, k = 0, 1, 2,..., n-1}
Algoritmos:Retroproyección
Simple
El problema de la reconstrucción
consiste, entonces, en calcular la
distribución del objeto f(x,y) (o lo
que llamamos antes μ), dadas las
proyecciones, es decir, las
transformadas de Radon.
➔ Aunque es posible retroproyectar
el sinograma al espacio de la
imagen, esto conduce a una
imagen borrosa.
Algoritmos:Retroproyección
Simple
Para brindar una aproximación mejorada a la solución del
problema anterior, se propuso el teorema de la proyección,
también llamado teorema de corte central o teorema de
corte de Fourier, por su traducción del inglés (central slice o
Fourier slice theorem)

VEAMOS DE QUÉ SE TRATA...


Transformada de Fourier

Se demuestra que cualquier


función periódica f(t) con un
período T, que sea continua
por tramos e integrable sobre
cualquier intervalo
(condiciones de Dirichlet),
puede representarse mediante
la serie de Fourier en forma Los coeficientes son complejos porque
hay que representar la amplitud y fase
exponencial compleja. de la sinusoide.
Transformada de Fourier

La consistencia de esta
representación en forma
de serie de Fourier se
basa en que dicha
función queda
unívocamente definida
mediante la
especificación de los
coeficientes C.
Transformada de Fourier: 1D

Las funciones que no


son periódicas ( pero
cuya área bajo la curva
es finita) se pueden
expresar como la
integral de los senos y/o
cosenos multiplicada Esta expresión la representación de Fourier de
una función aperiódica, similar a la serie, recibe
por una función de el nombre de Transformada de Fourier de la
ponderación. función f(t).
Transformada de Fourier: 2D

Se define análogamente la transformada de Fourier en dos


dimensiones bajo la siguiente expresión matemática:
Teorema de Corte de Fourier

● Escribimos la transformada
de fourier de la proyección.
● Por la expresión de la
transformada de Radon
obtenemos la segunda
ecuación.
● Sustituyendo:
x=t cosθ-s senθ ; y=t senθ+s cosθ
Siendo unitario el jacobiano
obtenemos la tercer ecuación.
Teorema de Corte de Fourier

Asi arribamos al teorema:


★ La transformada de Fourier de una proyección
paralela de una imagen f(x,y) tomada a un ángulo θ
nos da un corte de la transformada bidimensional
F(u,v), subtendiendo el mismo ángulo θ con el eje u.
Teorema de Corte de Fourier
Teorema de Corte de Fourier

Por lo tanto tomando las


proyecciones de un objeto a
ángulos θ1,θ2,...,θk y tomando la
transformada de Fourier de las
mismas, podemos determinar los
valores de la transformada
bidimensional F(u,v) en líneas
radiales del plano uv (dominio de
frecuencias).
Dominio de las Frecuencias

El sistema matricial de coordenadas


de una imagen es lo que se
denomina dominio espacial. Sin
embargo, la misma imagen puede
ser considerada como una función
no periódica y definirse en otro
espacio bidimensional, cuyos ejes
vengan determinados por la
amplitud y la frecuencia para cada
dirección de la imagen.
Dominio de las Frecuencias

El procesamiento de la imagen se lleva a cabo en una


transformada de la imagen (Transformada de Fourier) y,
posteriormente, mediante la transformada inversa se obtienen
los resultados.
Transformada Discreta

Sea f (x,y) imagen, una transformada (lineal, reversible)


se expresa por:

La TF 2D de una imagen: es una expansión de la función


en términos de “imágenes cosenoidales” (funciones
básicas).
Transformada de una imagen

★ En las 2 expresiones anteriores x e


y son las coordenadas de los
pixels.
★ N es la cantidad de pixels según x
e y.
★ u y v son las frecuencias en el
dominio de Fourier.
En la segunda expresión suplantamos
x e y por R ( row) y C (column).
Transformada de una imagen

En síntesis, si se tienen las


transformadas de Fourier
de las proyecciones se
puede ‘ensamblar’ el
conjunto para cubrir el
plano del dominio de
frecuencias. Y al invertir la
transformada obtendremos
una estimación de la
imagen del objeto.
Fast Fourier Transform: FFT

La FFT no es una nueva transformada, sino que es un


algoritmo para el cálculo de la Transformada Discreta de
Fourier (DFT) y su inversa. Su importancia radica en el
hecho que elimina una gran parte de los cálculos
repetitivos a que está sometida la DFT, por lo tanto se
logra un cálculo más rápido. Además, la FFT
generalmente permite una mayor precisión en el cálculo,
disminuyendo los errores de redondeo.
Algoritmo de
Retroproyección filtrada
La transformada de Fourier unidimensional P(k,θ) de la proyección pθ(t),
corresponde a una línea que cruza el origen del espacio-k. Como
consecuencia, si dichas proyecciones son interpoladas para obtener una
representación cartesiana de F(kx,ky), es posible tomar la antitransformada
de Fourier y obtener la imagen f(x,y) en el dominio espacial.
Algoritmo de
Retroproyección filtrada
El principal problema que se
presenta al utilizar este método
solamente, es que para las
frecuencias altas, los puntos
experimentales se encuentran muy
separados. Esto implica que se
requiere una interpolación con
puntos muy despegados entre sí,
lo que puede inducir un error
considerable.
Algoritmo de
Retroproyección filtrada
Una manera de atacar el problema es dando a cada punto, en el dominio
de las frecuencias, un distinto peso para que su influencia sea diferente a
la hora de tomar la transformada inversa y reconstruir la imagen. Este
mecanismo se conoce como filtraje. Si esto se interpreta como una
convolución, simplemente debemos multiplicar a F(kx,ky) con un filtro a
kernel en el dominio de las frecuencias. Este procedimiento corresponde
a la retroproyección filtrada FBP.
Algoritmo de
Retroproyección filtrada
En general se suele utilizar un filtro rampa, pasa altos.
Algoritmo de
Retroproyección filtrada
Algoritmo de
Retroproyección filtrada
Algoritmo de
Retroproyección filtrada
Algoritmo de
Reconstrucción Aritmética
Los algoritmos iterativos comienzan por proponer un objeto fi, por
ejemplo, con distribución homogénea de atenuaciones. A continuación, se
calculan las proyecciones pi, correspondientes al objeto propuesto y se
comparan con las proyecciones originales medidas en el detector po. El
objeto propuesto f i+1 se actualiza, con base en la diferencia de las
proyecciones. Matemáticamente, este proceso se podría expresar así:
Algoritmo de Iteración

Con este procedimiento


iterativo, se produce una
secuencia de
distribuciones de
atenuación f1, f2,...,fn;
hasta que se converge a
un valor óptimo fopt,
basado en una regla de
optimización comparando
pi con po.
Algoritmo de Iteración
Algoritmo de Iteración

Uno de los métodos más


utilizados en imágenes
biomédicas es el basado en el
Algoritmo de Kacsmarz. Este
utiliza un métodos de acción por
filas. Estos son métodos
iterativos diseñados para
resolver sistemas de ecuaciones
o inecuaciones en espacios de
dimensión finita.
Algoritmo de Iteración

En nuestro caso para resolver sistemas


lineales del tipo Ax=b: un sistema de n
ecuaciones lineales con n incógnitas.
Cada una de las ecuaciones define un
hiperplano. El método consiste en
partir desde un punto arbitrario x0
proyectarlo sobre el primero de los
hiperplanos obteniendo el punto x1,
luego proyectar sobre el segundo
hiperplano obteniendo x2, y así
sucesivamente.
Algoritmo de Iteración
Cuando se ha proyectado sobre el
último hiperplano se vuelve a proyectar
nuevamente sobre el primero de ellos y
se continúa el proceso. En un sistema
2x2 es muy fácil entender y visualizar el
procedimiento. Es evidente que
partiendo de un punto arbitrario y
proyectando ortogonal alternadamente
sobre H1 y H2, la sucesión de
proyecciones converge a H1 ⋂ H2.
Algoritmo de Iteración
Reflexión final....

Resulta conveniente reflexionar finalmente sobre la


importancia de explorar nuevos métodos y alternativas
para la reconstrucción. El motivo es que tanto los
métodos iterativos, como los de retroproyección son
aproximados. a medida que los algoritmos sean más
complejos y tomen en cuenta factores físicos como el
ruido, el endurecimiento del haz o la dispersión de
rayos, se podran ir obteniendo mejores aproximaciones.
Procesamiento de Imágenes
Biomédicas
Segmentación I: Umbralizado, Otsu,
Region Growing, Watershed, k-means.
¿A qué nos referimos
cuando hablamos de
segmentación?
Segmentación
La segmentación es uno de los procesos más
importantes del procesamiento digital de imágenes.
Es la técnica que divide a la imagen en función de
ciertas características como: el valor de intensidad de
píxeles, el color y la textura. Por lo tanto, es la más
utilizada para aplicaciones de comprensión y/o
reconocimiento de objetos.
Segmentación
La segmentación de imágenes
divide una imagen a un nivel en el
que se puedan aíslar las regiones u
objetos de interés. Los algoritmos
de segmentación se basan en dos
enfoques, según propiedades
básicas, de los valores del nivel de
gris: discontinuidad o similitud.
Discontinuidad
Se divide la imagen basándose
en cambios bruscos de nivel de
gris:

★ Detección de puntos aislados


★ Detección de líneas
★ Detección de bordes
Similitud
Se divide la imagen basándose
en la búsqueda de zonas que
tengan valores similares,
conforme a unos criterios
prefijados:

★ Crecimiento de región
★ Umbralización
Segmentación
Clasificación:
➢ Estructural: Trabajan sobre la información
estructural de las regiones de la imagen.
➢ Estocásticas: Trabajan sobre los valores de píxeles
discretos de la imagen
➢ Híbridas: usan la información estructural de regiones
y de píxeles discretos juntas.
Segmentación

Estructural

Estocástica
Segmentación
Algunas de las aplicaciones prácticas de la
segmentación de imágenes son las siguientes:

★ Pruebas médicas:
○ Localización de tumores y otras patologías.
○ Medida de volúmenes de tejido.
○ Cirugía guiada por ordenador.
○ Diagnóstico.
○ Planificación del tratamiento.
○ Estudio de la estructura anatómica.
Segmentación
Comenzaremos estudiando desde el enfoque de las
similitudes entre los niveles de grises. Para ello,
determinaremos algunos conceptos, algoritmos y métodos
fundamentales que nos permitirán segmentar nuestras
imagenes de interés.
Umbralizado
La umbralización es uno de los más importantes métodos de
segmentación. El objetivo es convertir una imagen en escala
de grises a una nueva con sólo dos niveles, de manera que los
objetos queden separados del fondo.
Recordemos...
La binarización de
imágenes es una técnica
del procesamiento de
imágenes que consiste en
un proceso de reducción
de la información digital
a dos valores: Negro (0) y
Blanco (1)
Umbralizado Global
Una forma de extraer el objeto del fondo es seleccionar un umbral de
intensidad T que separe los dos conjuntos de valores. Así, cualquier
punto (x, y), donde f(x,y)>T, será parte del objeto sino será partes del
fondo. Si los valores de gris del objeto y del resto de la imagen difieren
claramente, entonces el histograma mostrará una distribución bimodal.
De esta forma lograremos una separación entre el objeto y el fondo.
Umbralizado Global
Tipos deUmbralizado: Multiple
Con el método global del valor
umbral se elige un valor umbral
para toda la imagen.
Pero si establecemos varios
valores umbral se puede modificar
el método de manera tal que
tengamos más de dos segmentos
en la misma imagen.
Tipos deUmbralizado: Invertido
Aquí se invierten los valores de los píxeles, por lo que
esperamos que los más brillantes, que el valor de umbral,
sean negros y los valores más oscuros de la imagen sean
los blancos.
Tipos deUmbralizado: A cero
Esta vez, esperamos que los píxeles más oscuros ( por
debajo del umbral) se volverán completamente negros,
mientras que los píxeles con valor mayor que el umbral
mantendrán su valor original.
Umbralizado Local
Con el método local del valor umbral se divide la imagen original en
regiones y se establece un valor umbral para cada una de ellas.

Una extensión del método local es el método del valor umbral dinámico,
en el que se define para cada pixel una zona vecina N a la que se asigna
un valor umbral adecuado t(N).
Umbralizado Local
Método de Otsu
En general el punto central, de la
segmentación por umbralización,
es encontrar el valor umbral más
adecuado. Un método
ampliamente utilizado es el
método de Otsu. Llamado así en
honor a Nobuyuki Otsu que lo
inventó en 1979, y utiliza técnicas
estadísticas, para resolver el
problema.
Método de Otsu
El método de Otsu calcula el valor umbral de forma que la
dispersión dentro de cada segmento sea lo más pequeña
posible, pero al mismo tiempo que sea lo más alta posible
entre segmentos diferentes. Para ello se calcula el cociente
entre ambas varianzas y se busca un valor umbral
maximizando el cociente.
Método de Otsu
Definimos dos distribuciones de probabilidad,una para los
objetos y otra para el fondo. Se tienen en cuenta que la
probabilidad de que ocurra un nivel de gris dado es:

Si tenemos una imagen NxM, cuyos niveles de gris van de 0


a L-1 y ni es la cantidad de píxeles con nivel de gris i
Método de Otsu
Si suponemos un valor umbral T, cuyo nivel de gris sea k, se
podria dividir el conjunto de pixeles de la imagen en dos
clases. El fondo C1 con píxeles de niveles de gris entre 0 y k,
y los objetos C2 cuyos niveles de gris abarcaría desde k+1 a
L-1.
Por lo tanto, P1(k) nos proporciona la probabilidad de que un
dado pixel pertenezca al segmento C1, y 1-P1(k) la
probabilidad de que un píxel pertenezca al segmento C2.
Siendo:
Método de Otsu
Por lo tanto, el valor medio de C1 será:

Y el valor medio global de la imagen se determina a partir de:


Método de Otsu
El valor que mide la dispersión entre los dos segmentos al
definir un nivel de gris umbral k, queda determinado por la
siguiente ecuación:

Entonces, el valor óptimo del umbral será aquel que


maximice la ecuación anterior:
Método de Otsu
La principal ventaja del método de otsu es que es muy
sensible a las variaciones de luminosidad. Además asume
que el mejor umbral puede obtenerse a partir del análisis
estadístico de la media y la varianza de las intensidades
Método de Otsu
La principal desventaja es que
solo da buenos resultados
cuando el histograma de la
imagen es bimodal. Y eso no es
así en todos los casos.
Método de Otsu
Region Growing
Es un método basado en
similitud. Es decir, aquel que
tiene como objetivo
determinar los píxeles que
cumplen con cierto criterio
de semejanza y permite
agruparlos en regiones.
Region Growing: Aspectos
Centrales
★ Es un procedimiento que agrupa píxeles de la imagen en forma
iterada en regiones mayores bajo un criterio prefijado.
★ Se comienza a partir de puntos “semillas”, para formar una
determinada región, añadiendo aquellos píxeles vecinos una cumplan
la propiedad especificada.
★ La propiedad considerada en el crecimiento de regiones, debe tener
en cuenta la información sobre conectividad o adyacencia de la
imagen.
★ Otro factor importante es la condición de parada.
Region Growing
Veamos un ejemplo sencillo. Proponemos dos “semillas” o “seed” , ambas
marcadas por un nivel de gris. Si definimos las condiciones de crecimientos tales
que: un punto y una semilla original son similares, si y sólo, bajo una conectividad
de vecindad de 4, su diferencia de nivel de intensidad es menor o igual que 2. El
algoritmo entonces, generará la siguiente iteraciones:
Region Growing
Watershed
La segmentación a partir del
algoritmo de watershed es una
técnica morfológica de
segmentación de imágenes de
niveles de gris a partir de la
topología subyacente entre las
intensidades. Es un método de
segmentación basado en regiones,
que divide todo el dominio de la
imagen en conjuntos conexos.
Watershed
La mejor manera de entender
este algoritmo de
segmentación es hacer una
analogía de la topográfica de
un relieve terrestre con la
escala de gris de la imagen.

El concepto de watershed se basa en visualizar una


imagen en 3 dimensiones (3D): dos coordenadas
espaciales vs niveles de gris: T= (x, y, f(x,y)).
Watershed
Básicamente, supongamos como
un pequeño agujero a cada
mínimo local, y que todo el
relieve topográfico es inundado
desde abajo, dejando que el
agua entre a velocidad
constante. El agua va subiendo e
inundando las cuencas.
Esta técnica vincula la detección de contornos o
bordes con el crecimiento de regiones.
Watershed
Cuando el agua de dos cuencas
está a punto de juntarse, se
construye un dique para evitar
la fusión. La inundación
continúa, y llega a un punto en
que solo se ve la parte de
arriba de los diques por encima
de la línea de agua.
Las línea forman un camino conexo, dando por lo
tanto bordes continuos entre las regiones.
Watershed
Watershed
La principal desventaja es
que en imágenes no
homogéneas, y/o embebidas
en ruido, se genera un gran
número de mínimos locales.
Produciéndose una
sobresegmentación.
k-means
K-means es un algoritmo de
clasificación, no supervisada
(clusterización), que agrupa
objetos en k grupos
basándose en sus
características.
k-means
El agrupamiento se realiza
minimizando la suma de
distancias entre cada objeto
y el centroide de su grupo o
cluster. Se suele usar la
distancia cuadrática media.
k-means
El algoritmo consta de tres pasos:
1. Inicialización: una vez escogido el número de grupos k, se establece a cada
uno como centroide en el espacio de los datos, por ejemplo: escogiéndolos
aleatoriamente.
2. Asignación de píxeles a los centroides: cada píxel de los datos es asignado a
su centroide más cercano.
3. Actualización de centroides: se actualiza la posición del centroide de cada
grupo tomando como nueva posición el promedio de la distancia entre los
píxeles pertenecientes al grupo.
Se repiten los pasos 2 y 3 hasta que los centroides no se mueven, o se mueven
por debajo de una distancia umbral en cada paso.
k-means
Los píxeles se representan con vectores reales de d
dimensiones (x1,x2,...,xn) y el algoritmo k-means construye k
grupos donde se minimiza la suma de distancias de los
píxeles a su centroide, dentro de cada grupo S={S1,S2,...,Sk}.
El problema se puede formular de la siguiente forma:
k-means
En cada actualización de los centroides, desde el punto de
vista matemático, imponemos la condición necesaria a la
función E(μi), que para la función cuadrática anterior es:

y se toma el promedio de los elementos de cada


grupo como nuevo centroide.
k-means
k-means
k-means

Interación 0 Interación 1 Interación 2


k-means

Interación 6 Interación 7
k-means
k-means
k-means
Las principales ventajas del método k-means son que es un
método sencillo y rápido. sin embargo, es necesario decidir
el valor de k y el resultado final depende directamente de la
inicialización de los centroides,que en principio, no converge
al mínimo global sino a un mínimo local.
k-means
Procesamiento de Imágenes
Biomédicas
Segmentación II: Contornos Activos,
Etiquetado, Bounding Box.
¿A qué nos referimos
cuando hablamos de
modelos deformables?
Modelos Deformables
Los modelos deformables son curvas
( para imágenes 2D), o superficies
( para 3D), compuestas de un material
elástico definidas por ecuaciones
diferenciales que determinan su forma
y su movimiento.
La interpretación física de un modelo
deformable es la de un cuerpo elástico
que responde a fuerzas y restricciones
que sobre él se aplican.
Modelos Deformables
Consideramos entonces la aplicación de modelos de
contornos deformables como un método para extraer formas
“suaves” en una región u objeto de la imagen.
Es un proceso de segmentación, se interpreta como una curva
elástica que, introducida en la imagen, se despliega hasta
alcanzar la frontera del contorno correspondiente al objeto
que se desea segmentar.
Modelos Deformables
La filosofía del enfoque es lograr que
la curva se acomode moviéndose
desde su posición inicial hasta el
borde deseado, a partir de la acción
de dos tipos de fuerzas:
★ Internas, restricciones de suavidad
y fuerzas de presión.
★ Externas, fuerzas de atracción de
aristas y fuerzas de peso.
Contornos Activos
Específicamente, en el
método de segmentación
por Contornos Activos, se
propone una estimación
inicial de una curva
(“Snake”) y luego se usa un
sistema de optimización,
para refinar la estimación
inicial a partir de los datos
de la imagen.
Contornos Activos

Los modelos de contornos


activos son una manera de
extraer contornos combinando
características de imágenes,
factores de regularización y otras
restricciones.
Contornos Activos
Así, definiremos un problema inverso de aproximación
óptima: donde la tarea principal será adaptar la función ν
(x(s),y(s)), definida en el plano espacial de la imagen f(x,y),
de forma que minimice la energía total del sistema.
La curva se va deformando, expandiéndose o
contrayéndose, por la aplicación de las fuerzas, con el
objetivo de minimizar la función de energía asociada.

dE(ν)/dν=
0
Contornos Activos
Estos modelos deformables tienen dos tipos de energías
asociadas: una energía interna, que caracteriza los
atributos deseados del contorno; y una energía externa,
que ata el contorno con lo esencial de la imagen. El
objetivo es la minimización de la suma de estas energías.
Contornos Activos
Eint(ν) aporta las características de deformación del contorno
elástico, y tiende a mantener la forma de la curva. La primera
componente, trata de minimizar la energía de tensión sobre el
contorno que controla el estiramiento, permitiendo que se
comporte como una cuerda. La segunda componente,
introduce características de rigidez al contorno para lograr
que este sea suave.
Contornos Activos
Los parámetros w1(s) y w2(s), determinan el grado
de tensión y rigidez del contorno respectivamente.
Al variar estos coeficientes, la curva puede cambiar
su comportamiento durante la evolución. Estos
parámetros pueden depender de s, aunque en la
práctica se suelen especificar valores constantes
para toda la curva.
Contornos Activos
Eext(ν) representa la energía potencial del modelo y se define
generalmente a partir de un campo de potenciales P(ν), que
se diseñan de forma tal que sus mínimos locales coincidan
con extremos de intensidad, bordes u otra característica de
interés en la imagen que resulten relevante.
Contornos Activos
Se han propuesto varias alternativas para lograr el
acoplamiento de la curva a las características de la imagen.
Un ejemplo de una función de energía potencial para atraer
el contorno deformable hacia los bordes de la imagen I(x,y)
puede ser:

Donde Gσ(x, y) es una distribución Gaussiana con desviación estándar σ y se


aplica sobre la imagen mediante una convolución para provocar un efecto de
suavizado, ∇ es el operador gradiente y we es un parámetro positivo que
controla la magnitud del potencial.
Contornos Activos
Finalmente, minimizamos la función de la energía total del
sistema. Cabe aclarar que un enfoque más potente para la
resolución consiste en elaborar un sistema que modifica la
forma y hace evolucionar la curva a través del tiempo t. La
ecuación para el movimiento de una snake ν(x(s,t),y(s,t))
variable en el tiempo, con energía interna Eint y energía
externa Eext es:
Contornos Activos
★ El primer término, representa la fuerza debido a la
inercia del modelo.
★ El segundo término, la fuerza de amortiguación.
★ Los siguientes términos, constituyen las fuerzas de
tensión y de flexión, relacionadas a la energía interna.
★ El último, representa la fuerza externa debida al
potencial que acopla la snake a la imagen.
Contornos Activos
El sistema va evolucionando en el tiempo por
acción de las fuerzas aplicadas, alcanzado el
equilibrio cuando el contorno alcanza un
extremo y se detiene. Esto implica que:

2 2
∂ ν/∂t = ∂ν/∂t = 0
Contornos Activos
Un modelo simplificado donde μ(s)=0 y el sistema logra el
equilibrio cuando las fuerzas externas se equilibran con las
fuerzas internas y de amortiguación. Será posible
determinar una curva ν que minimice la energía y
represente el borde más cercano al del objeto de interés a
segmentar, resolviendo la ecuación de movimiento.
Contornos Activos
Las ecuaciones que rigen la evolución del modelo no
poseen solución analítica y se requiere la aplicación de
métodos numéricos discretos para su aproximación. El
modelo más utilizado es el T-Snakes.
Contornos Activos
1. Un contorno bidimensional formado por un conjunto de N nodos,
indexados por i=0,1,...,N-1 conectados en serie por N arcos.
2. Asociando a cada nodo una posición si(t)=(xi(t),yi(t)), junto a un vector
normal y las componentes de fuerza que actúan sobre él.
3. Se establece la condición s0(t)=sN(t) para cerrar la curva.
Contornos Activos
La evolución del modelo
deformable se realiza Ecuación de movimiento
moviendo cada nodo si, de
la superficie, por medio de
una versión simplificada y
discreta de la Ecuación de
Movimiento.
donde αi(t), βi(t), ρi(t) y fi(t) son magnitudes vectoriales que
representan las fuerzas de tensión, flexión, inflación y externa
respectivamente y γi es un coeficiente de amortiguación que
regula la velocidad ṡi del i-ésimo nodo.
Contornos Activos: Eint
● La fuerza de tensión
representa la resistencia al
estiramiento, manteniendo un
espaciado uniforme entre los
nodos.
● La fuerza de flexión es la
Ambas se calculan a partir del
resistencia a deformaciones Laplaciano y el Laplaciano
de curvatura. cuadrático. Donde N(i) es el conjunto
de nodos sj vecinos al nodo si y m es
el número de nodos vecinos.
Contornos Activos: Eext
● La fuerza de inflación se
aplica para guiar la
superficie hacia los bordes
del objeto.

● La fuerza externa actuará


conteniendo el avance de la
superficie cuando se
encuentre con los bordes del
objeto de interés.
Contornos Activos
Para resolver la ecuación de movimiento discreta, se utiliza el
método de integración explícito de Euler y se estima así una
solución numérica de la Ecuación Diferencial. Para esto, el método
aproxima la derivada temporal mediante diferencias finitas,
actualizando la posición de cada nodo del tiempo t al tiempo t+Δt,
para un ∆t suficientemente pequeño, de acuerdo con la expresión:
Contornos Activos

Variamos Elasticidad Variamos Rigidez


Contornos Activos
El proceso de iteración procede calculando en cada paso las
nuevas posiciones de los nodos de la superficie. El proceso se
repite hasta que ningún desplazamiento individual haya excedido
un cierto error de convergencia durante un número especificado
de pasos de deformación, o cuando se alcance un número máximo
de pasos requeridos.
Contornos Activos
Ventajas
★ Independencia respecto a la inicialización del
contorno.
★ Capacidad de detectar bordes cóncavos.
★ Rango de captura amplio.
Contornos Activos
Contornos Activos
Desventajas:
★ Los valores de α y β deben ser elegidos cuidadosamente
para obtener resultados satisfactorios.
★ Si los puntos están muy apartados, y una esquina está
entre dichos puntos, se suavizará demasiado la esquina
sobre el contorno.
★ Requiere de una gran cantidad de operaciones para
encontrar una buena aproximación al contorno.
Contornos Activos
Etiquetado
El etiquetado es una operación
que agrupa los píxeles
correspondientes a un mismo
objeto y les asigna una etiqueta.
De esta manera, se pueden
separar unos objetos de otros.
Este proceso se realiza una vez
que la imagen ha sido binarizada
por algún método de
segmentación.
Etiquetado
Como resultado, se obtiene una
imagen separada donde cada
objeto posee una etiqueta
diferente. Así se puede entonces
extraer características de los
mismos, como su centroide, sus
coordenadas, su tamaño, o
conocer el número de objetos
segmentados en la imagen.
Etiquetado
Debido a la naturaleza del escaneo de la imagen (de arriba
a abajo y de izquierda a derecha), los algoritmos para
etiquetar dan buenos resultados con objetos convexos,
pero presentan problemas cuando aparecen objetos que
tienen concavidades (formas en U).
Etiquetado
Las colisiones de etiquetas deben ser tratadas con mucho
cuidado, y en general se utiliza el método de fusión de etiquetas.
Este consiste en que al detectar una colisión, se decide cual es la
etiqueta menor ( por ejemplo las de color verde), y todos los
píxeles etiquetados en rojo cambian su valor de etiqueta a verde.
Etiquetado
El algoritmo de etiquetado se denomina también con el
nombre de MERGE LABELING. Podemos identificar en la
imagen de entrada dos posibles valores para los píxeles:
1) PÍXEL_ACTIVO

2) PÍXEL_NO_ACTIVO
En la salida podemos identificar valores de
PÍXEL_NO_ACTIVO y las etiquetas para cada uno de los
PÍXELES_ACTIVOS.
Etiquetado
Por cada píxel P, mediante una máscara, se evalúa en forma horizontal:
I. Si P tiene etiqueta y todos los vecinos tienen el mismo valor, se
marcan lo vecinos no etiquetados con la misma etiqueta; sino se
obtiene la lista de vecinos presentes y se hace el cambio de
etiqueta(MERGE).
II. Si P no tienen etiqueta y todos sus vecinos no están etiquetados, o
no tiene vecinos, se marca el pixel con la etiqueta siguiente
(incrementando en una unidad a la anterior) y así con todos los
vecinos.
III. Si todos los vecinos etiquetados son diferentes, se obtiene la lista
ordenada de vecinos etiquetados presentes y se hace el cambio de
etiqueta (MERGE); sino se marca a P con la etiqueta del vecino.
Etiquetado
Etiquetado
La desventaja de este proceso es que depende
absolutamente de la segmentación. Si dos objetos
diferentes muy cercanos en la imagen quedan conectados
al binariazarla les corresponderá la misma etiqueta.
Etiquetado
Bounding Box
Los cuadros delimitadores,
conocidos como Bounding Box, son
utilizados para detectar objetos en
el entorno de una imagen. Así, se
representa una posible región de
interés. En general, cada rectángulo
de reconocimiento, o detección de
características, devuelve la región
en forma de coordenadas de
píxeles: el ancho y la altura.
Bounding Box
Usando las coordenadas iniciales junto con el ancho y la
altura (en píxeles), codificamos nuestro algoritmo para
dibujar cuadros. La detección de objetos combina dos
tareas:
1) Dibuja un cuadro delimitador alrededor de cada objeto
de interés.
2) Le asigna una etiqueta de clase a cada cuadro.
Bounding Box
Básicamente, para detectar un objeto
debemos advertir su presencia,
delimitando y separándolo de los
demás objetos ubicados en la imagen.
Eso supone que debemos tener una
imagen con uno o más objetos que al
procesarla nos devuelva uno o más
cuadros delimitadores (definidos por
dos puntos: ancho y alto) y una etiqueta
de clase para cada uno.
Bounding Box
Para construir el rectángulo sobre
la región simplemente se recorre
la imagen binaria pixel por pixel
fila a fila de la imagen hasta
detectar un uno, ymax. De la misma
manera se determinarán las
coordenadas ymin, xmax y xmin.
Bounding Box
Procesamiento de Imágenes
Biomédicas
Segmentación III: Morfología
Matemática, Esqueletización, Métricas
de Calidad de Segmentación .
¿A qué nos referimos
cuando hablamos de
Morfología Matemática?
Morfología Matemática
Las operaciones morfológicas pueden
ser usadas para remover imperfecciones
de la imagen segmentada, para luego
obtener información de la estructura y
forma de los objetos.
La idea del enfoque morfológico es
transformar la imagen, mediante
diversos elementos estructurales, en
otra que preserve las formas esenciales
de los objetos. Facilitando así su
posterior análisis e interpretación.
Morfología Matemática
La morfología matemática nació en
los años sesenta en Francia. George
Matheron estudiaba la relación
entre la geometría de los medios
porosos y sus permeabilidades. A
su vez, Jean Serra cuantificaba la
petrografía de los minerales de
hierro. A partir de estos estudios se
construyeron las bases teóricas
para el análisis morfológico de las
imágenes binarias.
Morfología Matemática
★ La Morfología Matemática en imágenes, describe
un conjunto de técnicas que tratan con la forma
( morfología) de las características de la imagen.
★ Las operaciones morfológicas, son aplicadas para
reducir las imperfecciones que aparecen luego de la
segmentación.
★ Los filtros morfológicos, tienen efectos sobre las
estructuras de la imagen.
Morfología Matemática
Morfología Matemática
El procesamiento morfológico de
imágenes es muy similar al filtrado
espacial. El elemento estructural
recorre cada píxel de la imagen
original para obtener el de la imagen
procesada. El valor de este píxel
nuevo depende de la operación
ejecutada. Hay varias operaciones
morfológicas básicas. Sin embargo,
las de mayor interés en imágenes
son la erosión y la dilatación.
Repasemos...
Teoría básica de conjuntos:

● Unión A∪B

● Intersección A∩B

● Complemento (A)c

● Diferencia A-B
Reflexión
La Reflexión de B se define
de la siguiente manera:
Traslación
La traslación de A por z se
define de la siguiente
manera:
Operaciones Lógicas
Operaciones lógicas entre
imágenes binarias: aquí el negro
representa el uno y blanco el cero.
Morfología Matemática
Los filtros morfológicos se especifican mediante la definición
de dos aspectos: la operación que desempeñan y su
correspondiente estructura de referencia. El tamaño y la forma
de la estructura son dependientes de la aplicación.
Morfología Matemática
El elemento de estructura puede tener “cualquier” forma y
tamaño. Por simplicidad vamos a usar estructuras
rectangulares con origen en el punto central de la estructura.

Fit: Todos los píxeles con valor 1


en el elemento estructural cubren
un área en el imagen también con
valores 1 (área segmentada).
Hit: Cualquier píxel con valor 1 del
elemento estructural cubre al
menos un elemento con el mismo
valor en la imagen.
Morfología Matemática
Todos los procedimientos morfológicos son basados en estas
ideas simples.
Dilatación
La dilatación, es una operación
morfológica correspondiente a la
idea de crecimiento, ó de
“añadir” una capa de pixeles a
una imagen. Este proceso puede
ser interpretado como el
resultado de añadir a los pixeles
con valor 1, la forma
correspondiente a la estructura
de referencia.
Dilatación
Dilatación de una imagen A por
un elemento estructural B, está
definida por la operación A⊕B.
El elemento estructural B es
posicionado con su píxel central
sobre el pixel (x,y) de la imagen a
procesar, y el valor del pixel nuevo
se determinará acorde a la regla:
la salida tendrá valor 1 si B hits A
y 0 en el caso contrario.
Dilatación
Formalmente la dilatación
está formada por todos los
elementos x, tal que A y B
( reflejado y desplazado) al
menos se superpongan en un
punto. Al conjunto B se lo
llama elemento estructural.
Erosión
La erosión, es una operación
morfológica correspondiente a la
idea de reducción, ó de “quitar”
una capa de pixeles a una imagen.
Este proceso puede ser
interpretado como que si un píxel,
resultado de la erosión, es 1, la
estructura de referencia centrada
en ese pixel coincide en forma con
el contenido de la imagen.
Erosión
Erosión de una imagen A por un
elemento estructural B, está dada
por AΘB.
El elemento estructural B es
posicionado con su píxel central
sobre el pixel (x,y) de la imagen a
procesar, y el valor del pixel
nuevo se determina acorde a la
regla: la salida tendrá valor 1 si B
fits A y 0 en cualquier otro caso.
Erosión
Formalmente, la erosión de A
por B es el conjunto de todos
los elementos de x, tal que B
trasladado en x está
contenido en A.
Morfología Matemática
★ La DILATACIÓN expande una imagen, mientras que la
EROSIÓN la reduce.
★ Sin embargo, la EROSIÓN no es lo inverso de la
DILATACIÓN.
★ EROSIÓN y DILATACIÓN son operaciones duales:

★ El complemento de una EROSIÓN es lo mismo que una


DILATACIÓN del complemento de la imagen por el
elemento estructural reflejado.
Morfología Matemática
Existen otras operaciones morfológicas de interés que pueden
llevarse a cabo combinando los procesos de erosión y
dilatación. Las operaciones combinadas más utilizadas son:
★ Opening (Apertura)
★ Closing (Cierre)
★ Skeletons (Esqueletización)
Apertura (Opening)

La apertura de una imagen A


por un elemento estructural
B, simbolizado A○B es
simplemente una erosión
seguida por una dilatación.
Apertura (Opening)
Una apertura produce en su primera parte (erosión), para
que todos los píxeles de la imagen en 1, que sean más
pequeños que la estructura de referencia, sean eliminados.
Las estructuras que permanezcan en la imagen serán, a
través de la dilatación, suavizadas y aumentadas
aproximadamente igual a su tamaño original.
Apertura (Opening)
Cierre (Closing)
El cierre (closing) de una
imagen A por un elemento
estructural B, simbolizado A•B
es simplemente una dilatación
seguida por una erosión.
Cierre (Closing)
La operación de cierre, o cerramiento , también tiende a
suavizar contornos, pero a diferencia de la anterior, une
cortes en partes angostas , en golfos largos y finos, elimina
pequeños huecos y llena baches en los contornos.
Cierre (Closing)
Morfología Matemática
Esqueletización
La esqueletización, pretende obtener de la imagen un patrón
continuo que contenga la menor cantidad de datos posibles,
pero que siga aun conteniendo un rastro del objeto original.
Para ello es necesario contar con técnicas adecuadas que nos
faciliten el poder reducir los datos de los objetos.
Esqueletización
Para ello existen algoritmos que operan de manera general
eliminando los píxeles bajo reglas pre definidas, y
deteniéndose cuando no haya más cambios que hacer.
Obtener el esqueleto de una imagen significará encontrar
un patrón, a partir de la forma del objeto, el cual contendrá
menor datos, pero conservará la continuidad y la menor
cantidad de píxeles posible. Obtener un esqueleto, es un
proceso iterativo.
Esqueletización
En otras palabras, después que los
píxeles hayan sido quitados, el patrón
debe ser reconocido. El esqueleto
obtenido debe tener las siguientes tres
propiedades.
1) Tan delgado como sea posible
2) Conectado
3) Centrado
Cuando estas características son
alcanzadas el algoritmo debe detenerse.
Esqueletización
Otra manera de pensar sobre los esqueletos, es como
el lugar donde convergen los centros de círculos bi
tangenciales que entran de manera completa dentro
de la región considerada.
TrasformadaHit-or-Miss
La transformación hit-or-miss se define de la siguiente
manera:

Debido a la definición formal de diferencia de conjuntos y la


relación dual que existe entre EROSIÓN y DILATACIÓN,
podemos escribir la ecuación anterior como:
TrasformadaHit-or-Miss
Siendo el elemento estructural B=(J,K) de la configuración que
queremos buscar:
● Donde la componente J es el conjunto formado por los
píxeles blancos de B
● Y la componente K el conjunto formado por los píxeles
blancos de Bc.
TrasformadaHit-or-Miss
La esqueletización reduce una
imagen a un conjunto de líneas
conectadas, que mantienen la
geometría y topología de la
imagen original. El algoritmo de
HIT-OR-MISS, nos permite
detectar píxeles de bordes y
esquinas, eliminándolos de la
imagen binaria de entrada, para
lograr el adelgazamiento
simétrico del objeto.
TrasformadaHit-or-Miss
Utilizando la definimos de ADELGAZAMIENTO simétrico de
A basada en una sucesión de elementos estructurales
{B}=(B1, B2,...,Bn)
donde Bi es una versión rotada de Bi-1.
Bajo este concepto definimos el ADELGAZAMIENTO de A
como sigue:
TrasformadaHit-or-Miss
Algunas Aplicaciones
Dilatación
Algunas Aplicaciones
Erosión
Algunas Aplicaciones
Algunas Aplicaciones
Esqueletización
Métricas de Calidad
Encontrar un algoritmo de
segmentación adecuado, así
como elegir sus parámetros
internos para que sean óptimos
y acordes a la tarea a resolver,
es aún un problema. De aquí, la
necesidad de identificar las
herramientas apropiadas para
evaluar y comparar algoritmos
de segmentación.
Métricas de Calidad
Existen diversas herramientas y
técnicas, así como enfoques de
las mismas, que se pueden
utilizar a la hora de optimizar y
evaluar algoritmos. Aquí
simplemente veremos dos índices
que nos permitirán comparar la
similitud entre dos imágenes
binarias. Estos se conocen como
índice de Sørensen-Dice e índice
de Jaccard.
Índice de Jaccard
Este índice, es utilizado para medir la similitud entre dos
conjuntos A y B al dividir su intersección entre la unión
de los mismos. Bajo esta simple expresión nos permite
comparar que tan bien segmentó un algoritmo respecto
de otro.

El índice Jaccard toma valores entre 0 ( nada similar) y 1


(idéntico). Este índice resulta sencillo en su implementación,
pues implica cálculos aritméticos sobre imágenes binarias.
Índice de Jaccard
Índice de Sørensen-Dice
El índice de Sørensen-Dice, nos permite comparar la
similitud entre dos imágenes A y B, mediante la operación
que evalúa el doble de la razón entre la intersección y la
suma de los conjuntos correspondientes.

Este coeficiente, al igual que el índice de Jaccard, da resultados


en el rango [0, 1]. Este índice resulta complementario, ya que le
da mayor peso a los verdaderos positivos.
Índice de Sørensen-Dice
Procesamiento de Imágenes
Biomédicas
Análisis de Texturas por Matriz de
Co-ocurrencia
¿Qué entendemos por
Análisis de Texturas?
Análisis de Texturas
Una característica importante
de las imágenes es la textura.
La textura es una propiedad
innata de todas las superficies.
Por ese motivo, cuando se
desea detectar la presencia de
un objeto, puede identificarse
por sus características de
textura.
Análisis de Texturas
Podemos considerar una textura como algo consistente de
elementos mutuamente relacionados. Suele llamarse téxel (texture
elements); por ejemplo, en la textura de la arena los téxel serán los
gramos que la conforman. En algunos casos existen varios niveles
de elementos texturales: las telas escocesas existe un téxtel dado
por el tejido y otro dado por los dibujos impresos en él.
Análisis de Texturas
La textura de una imagen es una
cuantificación de la variación
espacial de valores de tono; es
imposible definirlo precisamente
por su carácter sensorial. El uso
de la textura de una imagen
proviene de la habilidad innata de
los humanos de reconocer
diferencias texturales.
Análisis de Texturas
En la literatura relativa al
procesamiento de imágenes se
puede encontrar una gran
cantidad de definiciones de este
concepto. Sin embargo, podemos
pensar, en forma general, a la
textura como una función de
variación espacial en las
intensidades de los pixeles.
Análisis de Texturas
Existen varios métodos que
nos permiten extraer
características para clasificar y
segmentar una imagen. A
estos métodos es posible
clasificarlos en cuatro
categorías y estas a su vez
poseen sus respectivas
metodología.
Análisis de Texturas
La textura es una propiedad de regiones, la textura de un
punto es indefinida. Por lo tanto, es una propiedad
contextual y su definición involucra valores de gris en una
vecindad espacial. El tamaño de la vecindad depende del
tipo de textura, o el tamaño de los téxeles que la definen.
Análisis de Texturas
El método más comúnmente utilizado para medir
matemáticamente texturas es la matriz de co-ocurrencia de
niveles de grises, GLCM (Grey Level Co-occurrence Matrix)
basadas en estadísticas de 2do orden.
Análisis de Texturas
La información textural en una imagen está contenida
en la relación espacial que los tonos de grises tienen
entre ellos. Esas relaciones están especificadas por las
medidas que consideran la relación de co-ocurrencia
entre grupos de dos pixeles de la imagen original, a
una distancia dada y computadas en todas direcciones
(0°, 45°, 90° y 135°).
Análisis de Texturas
El histograma proporciona
información sobre los niveles de
gris de una región, pero no
indica cómo están distribuidos
en el espacio. Un ejemplo, es la
existencia de imágenes
visualmente distintas, cuyos
histogramas no muestran
ninguna diferencia.
Análisis de Texturas
La Matriz de co-ocurrencia considera la relación espacial
entre dos píxeles, llamados píxel de referencia y píxel
vecino. Por ejemplo, si se escoge el píxel vecino que está
situado un píxel a la derecha de cada píxel de referencia,
esto se expresa como (1,0): 1 píxel en la dirección x, 0 píxel
en la dirección y.
Análisis de Texturas
Se pueden utilizar diferentes relaciones entre píxeles, por
ejemplo: (-1,0) un píxel a la izquierda del píxel de referencia,
(1,1) un píxel a la derecha y un píxel abajo (en diagonal). En
general se utilizan las combinaciones que dan lugar a las
cuatro orientaciones principales:
● (1,0) orientación horizontal 0º
● (0,-1) orientación vertical 90º
● (1,1) orientación diagonal hacia arriba 45º
● (1,-1) orientación diagonal hacia abajo 135º
Análisis de Texturas
¿Pero cómo construimos la matriz de co-ocurrencia? Si se
representa una imagen prueba, donde los valores
corresponden a sus niveles de grises. La imagen tiene 4
pixeles de lado y 4 niveles de grises: 0, 1, 2 y 3.
Análisis de Texturas
Supongamos que recorremos la imagen de prueba en la
dirección (0,1), las posibles combinaciones de niveles de grises
serían:
Análisis de Texturas
La primera celda deberá contener la cantidad de veces que
ocurre la combinación 0,0. Cuántas veces, a través del área
de la imagen, un píxel con valor de gris igual a 0 ( píxel
vecino), está situado a la derecha de otro píxel con valor 0
( píxel de referencia).
Análisis de Texturas
Existen, por lo tanto
diferentes matrices de
co-ocurrencia para cada
relación espacial, según se
considere el vecino de arriba,
al costado o en diagonal.
Análisis de Texturas
En la matriz obtenida, se cuenta
cada píxel de referencia con su
vecino a la derecha. Si el cálculo se
realiza solo de este modo, usando
una única dirección, el número de
veces que aparece la combinación
(2,3) es distinto que el de (3,2) y,
por lo tanto, la matriz no es
simétrica respecto de la diagonal.
Análisis de Texturas
Sin embargo, la simetría es
necesaria para el cálculo. Ésto
se logra si cada par de píxeles
se cuentan dos veces: una vez
a la derecha y otra vez a la
izquierda. Para obtener una
matriz simétrica la forma más
sencilla es sumarle su matriz
traspuesta.
Análisis de Texturas
Una vez obtenida la matriz simétrica, el paso siguiente es
expresar esta matriz como: el número de veces que un
evento ocurre, dividido por el número total de posibles
eventos.

Donde:
★ i es el número de filas y j el número de columnas
★ V es el valor de la celda (i,,j) en la ventana
★ Ci,j es la probabilidad en la celda i,j
★ N es el número de filas o columnas
Análisis de Texturas
Considerando la imagen de
prueba de 4 x 4 píxeles, y la
relación (1,0), el número total de
posibles pares es de 12; y para
una relación horizontal (derecha
más izquierda) ese número se
duplica (24).
Análisis de Texturas
De esta manera colocando los
valores de probabilidad
normalizamos la matriz.
Aplicando la ecuación a la matriz
simétrica se obtiene el resultado,
donde el sumatorio de todos los
elementos debe ser igual a 1.
Pues, como dijimos, debemos
0,25+0,166x2+0,083x3+0,042x4=1
normalizarla.
Análisis de Texturas
Análisis de Texturas
Análisis de Texturas
Análisis de Texturas
Algunos aspectos a resaltar:
1. Los elementos de la diagonal representan pares de
píxeles que no tienen diferencias en su nivel de gris. Si estos
elementos tienen probabilidades grandes, entonces la
imagen no muestra mucho contraste, la mayoría de los
píxeles son idénticos a sus vecinos.
2. Sumando los valores de la diagonal tenemos la
probabilidad que un píxel tenga el mismo nivel de gris que su
vecino.
Análisis de Texturas
3. Las líneas paralelas a la diagonal separadas una celda,
representan los pares de píxeles con una diferencia de 1 nivel
de gris. De la misma manera sumando los elementos
separados dos celdas de la diagonal, tenemos los pares de
píxeles con dos valores de grises de diferencia, y así
sucesivamente.
4. Sumando los valores de estas diagonales paralelas
obtenemos la probabilidad que un píxel tenga 1, 2, 3...
niveles de grises de diferencia con su vecino.
Análisis de Texturas
Las principales propiedades de la matriz:
★ Cuadrada: El rango de los niveles de gris de los píxeles de
referencia y el de los vecinos es el mismo.
★ Tiene el mismo número de filas y columnas que el número
de bits de la imagen.
★ Es simétrica con respecto a la diagonal: significa que los
mismos valores ocurren en las celdas opuestas a la
diagonal.
Análisis de Texturas
Las funciones GLCM caracterizan la textura de
una imagen calculando la frecuencia con la que
se producen pares de píxeles con valores
específicos y en una relación espacial
especificada en una imagen. Creando un GLCM y,
a continuación, extrayendo medidas estadísticas
de esta matriz.
Análisis de Texturas
El cálculo de las métricas (features) de co-ocurrencia se basa
en la matrix GLCM de niveles de gris. La misma, es calculada
para cada vecindad de un píxel. Si llamamos g(i,j) al
elemento (i,j) de la matriz de co-ocurrencia de niveles de
gris. Podemos definir los siguientes atributos basados en
esta matriz
Análisis de Texturas
La matriz de co-ocurrencia describe la frecuencia de un nivel
de gris que aparece en una relación espacial específica con
otro valor de gris, dentro del área de una ventana
determinada. Es un resumen de la forma en que los valores
de los pixeles ocurren al lado de otro en una pequeña
ventana.
Análisis de Texturas
Respecto del tamaño de la
ventana, esta debe ser cuadrada
y con número impar de píxeles. El
resultado del cálculo de la textura
es un único número que
representa la ventana completa,
el cual es colocado en el lugar del
píxel central.
Análisis de Texturas
Luego, la ventana se mueve un píxel y el cálculo se repite
calculando una nueva matriz de co-ocurrencia para esta
nueva ventana; resultando un nuevo valor, para el píxel
central, de esta nueva posición de la ventana. De este modo
se construye toda una nueva imagen con valores de
texturas.
Análisis de Texturas
Cada pixel en la ventana se va
convirtiendo sucesivamente en el
pixel de referencia. Empezando por
el ubicado arriba a la izquierda y
finalizando abajo a la derecha. Los
píxeles ubicados en el margen
derecho de la imagen original, no
tienen vecino a la derecha, por lo
tanto, no son usados en el cómputo.
Análisis de Texturas
El tamaño relativo de la ventana y de los objetos en la
imagen determinan la utilidad de ésta medida para la
clasificación. Es recomendable que la ventana sea menor
que el objeto y lo suficientemente grande como para
capturar la variabilidad del mismo. El mejor tamaño de la
ventana se podrá estimar inspeccionando visualmente la
imagen.
Análisis de Texturas
μ y σ son la media y desvío estándar de la
suma de una fila (o columna, debido a la
simetría)
Análisis de Texturas
La Energía mide la uniformidad local. Mientras
más alto es el valor, más uniforme es la textura.
Análisis de Texturas
La Entropía mide el nevel de organización de
una textura. Si es completamente aleatoria, va a
tener una muy alta entropía.
Análisis de Texturas
La Correlación mide la dependencia lineal de los
valores de gris en la matriz de co-ocurrencia.
Análisis de Texturas
Momento de diferencia inversa (IDM) mide
homogeneidad de la imagen. Valores bajos para
imágenes poco homogéneas y altos para
imágenes homogéneas.
Análisis de Texturas
El Contraste mide la variación local de niveles de
gris en la matriz. Si los píxeles vecinos son muy
similares, el contraste es bajo.
Análisis de Texturas
Cluster Shade se cree que mide la uniformidad
percibida de la textura. Un valor alto significa
que hay asimetría en la textura.
Análisis de Texturas
Cluster Prominence métrica relacionada a la
simetría perceptual de la textura. Si el valor es
alto, la textura es menos simétrica.
Análisis de Texturas
Correlación de Haralick es la correlación original
diseñada por Haralick in 1973, y mide la
dependencia lineal de los píxeles entre sí.
Análisis de Texturas
Los atributos basados en
la matriz de
co-ocurrencia calculados
se asignan al punto
central de la ventana de
análisis. Este
procedimiento se repite
para todos los puntos.

También podría gustarte