Está en la página 1de 9

CESAR AUGUSTO FERNANDEZ SUAREZ

Actividad 2. Tarea: Convolution

1.DESCRIPTORES Y METRICAS EN EL PROCESAMIENTO DE IMÁGENES

NOTA: la siguiente información pertenece a distintas fuentes , que se consultaran en las


referencias finales.

1.1. Descriptor: Proceso que nombra y analiza una pequeña área alrededor de un punto de interés
con el afán de obtener correspondencias entre pequeños sectores.

1.1.1. Descriptores de Forma

Definir la forma de un objeto puede resultar difícil.

• Forma = figura exterior (o geometría) de un cuerpo u objeto.

• Descriptores de forma más usados:

– Área

– Perímetro

– Diámetro

– Distancias: máxima y mínima al centro de masas

– Ejes mayor y menor, ángulo del eje mayor

– Envolvente (bounding box)

1.1. 2.. Descriptores en la dinámica de la migración celular

● Perímetro:

– Número de píxeles que forman el contorno de la forma

– Diferente resultado si se usa 4-conectividad ó 8-conectividad (igual ocurre con otros


descriptores)

● Área:

– Número de píxeles o voxel de la forma

● Centroide o centro de masas:

– Promedio de los valores de las coordenadas de los puntos de la forma

– También puede calcularse a partir de los puntos del contorno

● Envolvente (bounding box) que encierra al objeto que estamos analizando

1.2.3.Descriptores Topológicos
Son ampliamente usados para caracterizar circuitos o redes tubulares en el desarrollo de diversos
tejidos durante la migración celular

De los cuales es importante mencionar:

● La conectividad

● Agujeros (2D)

● Túneles y cavidades (3D)

● Esqueleto

- Una imagen segmentada puede estar compuesta por regiones que tienen componentes conexas

que configuran los objetos, es decir, regiones tales que dos puntos cualesquiera de ellas se pueden

unir por una curva contenida en ellas.

- Un agujero es una región de la imagen que está completamente encerrada por una componente

conexa de la imagen.

- Esqueleto representa la estructura de un objeto (conservando la conectividad, los agujeros y, en

cierto modo, la extensión del mismo) con un número pequeño de píxeles.

1.1.4.Descripción del Objeto

Los objetos son representados como un conjunto de pixeles en una imagen.

Los descriptores permiten comparar y reconocer objetos haciendo coincidir los

descriptores de objetos en una imagen en contra de los descriptores de objetos

conocidos.

Los descriptores deben poseer cuatro propiedades:

● Conjunto completo.

● Congruentes.

● Invarianza.

● Conjunto Compacto.

1.2.Evaluación de los Descriptores

1.2.1. MÉTRICAS DE EFICIENCIA:

O Numero de keypoints

O Tiempo de ejecución

T total=¿T detector +T extractor ¿


O Consumo de batería

Bc
Bt =
n
O Pesos de los descriptores

Pt =KB necesarios para almacenar un vector de caracteristicas

1.2.2.MÉTRICAS DE EFICACIA:

Precisión vs Recall

O Precisión ( P )

¿ correct matches
P=
¿ correct matches+¿ false matches
O Recall( R)

¿ correct matches
R=
¿ correspondences
O Medida-F1 ( F 1)

2 PR
F 1=
P+ R
1.2.3. Métricas de calidad de imagen

La calidad de imagen puede degradarse debido a distorsiones durante la adquisición y el


procesamiento de la imagen. Algunos ejemplos de distorsión son el ruido, el desenfoque, el timbre
y los artefactos de compresión.

Se han hecho esfuerzos para crear medidas objetivas de calidad. Para muchas aplicaciones, una
valiosa métrica de calidad se correlaciona bien con la percepción subjetiva de la calidad por parte
de un observador humano. Las métricas de calidad también pueden realizar un seguimiento de los
errores no percibidos a medida que se propagan a través de una canalización de procesamiento de
imágenes y se pueden usar para comparar algoritmos de procesamiento de imágenes.

Si una imagen sin distorsión está disponible, puede utilizarla como referencia para medir la calidad
de otras imágenes. Por ejemplo, al evaluar la calidad de las imágenes comprimidas, una versión sin
comprimir de la imagen proporciona una referencia útil. En estos casos, puede utilizar métricas de
calidad de referencia completa para comparar directamente la imagen de destino y la imagen de
referencia.

Si una imagen de referencia sin distorsión no está disponible. puede utilizar una métrica de calidad
de imagen sin referencia en su lugar. Estas métricas calculan las puntuaciones de calidad en
función de las estadísticas de imagen esperadas.
1.2.4. Métricas de calidad de referencia completa

Los algoritmos de referencia completa comparan la imagen de entrada con una imagen de
referencia prístina sin distorsión. Estos algoritmos incluyen:

— Error medio cuadrado (MSE).immse MSE mide la diferencia cuadrada promedio entre los
valores de píxel reales e ideales. Esta métrica es fácil de calcular, pero podría no alinearse bien con
la percepción humana de la calidad.

— Relación señal-ruido pico (pSNR). pSNR se deriva del error cuadrado medio, e indica la relación
de la intensidad máxima de píxeles a la potencia de la distorsión.psnr Al igual que el MSE, la
métrica pSNR es fácil de calcular pero no pudo alinearse bien con la calidad percibida.

— Índice de similitud estructural (SSIM).ssim La métrica SSIM combina la estructura de imagen


local, la luminancia y el contraste en una única puntuación de calidad local. En esta métrica, son
patrones de intensidades de píxeles, especialmente entre píxeles vecinos, después de normalizar
la luminancia y el contraste.Estructuras Debido a que el sistema visual humano es bueno para
percibir la estructura, la métrica de calidad SSIM está más de acuerdo con la puntuación de calidad
subjetiva.

1.2.5.Métricas de calidad sin referencia

Los algoritmos sin referencia utilizan características estadísticas de la imagen de entrada para
evaluar la calidad de la imagen. Estos algoritmos sin referencia incluyen:

— Evaluador de Calidad Espacial de Imagen Ciego/Sin Referencia (BRISQUE).brisque

Un modelo BRISQUE está formado en una base de datos de imágenes con distorsiones conocidas,
y BRISQUE se limita a evaluar la calidad de las imágenes con el mismo tipo de distorsión. BRISQUE
es , lo que significa que las puntuaciones de calidad subjetivas acompañan las imágenes de
entrenamiento.opinion-aware

— Evaluador de Calidad de Imagen Natural (NIQE).

niqe Aunque un modelo NIQE está entrenado en una base de datos de imágenes prístinas, NIQE
puede medir la calidad de las imágenes con distorsión arbitraria. NIQE es , y no utiliza
puntuaciones de calidad subjetivas.opinion-unaware La contrapartida es que la puntuación NIQE
de una imagen podría no correlacionarse, así como la puntuación BRISQUE con la percepción
humana de la calidad.

— Evaluador de calidad de imagen basado en la percepción (PIQE).

piqe El algoritmo PIQE no reconoce la opinión y , lo que significa que no requiere un modelo
entrenado.Unsupervised PIQE puede medir la calidad de las imágenes con distorsión arbitraria y
en la mayoría de los casos realiza un rendimiento similar al NIQE. PIQE estima la distorsión en
bloque y mide la varianza local de bloques distorsionados perceptiblemente para calcular la
puntuación de calidad.
Los algoritmos BRISQUE y NIQE calculan la puntuación de calidad de una imagen con eficiencia
computacional después de entrenar el modelo. PIQE es menos eficiente desde el punto de vista
computacional, pero proporciona medidas locales de calidad además de una puntuación de
calidad global. Todas las métricas de calidad sin referencia suelen superar a las métricas de
referencia completa en términos de acuerdo con una puntuación de calidad humana subjetiva.

2. EL ELEMENTO CENTRAL DE LA IMAGEN ….

NOTA: La imagen corresponde al desarrollo del punto de forma escrita.


3. UTILICE ALGÚN TIPO DE SOFTWARE QUE PERMITA EL TRATAMIENTO DE IMÁGENES (MATLAB,
PROCESSSING, PHYTON) Y APLIQUE ALGÚN FILTRO O FUNCIÓN PREDETERMINADA QUE
PERMITA REDUCIR EL RUIDO DE LA FIGURA 1, Y RESALTAR LOS BORDES DE LA FIGURA 2. (LOS
ENLACES A LOS ARCHIVOS DE LA FIGURAS SE ENCUENTRAN MÁS ADELANTE).

NOTA: Para realizar este punto use , los ejemplos de la paguina de Matlab y los códigos de
ejemplo, aplicandolos a las imágenes que se entregan para la tarea. Puesto que no he podido ,
instalar Matlab, para ello use Matlab para cargar el código y use el Matlab drive para cargar la
imagen. Sin embargo no , se si por la limitada capacidad del Matlab web no logro mostrar el
resultado final de las imágenes. Sin embargo pues que lo código de ejemplo con las imágenes de
ejemplo del Matlab si se ejecutad, doy por echo que este código , si realizaría el filtrado y el
resaltaldado de las imágenes solicitadas.

Adjunto el pantallazo de Matlab web y el código implementado para las imágenes de la


actividad.

Este tiene también los comentarios del código original tomado de los ejemplos de Matlab web.

clear alll
clc
%reducir el ruido de la Figura 1

I = imread('rostro.jpg'); figure imshow(I)


%Filtre la imagen ruidosa, , con un filtro de promediación y muestre los
resultados.J El ejemplo utiliza una vecindad de 3 por 3.
Kaverage = filter2(fspecial('average',3),J)/255; figure imshow(Kaverage)
%Ahora use un filtro mediano para filtrar la imagen ruidoso, .J El ejemplo
también utiliza una vecindad de 3 por 3. Muestre las dos imágenes filtradas en
paralelo para la comparación. Tenga en cuenta que hace un mejor trabajo de
eliminación de ruido, con menos desenfoque de los bordes de las monedas.medfilt2
Kmedian = medfilt2(J); imshowpair(Kaverage,Kmedian,'montage')
%resaltar los bordes de la Figura 2

I = imread('huellalimpia.png'); imshow(I)
%Aplique los detectores de bordes Sobel y Canny a la imagen y muéstralos para
su comparación.
BW1 = edge(I,'sobel'); BW2 = edge(I,'canny'); figure;
imshowpair(BW1,BW2,'montage') title('Sobel Filter Canny Filter');

4. LA MÉTRICA ASOCIADA A LA REDONDEZ DE UNA REGIÓN SE PUEDE DEFINIR COMO LA


RAZÓN ENTRE EL ÁREA Y EL EJE MAYOR AL CUADRADO. ASUMIENDO ESTE DESCRIPTOR,
DETERMINE UN NIVEL DE REDONDEZ PARA LAS FIGURAS 3 Y 4.

NOTA: para el desarrollo del ejemplo solicitado tome como ejemplo el código de
Matlab adjunto. Debido al bajo procesamiento de Matlab web no puedo mostrar las
imágenes adjuntas. El código que se ejecutado, corresponde a la lectura de una
imagen con distintas con formas parcialmente circulares. Realiza disitintos
pasos y procesos, dando como resultado una imagen que señala el nivel de
redondez de las figuras.Este código , se debe implentar 2 veces uno para la
imagen 2 y 3 , sin embargo solo se adjunta el código con los comentarios
orignales para la imagen 2.

% Paso 1: Leer imagen


% Leer en .pills_etc.png

RGB = imread('figura2.png'); imshow(RGB)


% Paso 2: Umbral de la imagen
% Convierta la imagen a blanco y negro para prepararse para el trazado de
límites utilizando .bwboundaries

I = rgb2gray(RGB); bw = imbinarize(I); imshow(bw)


% Paso 3: Retire el ruido
% Mediante las funciones de morfología, elimine los píxeles que no pertenezcan a
los objetos de interés.
% Elimine todos los objetos que contengan menos de 30 píxeles.

bw = bwareaopen(bw,30); imshow(bw)
% Llene un hueco en la tapa de la pluma.

se = strel('disk',2); bw = imclose(bw,se); imshow(bw)


% Rellene los agujeros, de modo que los props de región se puedan utilizar para
estimar el área delimitada por cada uno de los límites

bw = imfill(bw,'holes'); imshow(bw)

% Paso 4: Encuentra los límites


% Concéntrese solo en los límites exteriores. La opción 'noholes' acelerará el
procesamiento impidiendo la búsqueda de contornos interiores.bwboundaries

[B,L] = bwboundaries(bw,'noholes');
Muestre la matriz de etiquetas y dibuje cada contorno.

imshow(label2rgb(L,@jet,[.5 .5 .5])) hold on for k = 1:length(B) boundary =


B{k}; plot(boundary(:,2),boundary(:,1),'w','LineWidth',2) end

% Paso 5: Determinar qué objetos son redondos


% Estimar el área y el perímetro de cada objeto. Utilice estos resultados para
formar una métrica simple que indique la redondez de un objeto:

<math display="block">
<mrow>
<mi mathvariant="normal">metric</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mn>4</mn>
<mi>π</mi>
<mo>*</mo>
<mi mathvariant="normal">area</mi>
</mrow>
<mrow>
<msup>
<mrow>
<mi mathvariant="normal">perimeter</mi>
</mrow>
<mrow>
<mn>2</mn>
</mrow>
</msup>
</mrow>
</mfrac>
</mrow>
</math>
% Esta métrica es igual a 1 solo para un círculo y es menor que una para
cualquier otra forma. El proceso de discriminación se puede controlar
estableciendo un umbral adecuado. En este ejemplo utilice un umbral de 0.94 para
que sólo las píldoras se clasificarán como redondas.
% Se utiliza para obtener estimaciones del área para todos los
objetos.regionprops Observe que la matriz de etiquetas devuelta por puede ser
reutilizada por .bwboundariesregionprops

stats = regionprops(L,'Area','Centroid'); threshold = 0.94; % loop over the


boundaries for k = 1:length(B) % obtain (X,Y) boundary coordinates
corresponding to label 'k' boundary = B{k}; % compute a simple estimate of
the object's perimeter delta_sq = diff(boundary).^2; perimeter =
sum(sqrt(sum(delta_sq,2))); % obtain the area calculation corresponding to
label 'k' area = stats(k).Area; % compute the roundness metric metric =
4*pi*area/perimeter^2; % display the results metric_string =
sprintf('%2.2f',metric); % mark objects above the threshold with a black
circle if metric > threshold centroid = stats(k).Centroid;
plot(centroid(1),centroid(2),'ko'); end text(boundary(1,2)-
35,boundary(1,1)+13,metric_string,'Color','y',...
'FontSize',14,'FontWeight','bold') end title(['Metrics closer to 1 indicate
that ',... 'the object is approximately round'])

WEBGRAFIA(EXTRAIDO DE ):

https://www.monografias.com/trabajos105/procesamiento-imagenes/procesamiento-
imagenes.shtml

https://es.slideshare.net/mmv-lab-univalle/descriptores-de-textura

https://la.mathworks.com/help/images/noise-removal.html

https://la.mathworks.com/help/images/edge-detection.html

https://la.mathworks.com/help/images/identifying-round-objects.html

También podría gustarte