Está en la página 1de 31

Visión de Máquina

Ingeniería en Automática Industrial


Procesamiento de Imágenes

PRE EXTRACCIÓN DE
SEGMENTACIÓN
PROCESAMIENTO CARACTERÍSTICAS

imagen de Imagen objetos Patrón de


entrada acondicionada separados características

INTERPRETACIÓN
RECONOCIMIENTO
DE LA ESCENA CLASIFICACIÓN

A la aplicación
tipos de objeto
Reconocimiento de Objetos
Los objetos son descritos mediante un vector de
características o bien mediante una representación
estructural a partir de la cual se pretende su
reconocimiento.

Reconocimiento ⇔ Clasificación

Agrupación de objetos con una representación conocida


(PATRONES) a alguno de los grupos representativos
(CLASES).
Ejemplo Reconocimiento de Objetos

Si C < 14.3 entonces objeto = Circulo


Si 14.3 < C < 18.4 entonces objeto = Cuadrado
Si 18.4 < C entonces objeto = Triangulo
Ejemplo Reconocimiento de Objetos
Supóngase una cinta transportadora transparente por la que
circulan tornillos, arandelas y tuercas.

Se precisa desarrollar un sistema que cuente cuántas


unidades de cada tipo hay en cada momento en un intervalo
de la cinta.

Se supone que la iluminación se realiza a contraluz con lo


que se obtienen las siluetas

Se debe pues construir un sistema que identifique cada


silueta como correspondiente a una de las tres clases de
objetos.
Ejemplo Reconocimiento de Objetos

En este caso se propone usar


como características el número
de agujeros presentes en la
figura .

Y la desviación típica de las


distancias del perímetro al
centro del objeto.
Ejemplo Reconocimiento de Objetos

Valores de estas características para una muestra aleatoria


obtenida durante 10 minutos de operación del sistema.
Enfoques Reconocimiento de Objetos
Clasificación de Objetos. Enfoque geométrico
 Métodos Estadísticos: Optimización de probabilidades en la asignación
de los objetos a clases (Distancia de Mahalanobis)
 Métodos No-paramétricos: Se particiona el espacio de acuerdo con
objetos cuya clasificación es conocida a priori (Perceptrón)
Enfoque Sintáctico: Identificación de las partes constituyentes
Enfoque Geométrico
Clasificación de los objetos (vector de características) de
acuerdo con una determinada partición del espacio de
características.
Enfoque Geométrico
Propiedades a tener en cuenta en la elección y prueba de las
características:
1ª.- Poder discriminante
2ª.- Fiabilidad
3ª.- Independencia
4ª.- Tiempo de computo aceptable
5ª.- Número de características
Método Sintáctico
Válido para reconocer objetos excesivamente complejos
debido a un número excesivo de características o de clases
Una vez seleccionado un espacio de características es
necesario inferir una gramática que regule las posibilidades
de relación de éstas.
Funciones de Decisión

Funciones de decisión lineales


Espacio de parámetros
Funciones de decisión generalizadas
Interpretación geométrica de las fronteras de decisión
Funciones de Decisión Lineales
Decidir la pertenencia del objeto a las clases

Dado un vector de características x,

x  C1 si d ( x )  0
x  C2 si d ( x )  0
Funciones de Decisión Lineales
Caso n-dimensional

d ( x)  w1 x1  w2 x2   wn xn  wn 1  w0 x  wn1

Vectores de pesos y características

w0 = ( w1 , w2 ,  , wn )T T  0 si x  C1
d ( x)  w x 
x0 = ( x1 , x2 ,  , xn )T   0 si x  C 2
Funciones de Decisión Lineales
Las clases cuya envolvente conexa no se corte se pueden
separar mediante funciones de decisión lineales
Espacio de Parámetros
Considere dos clases C1, C2 con dos patrones cada una

Si las clases son linealmente separables ⇒ encontrar


w=(w1,w2,w3)T tal que,

1 1 1 1
w1 x11  w2 x12  w3  0 w1 x11  w2 x12  w3  0
w1 x121  w2 x122  w3  0 w1 x121  w2 x122  w3  0
1 1 1 1
w1 x11  w2 x12  w3  0  w1 x11  w2 x12  w3  0
w1 x121  w2 x122  w3  0  w1 x121  w2 x22
1
 w3  0
Espacio de Parámetros
Si se considera el problema en el espacio de los parámetros
en lugar del espacio de características.
Cada inecuación representa la cara positiva de un plano
que pasa por el origen de coordenadas.

1 1
w1 x11  w2 x12  w3  0

Cualquier vector w que caiga en la cara positiva de los


patrones determinados por la clase 1 y en la negativa de los
planos asociados a la clase 2 es solución válida del sistema
de inecuaciones.
Espacio de Parámetros

El número de planos viene limitado por el número de


inecuaciones.
Esta región (poliedro convexo) se generaliza a (n+1)
dimensiones para vectores de dimensión n
Funciones de Decisión Generalizadas
Las clases cuya envolvente conexa no se corte se pueden
separar mediante funciones de decisión lineales
Funciones de Decisión Generalizadas
Generalizar las funciones de decisión lineales

d ( x)  w1 f1 ( x)  w2 f 2 ( x)   wk f k ( x )  wk 1

 f1 ( x) 
 f ( x) 
 2 
x*     d ( x )  w. x *
 
f
 k ( x )
 1 

Transformando las características x en x* mediante las


funciones fi(x), el problema se reduce a una representación
lineal.
Funciones de Decisión Generalizadas
Funciones de decisión lineales: fi ( x )  xi
Funciones de decisión cuadráticas (polinomio de grado 2)

d ( x)  w11 x12  w12 x1 x2  w22 x22 ( x)  w1 x1  w2 x2  w3

De forma lineal, d ( x )  w. x *

* 2 2 T
x =  x 1 x1 x2 x 2 x1 x2 1 

w =  w11 
T
w12 w22 w1 w2 w3
Visión de Máquina
Ingeniería en Automática Industrial
Clasificadores Paramétricos
Las funciones de decisión se determinan a partir de las
distribuciones estadísticas que caracterizan las clases.

Dado un patrón desconocido x, este puede ser clasificado


como perteneciente a una clase j de un conjunto de M
clases.

Esto se puede hacer usando un clasificador estadístico;


como el clasificador de Bayes como función discriminante
para dividir el espacio de características.
Clasificador de Bayes
Objetivo: Minimizar la probabilidad de error en la
asignación a clases,

j = 1, 2,… M

Pérdida Media en la decisión


n
R (al / x )    (al / Ci ) P(Ci / x )
i 1
Clasificador de Bayes
La decisión a tomar es aquella que minimice la pérdida
media.
R(am / x )  min R( al / x )

Se toma como función de pérdida

0 si l  i
 (al / Ci )  
 1 si l  i

n n
R(al / x )    (al / Ci ) P(Ci / x)   P(Ci / x )  1  P(Ci / x)
i 1 i 1
i l
Clasificador de Bayes
Regla de Decisión: Asignar a la clase Cl la que tenga una
probabilidad a posteriori mayor.
Asignar x a la clase Cj tal que:

p ( x / C j ) P (C j )  p( x / Ci ) P(Ci )
Visión de Máquina
Ingeniería en Automática Industrial
Perceptrón

Para n componentes
Perceptrón
Funciones de Decisión con RN
TEMAS DE EXPOSICIÓN
FECHA DE
TEMA
PRESENTACIÓN

Visión estéreo Diciembre 10

Reconstrucción 3D Diciembre 10

Flujo óptico Diciembre 11

Visual Servoing Diciembre 11


Filtro de Kalman en el seguimiento de
Diciembre 17
objetos

Block Matching Diciembre 17

Lógica difusa y procesamiento de


Diciembre 18
imágenes

También podría gustarte