Está en la página 1de 7

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/228870274

Control biométrico de dispositivos mediante


algoritmos de visión artificial en tiempo real.

Article

CITATIONS READS

0 323

4 authors, including:

Ricardo Fuentes Covarrubias Gerardo Reyes Salgado


Universidad de Colima Centro Nacional de Investigación y Desarroll…
14 PUBLICATIONS 5 CITATIONS 46 PUBLICATIONS 181 CITATIONS

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Ciencias Computacionales View project

All content following this page was uploaded by Ricardo Fuentes Covarrubias on 16 May 2014.

The user has requested enhancement of the downloaded file.


Control biométrico de dispositivos mediante algoritmos de
visión artificial en tiempo real.
Ricardo Fuentes Covarrubias 1 , Andrés Gerardo Fuentes Covarrubias 1 , Gerardo Reyes
Salgado 2
1
Facultad de Ingeniería Mecánica y Eléctrica –Universidad de Colima
Coquimatlán, Colima Cp 28440 México
fuentesr@ucol.mx , fuentesg@ucol.mx
2
Centro Nacional de Investigación y Desarrollo Tecnológico (CENIDET)
Departamento de Ciencias Computacionales, Interior Internado Palmira s/n, col. Palmira.
Cuernavaca, Morelos C.P. 62490 , México.
greyes@cenidet.edu.mx

Resumen. Este proyecto es una propuesta para controlar dispositivos en tiempo real utilizando
algoritmos de visión artificial. La aplicación en la cual se desean probar dichos algoritmos es
una silla de ruedas para personas con alto nivel de discapacidad la cual pueda ser controlada
mediante técnicas de biometría informática. Con la tecnología actual y el gran avance de las
ciencias de la computación se puede implementar un sistema de visión artificial para la detección
del movimiento del iris, la retina o el rostro y con esto una persona discapacitada podría conducir
su unidad de desplazamiento por si sola. El mecanismo de control se integraría en una maquina
portátil o un sistema mínimo que interactúe con una etapa de potencia para el control de los
motores de la silla.

Palabras clave: Visión artificial, reconocimiento de patrones, control biométrico.

1. Introducción.
La Biometría.
El concepto tradicional de biometría se refiere a la aplicación de las técnicas
matemáticas y estadísticas a las ciencias de los seres vivos por ejemplo: medicina,
biología, con el propósito de reconocer o verificar la identidad de un individuo.
La "Biometría Informática" es la aplicación de técnicas biométricas a la
autentificación e identificación automática de personas en sistemas de seguridad
informática. Las técnicas biométricas se basan en medir al usuario directa o
indirectamente para reconocerlo automáticamente aplicando técnicas estadísticas y de
Inteligencia Artificial (lógica borrosa, redes neuronales, etc).
Hoy en día se han generado infinidad de aplicaciones basadas en la biometría
principalmente en aspectos relacionados con seguridad, control de acceso e
identificación de personas a partir de aspectos como la huella digital el reconocimiento
facial, geometría de la mano, termografía, análisis del iris y la retina o el patrón de voz.
Para efectos del proyecto se considera prudente aclarar que se utilizará la biometría
informática para efectos de control en tiempo real no para aplicaciones de
reconocimiento o identificación de personas.
3. Estado del arte.
Existen muy pocos trabajos relacionados con el control en tiempo real
utilizando visión artificial como se muestra en la esta breve relación de aportaciones y
su descripción:
Tracking and measuring drivers eyes, publicado por David Tock an Ian Craw [18], el
cual es Sistema de apoyo para la conducción de un automóvil mediante el movimiento
de los ojos.
Tracking moving heads, elaborado por Larry S. Shapiro, Michael Brady, and Andrew
Zisserman [18], el cual describe el diseño de algoritmos computacionales para detectar
le movimiento de la cabeza utilizando análisis tridimensional de imágenes.
Control of visually guided behaviours. Jana Kosecka, Ruzena Bajcsy, and Max Mintz
[18], Comprende el diseño de un esquema de guiado para un robot a partir de arreglos
de sensores infrarrojos que detectan cambio de posición de objetos que forman parte de
una escena, la cual es analizada en función del análisis del sistema de coordenadas del
mundo real.
Active exploration of dynamic and static scenes[18]. Escrito por David W. Murray, Ian
D. Reid, Kevin J. Bradshaw, Phillip F. McLauchlan, Paul M. Sharkey, and Stuart M.
Fairley en el cual se hace la descripción de una técnica para recuperar en tiempo real
las trayectorias de objetos en movimiento los cuales se desplazan sobre un plano en una
escena. La detección de movimiento y su segmentación son realizados en cada escena
en tiempo, comparando los cambios de escenas.

4. Metodología usada.
4.1 El análisis y reconocimiento la imagen del iris .

La estructura global del sistema propuesto se ilustra en Fig. 2, y el flujo del


proceso es el siguiente: una imagen de la región del ojo humana circundante se obtiene
a una distancia máxima de 20 cm. De la cámara de CCD sin contacto físico al
dispositivo. En la fase del reprocesamiento, se realizan los pasos siguientes : primero, es
necesario localizar el Iris, la porción de la imagen es procesada; en seguida, el sistema
de coordenadas cartesianas de la imagen es convertido en el sistema de coordenadas
polares para facilitar el proceso de extracción de rasgos. En la fase de extracción de
rasgos 2D wavelets.

Figura 2. Esquema del sistema de visión.


A partir de ahí se realiza un barrido de pixeles en todas direcciones para
obtener el limite de la pupila con el iris donde ya obtenido el centro de este se procede
a calcular el radio así como su posición en la imagen, para realizar la normalización de
puntos, luego de ahí aplicar Wavelets

Figura 3. Segmentación.

5. Resultados experimentales.
Para la obtención de datos, de los puntos normalizados con respecto a la
pupila y al lagrimal se aplica el método de Wavelets donde a cada valor del píxel se le
aplica una operación con las matrices mostradas en la figura 4 a continuación:

Figura 4. Transformada de Wavelets

Lo anterior permite obtener 8 números para cada punto. Estos números


representan las variaciones de los niveles de los colores.

5.1 Procesamiento de imágenes.

Con los 8 números de cada punto se puede calcular la distancia euclídea con el
vector que se va a reconocer con cada uno de los vectores almacenados en la
base de conocimientos del sistema. Donde posteriormente se eligen los dos vecinos
mas cercanos al resultado de la distancia euclídea
Para la localización de Iris se toma como marco de referencia el punto blanco
que se encuentra dentro de la pupila que este vendría siendo el reflejo del infrarrojo de
la cámara, a partir de ahí se realiza un barrido de píxeles en todas direcciones para
obtener el limite de la pupila con el iris donde ya obtenido el centro de este se procede
a calcular el radio así como su posición en la imagen para de ahí aplicar 2D Wavelets.
Para la ubicación de la pupila se hace un barrido de la imagen de izquierda a
derecha para localizar un punto blanco que esté rodeado de puntos negros y almacenar
la posición de estas coordenadas en unas variables globales, donde, las cuales serán
utilizadas posteriormente para localizar el lagrimal del ojo, para este método se hace
un barrido hacia la izquierda o derecha según la imagen del ojo si es izquierdo se hace
hacia la derecha hasta que encuentra un punto blanco y de ahí parte hacia abajo
mientras siga encontrando un puntos negros y si encuentra un punto blanco ahí termina
diciendo que es el párpado inferior, la sumatoria de los puntos verticales divididos
entre dos es la posición del lagrimal con respecto al mismo valor de X donde se
encontró el punto blanco del párpado superior, tal como se muestra en la figura 5.

Figura 5. Normalización de puntos

5.2 Etapa de control.

Con este proyecto se pretende desarrollar algoritmos computacionales para


dotar a una unidad de desplazamiento para personas cuadrapléjicas de un sistema guía,
mediante la interpretación del movimiento ocular tomando como referencia los
movimientos del iris, utilizando técnicas de visión artificial e incluyendo también la
etapa de control de los motores de la unidad de desplazamiento el cual interactuará con
una computadora y esta a su vez con el humano en tiempo real.
El proyecto propuesto incluye los módulos que se muestran en la figura 6 a
continuación:
Figura 6. Diagrama a bloques del sistema de control

Sistema de visión artificial


Este modulo contiene los algoritmos de visión para el control biométrico en
tiempo real los cuales permitirán indicar la dirección de avance de la silla de ruedas a
partir de la identificación de la posición de la cara, sin embargo esto ultimo se
considera, se encuentran en su etapa de desarrollo. Los algoritmos generados serán
montados en un sistema embebido que contendrá al menos una cámara que se
encargara de enviar secuencias de frames que se procesaran en tiempo real y mediante
su análisis, se efectuara una acción por un dispositivo de control.
En principio el sistema permitiría definir la dirección de avance del vehículo a
partir de los movimientos del ojo o la cara del usuario.
Interfaz.
Se propone un sistema mínimo PC104, una cámara portátil tipo USB y un kit
de sensórica.
Control
Involucra el diseño de un esquema de control de lazo abierto alimentado en
principio por las imágenes recibidas, su correlación con el mundo real en función de la
distancia, el análisis de los cambios en las escenas y los objetos contenidos en ellas.
Circuito de Potencia
El circuito de potencia esta dividido en dos partes:
• Interfaz de potencia.
• Puente H.
Interfaz de potencia. La interfaz cumple las funciones de protección y
aislamiento entre los circuitos de control y potencia usando los opto acopladores 4n33.
Protecciones
Teniendo en cuenta que este dispositivo es usado por personas discapacitadas,
el sistema cuenta con las siguientes protecciones.
Protección contra cortocircuitos o sobre corrientes.
El sistema cuenta con fusibles que previo diseño protegen los circuitos
electrónicos y los motores de altas corrientes que las destruyan.
Contactos del usuario con los cables que conducen la alimentación del
sistema. De esta manera se protege a la persona que esta sentada en la silla de recibir
un posible choque eléctrico.
Protección contra agentes químicos. Las baterías alcalinas secas han venido a
ser muy eficientes ante posibles derramamientos de ácido cuando se utilizan
acumuladores eléctricos con líquido.
6. Conclusiones y desarrollos futuros.
En este trabajo proponemos una aplicación de control de un dispositivo para
desplazamiento motriz de una persona discapacitada mediante técnicas de visión
computacional en tiempo real, aun cuando por cuestiones de espacio no se hace la
descripción de los demás algoritmos utilizados, en futuros trabajos se pretende hacer la
descripción de los algoritmos utilizados en el sistema de visión desde el punto de vista
del sistema integrado y resaltando el prototipo a desarrollar.

7. Referencias.
[1] Biometric Consortium homepage: www.biometrics.com.
[2] B. Miller, “Visual signs of Identity”, IEEE Spectrum, 1994.
[3] Daugman John, Phenotypic versus Genotypic approaches to face recognition, University of
Cambridge, The Computer Laboratory.
[4] Daugman John, “Biometric Personal Identification system based on Iris Analysis”, US patent
5291, 1994. [5] Daugman J., and Downing, C. “Epigenetic randomnes [6] Flom, L., and
Safir, A., Iris Recognition System, U.S.
Patent: 4,641,349, 3 February 1987.
[7] Daugman, J., “Recognizing Persons by Their Iris Patterns”, In: Biometrics: Personal
Identification in Networked Society, 1998, Amsterdam: Kluwer, pp. 103-121.
[8] U. Dieckmann, P. Planskeinteiner, T. Wagner, “SSAM: A Biometric Person Identification
System Using Sensor Fusion”, Patern Recognition Letter, Vol. 18, no. 9. 1997.
[9] Buxton Bernard y Roberto Cipolla (eds). (1996). Computer vision ECCV´96. 4th European
conference on computer vision. Vol I. Cambridge, UK: Springer.
[10] Burkhardt Hans y Neumann Bernd (eds), (1998). Computer vision ECCV´98. 5th European
conference on computer vision. Vol I. Alemania: Springer.
[11] Iñigo Madrigal y Angulo Usategui José Ma. (1986). Visión artificial por computador.
España: Paraninfo.
[12] Jan – Olof Eklundh (ed). (1994). Computer vision ECCV´94. 3th European conference on
computer vision. Vol I. Stockholm, Sweden: Springer – Verlag.
[13] Pinto Elías Raúl y Sossa Azuela Juan Humberto. (2002). Localización automática de objetos
2D y 3D en imágenes. Revista Computación y Sistemas ISSN 1405-5546.Edit. IPN.
[14] V. Ríos Figueroa Humberto, Solís González Ana Luisa, Aguirre Emilio, Guerrero Lourdes,
Peña Acevedo Joaquín. (2002). Facial Communication for human – computer interaction.
Revista Computación y Sistemas ISSN 1405-5546.Edit. IPN.
[15] Hernández Núñez Álvaro, Linarez Ramírez Omar Gabriel; Sistema de control de calidad
mediante visión artificial para el empaque de melón, 2004. Tesis de licenciatura en ingeniero
en sistemas computacionales, Universidad de Colima. Asesor: Fuentes Covarrubias Ricardo.
[16] Baños Navarro Héctor. Diseño e implementación de una red inalámbrica de video para la
identificación de vehículos automotores mediante visión artificial. Tesis de Maestría en
Computación, Universidad de Colima. Asesor: Fuentes Covarrubias Ricardo.
[17] Velasco Batista Levy, Zuñiga Sarabia Jaime Semey. Desarrollo de un sistema
computacional para la identificación de personas mediante visión artificial. Tesis de
licenciatura en ingeniero en sistemas computacionales, Universidad de Colima. Asesor:
Fuentes Covarrubias Ricardo. Universidad Rey Juan Carlos de España: Cabello Pardos
Enrique.
[18] Christopher M. Brown and Demetri Terzopoulos. Real Time computer vision Cambridge
University Press. 1994. ISBN 0 521 47278 4 hardback.

View publication stats

También podría gustarte