Está en la página 1de 6

• Software de Detección de rostros: Se encarga de verificar si en la imagen está

presente un rostro.
• Software de reconocimiento: Se encarga de diferenciar los rostros que se encuentran
en la imagen, para diferenciar entre las personas presentes.

El reconocimiento facial tiene su principal complicación relacionada con la luz, ya que


dependiendo de la iluminación puede cambiar el color del rostro y generar sombras que
pueden afectar la detección y el reconocimiento. Otro factor es el envejecimiento, ya que
con el paso del tiempo las facciones del rostro cambian, y el contorno de los ojos cambia
debido a las arrugas.

Este campo a tenido gran desarrollo en los últimos veinte años, y sigue evolucionando,
financiado principalmente por la industria militar, los bancos y la de seguridad.

CAPÍTULO 3. DETECCIÓN Y RECONOCIMIENTO DE ROSTROS

3.1. ALGORITMO DE VIOLA-JONES


El método de reconocimiento de objetos en imágenes digitales conocido como Viola-Jones,
fue propuesto por los investigadores Paul Viola y Michael Jones en el año 2001 (Viola &
Jones, Rapid object detection using a boosted cascade of simple features, 2001). Es uno de
los primeros métodos que logra detectar eficazmente objetos en tiempo real en una imagen.

Este método originalmente fue desarrollado para realizar la detección de rostros, pero
puede ser usado para detectar cualquier objeto dentro de una imagen. Actualmente es uno
de los métodos más utilizados en la industria, por su velocidad y su alto porcentaje de
acierto.

Viola-Jones utiliza clasificadores de características para lograr el reconocimiento de los


objetos. Basándose en estas características Haar (Papageorgiou, Oren, & Poggio, 1998), se
logra obtener un detector de objetos robusto (Viola & Jones, Rapid object detection using a

26
boosted cascade of simple features, 2001). También se denominan estos clasificadores
mediante el nombre de cascada, ya que el resultado del clasificador es el fruto de varios
clasificadores más simples utilizados en conjunto. Una porción de la imagen donde se
presume está el objeto buscado, debe superar todas las etapas del clasificador en cascada
para ser aceptado.

El método de Viola-Jones, se divide en tres etapas. En la primera se realiza una


transformación de la imagen generando una nueva llamada imagen integral, en la segunda
etapa se realiza la extracción de características usando filtros con base Haar (Viola & Jones,
Robust real-time face detection, 2004), y por último se usa Boosting (Mayhua-Lopez,
Gómez-Verdejo, & Figueiras-Vidal, 2012) para la construcción de clasificadores en
cascada.

Etapas de procesamiento de Viola-Jones


Este algoritmo realiza tres etapas para realizar la detección de un rostro, cada una de las
etapas se describe a continuación:

Imagen 6. Etapas del método para detección de rostros de Viola-Jones. Fuente: Realización propia.

27
a) Imagen Integral
La suma de todos los pixeles de un rectángulo, puede ser calculada empleando una
representación intermedia llamada imagen integral. Esta imagen intermedia permite extraer
de forma rápida características a diferentes escalas. Los autores definen la imagen integral
como aquella en la cual cada punto contiene el resultado de la suma de los valores de todos
los puntos situados por encima y a su izquierda en la imagen original.

Imagen 7. Calculo de la imagen integral de Viola-Jones. (OpenCv O. , 2017)

La imagen integral es utilizada por el algoritmo como una forma rápida de calcular la suma
de los valores del rectángulo de una característica de tipo Haar (Papageorgiou, Oren, &
Poggio, 1998). Esta imagen integral es la suma de los pixeles del rectángulo desde la
esquina superior izquierda hasta un punto elegido dentro de la imagen. Para el cálculo de la
imagen integral, la imagen original debe estar en escala de grises.

b) Extracción de características
En imágenes las características de cada objeto se extraen al aplicar ciertas funciones que
permitan la representación y descripción de los objetos de interés de la imagen (patrones).

28
Imagen 8. Filtros Haar rotados, trasladados y con cambios de escala. (OpenCv O. , 2017)

La extracción de características es un paso en el reconocimiento de patrones en el cuál las


medidas u observaciones son procesadas para encontrar a tributos que puedan ser usados
para asignar los objetos a determinada clase. En la metodología de Viola-Jones, la
extracción de características es realizada aplicando a la imagen filtros con bases Haar
(Viola & Jones, Rapid object detection using a boosted cascade of simple features, 2001).

Imagen 9. Detección de rostros utilizando características Haar en cascada. (OpenCv O. , 2017)

29
c) Clasificación
Esta etapa se encarga de seleccionar un conjunto de características de tipo Haar
(Papageorgiou, Oren, & Poggio, 1998) y aplicarlos dentro de la imagen que se está
analizando. Para llevar a cabo la clasificación es necesarios realizar un proceso de
entrenamiento para crear un clasificador en cascada. Este proceso se realiza mediante el
algoritmo de AdaBoots (Sirovich & Kirby, 1987). La aplicación de clasificadores en
cascada ha permitido obtener muy buenos resultados y es uno de los grandes aportes de este
algoritmo.

La utilización de un clasificador en cascada y la introducción del algoritmo de aprendizaje


AdaBoots, además del gran aporte conceptual, son los motivos principales para que el
método de Viola-Jones sea considerado como uno de los métodos más importantes
desarrollados en este campo. La idea de Paul Viola y Michael Jones de utilizar
clasificadores débiles para formar clasificadores fuertes, denominados clasificadores en
cascada, ha sido utilizado por otros investigadores para el reconocimiento de objetos en
visión por computador.

3.2. EIGENFACES
Los sistemas de reconocimiento de rostros se basan en la idea de que cada persona tiene
una estructura de rostro particular y, utilizando la simetría facial, es posible la comparación
computarizada de las imágenes del rostro. El rostro y sus propiedades estructurales deben
ser identificadas cuidadosamente, y la imagen resultante debe convertirse en datos digitales
bidimensionales.

El enfoque de Eigenface (Sirovich & Kirby, 1987) es considerado por muchos como la
primera tecnología de reconocimiento facial de alto desempeño, y sirvió como base para
uno de los principales productos comerciales de tecnología de reconocimiento facial en
biometría (Heseltine, Pears, & Austin, 2002). Desde su desarrollo inicial y publicación, ha
habido muchas extensiones al método original y muchos nuevos desarrollos en sistemas
automáticos de reconocimiento facial.

30
La idea de utilizar los componentes principales para representar los rostros humanos fue
desarrollada por Sirovich y Kirby (Sirovich & Kirby, 1987) y utilizada por Turk y Pentland
(Turk & Pentland, Eigenfaces for recognition, 1991) para la detección y reconocimiento de
rostros. La motivación de las Eigenfaces es doble:

• Extraer la información facial pertinente, que puede o no estar directamente


relacionada con la intuición humana de rasgos faciales como los ojos, la nariz y los
labios. Una manera de hacerlo es capturar la variación estadística entre las imágenes
de un mismo rostro.
• Representar imágenes de rostros eficientemente. Para reducir el cómputo y la
complejidad del espacio, cada imagen de un rostro se puede representar usando un
pequeño número de parámetros.

Los Eigenfaces pueden ser considerados como un conjunto de características que


representan la variación global entre las imágenes de un rostro. Cada Eigenface representa
un rasgo característico de las imágenes faciales siguiendo un patrón obtenido del estudio de
muchos rostros.

El funcionamiento de este método es el siguiente:


• Por cada imagen del set de entrenamiento (imágenes de prueba) se concatenan sus
filas de pixeles, transformándola en un vector en el que cada valor se corresponde
con el valor del pixel correspondiente.
• Tras esto, se obtiene una matriz de vectores, siendo cada vector una imagen.
• A este vector se le aplica el método PCA (Principal Component Analysis) (Peason,
1901), para obtener los componentes principales y reducir la dimensionalidad.

A partir de estos Eigenfaces, cada imagen del set de entrenamiento se puede reconstruir de
una forma muy aproximada. Se calcula la distancia entre el vector de valores de la imagen
de entrada con el resto de las imágenes del set de entrenamiento, y se selecciona la que
produce la distancia mínima. Si dicha distancia se encuentra dentro de un umbral

31

También podría gustarte