Está en la página 1de 17

Abstraction & Application 12 (2015) 1 − 17 UADY

Introducción a técnicas de reconocimiento de iris


Edgar Israel Hernandez-Garcia, Anabel Martin-Gonzalez, Carlos Brito-Loeza

Facultad de Matemáticas, Universidad Autónoma de Yucatán, México.

edgar.hernandez@fmat.uady.mx, amarting@uady.mx, carlos.brito@uady.mx

Abstract

The iris is a structure of the human eye that has been used successfully as a biometric trait, providing
high confidence to identify people. The first functional iris recognition systems were proposed in the
decade of the 90’s and, since then, the field has evolved extensively. This paper aims to give an idea of
the existing development and current trends in the field, describing the prominent methods that can be
found on the literature and mentioning some of the recent work.

Resumen

El iris es una estructura del ojo humano que se ha logrado usar como rasgo biométrico para la
identificación de personas, presentando una alta confiabilidad. Los primeros sistemas funcionales de re-
conocimiento de iris se propusieron en la década de los años 90 y, desde entonces, el área se ha desarrollado
ampliamente. En este artı́culo, se describen los trabajos destacados que se pueden encontrar en la lite-
ratura y se mencionan algunos de los trabajos recientes para dar una idea del desarrollo existente y las
tendencias actuales del área.

Keywords and phrases : iris recognition, pattern recognition, biometrics

2010 M athematics Subject Classif ication : 68-02

1. Introducción

En la actualidad, la identificación única de personas es una práctica común en la sociedad. La necesidad de


reconocer si una persona es realmente quien dice ser se presenta con el fin de otorgarle el acceso a instalaciones
restringidas, entregar recursos protegidos, permitir la ejecución de actividades, registrar asistencias y varias
otras aplicaciones [3].
Para verificar la identidad de un individuo, de forma presencial, es común utilizar documentos e iden-
tificaciones, preguntar por información que sólo la persona auténtica conoce, utilizar claves numéricas (ej.
NIP), pares usuario-contraseña, tarjetas de coordenadas, tokens, tarjetas inteligentes, entre otros [23, 34].
Existen métodos para la identificación de personas basados en rasgos de la conducta o rasgos fı́sicos
intrı́nsecos de un individuo, los cuales son estudiados por la biometrı́a [43]. Para lograr la correcta identi-
ficación, los rasgos evaluados en una persona deben cumplir dos premisas: ser únicos para cada individuo
(diferenciación) y no cambiar con el paso del tiempo (permanencia) [34].

1
2 Introducción a técnicas de reconocimiento de iris

Figura 1: Algunas de las partes que componen el ojo humano: la pupila es un orificio que permite el paso de
luz al interior del ojo; el iris es la estructura que regula el tamaño de la pupila; y la esclerótica es una membrana
protectora del ojo. Imagen tomada de la base de datos CASIA versión 4 [1].

El iris del ojo humano es la estructura encargada de regular la cantidad de luz que entra al interior del
ojo, ajustando el tamaño de la pupila (Figura 1). El iris presenta un patrón que se forma al azar antes del
nacimiento de una persona, entre el tercer y octavo mes de gestación [2, 19]. Estos patrones del iris presentan
rasgos que se pueden utilizar para identificar de forma única a un individuo [49]. Debido a la complejidad
del patrón que presenta el iris y la necesidad de la automatización del proceso de reconocimiento, es preciso
recurrir a métodos computacionales que realicen la identificación de forma confiable.
En este artı́culo se presenta una revisión del estado del arte que expone los dos trabajos que se consideran
principales en el área del reconocimiento del iris como rasgo biométrico y pretende dar una idea de los trabajos
existentes, ası́ como de la tendencia actual de la investigación reciente en el área.

2. Primeros trabajos en el área del reconocimiento del iris

Uno de los primeros diseños de un sistema de reconocimiento del iris que se puede encontrar en la literatura
es el de la patente de Flom y Safir del año de 1987 [24]. La patente describe un diseño conceptual que propone
las diferentes etapas que debe considerar un sistema de reconocimiento de iris, sugiriendo algunos métodos
a aplicar. El sistema propuesto en esta patente es semi-automático, ya que requiere la intervención de un
operador.
La patente de Flom y Safir surge de forma temprana debido a que aún no se conocı́a con certidumbre si el
patrón del iris cumplı́a con las dos premisas básicas de los rasgos biométricos (diferenciación y permanencia).
Esto lo evaluó Johnson, quién publicó un reporte en 1992 concluyendo que podrı́a ser posible utilizar el iris
para las modalidades de verificación e identificación [7].
Luego de la patente de Flom y Safir, en 1994 apareció el trabajo de John Daugman [16], el cual es uno
de los trabajos más citados en la literatura y reconocido como uno de los más importantes del área. Esta
patente presenta un sistema automático que realiza reconocimiento de iris. Se aborda desde la etapa de
adquisición de imagen, hasta la decisión de aceptación o rechazo del sujeto que se está identificando. El
trabajo de Daugman es uno de los primeros que presenta un sistema funcional utilizando el iris como rasgo
biométrico.
Otro trabajo, altamente citado en la literatura, es el de Richard Wildes [49], que fue publicado en 1997.
En el trabajo de Wildes se propone otro sistema automático de reconocimiento de iris. Sin embargo, el
método de Wildes tiene un mayor costo de cómputo que el método de Daugman.
En la literatura consultada, los trabajos de Daugman y Wildes son utilizados como principales modelos
de referencia. Como probable consecuencia de esto, es posible identificar cuatro módulos básicos en los
sistemas de reconocimiento de iris: adquisición de imagen, preprocesamiento, extracción de caracterı́sticas y
reconocimiento.
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 3

El presente artı́culo inició con una breve introducción sobre el reconocimiento de iris. Los cuatro módulos
básicos de los sistemas de reconocimiento de iris se explican brevemente en la sección 3. Debido a que los
trabajos de Daugman y Wildes son los principales modelos de referencia, se explicarán a detalle en las
secciones 4 y 5, respectivamente. Finalmente, en la sección 6 se mencionarán otros métodos que han surgido
en el área del reconocimiento de iris.

3. Esquema general para reconocimiento de iris

El esquema propuesto por Sheela [45] es, probablemente, la descripción general más adecuada de los
sistemas de reconocimiento de iris. Se proponen cuatro módulos básicos: adquisición de imagen, preprocesa-
miento, extracción de caracterı́sticas y reconocimiento (Figura 2).

Figura 2: Los cuatro módulos básicos de los sistemas de reconocimiento de iris: la adquisición es la captura
de una fotografı́a; el preprocesamiento realiza la segmentación del área de interés y aplica las transformaciones
necesarias para la caracterización del iris; la extracción de caracterı́sticas obtiene una representación del iris que
sea comparable; y el reconocimiento analiza las caracterı́sticas de dos imágenes diferentes de iris y determina si
son iris idénticos (individuo auténtico) o si son diferentes (individuo impostor).

El módulo de adquisición de imagen contempla todos los elementos necesarios para obtener la imagen de
un iris con la calidad suficiente para el correcto reconocimiento. En este módulo se describen, principalmente,
los dispositivos (hardware) utilizados para fotografiar el iris, ası́ como los aspectos técnicos del entorno. Por
ejemplo, se describe el tipo de cámara utilizada, el tipo de lente utilizado, si se utiliza fotografı́a en color,
el tipo de iluminación utilizada, métodos de enfoque, distancia entre el sujeto y la cámara, y otros aspectos
técnicos.
El módulo de preprocesamiento se dedica a la segmentación precisa del iris de la imagen adquirida, y a la
aplicación de técnicas para discriminar y lograr independencia de resolución, tamaño, iluminación, rotación de
imagen y otros factores que influyen en la correcta identificación del iris. En el módulo de preprocesamiento,
una segmentación sencilla es el ajuste de cı́rculos en los lı́mites interior y exterior del iris. La transformada
de Hough, en su versión para cı́rculos [22], es uno de los métodos que varios autores han utilizado, aunque en
la investigación más reciente se desarrollan métodos que no suponen una forma circular para el iris y pupila
[12, 30, 37, 42].
El módulo de extracción de caracterı́sticas se encarga de analizar el patrón que se encuentra en el iris
y construye una representación que pueda ser utilizada para la identificación del individuo. Como parte de
este módulo, se pueden involucrar métodos para lograr independencia a factores que no se hayan tomado en
consideración durante el preprocesamiento. Los dos tipos de representaciones que suelen encontrarse en los
distintos trabajos de la literatura son códigos binarios y vectores numéricos. Por ejemplo, en el trabajo de
Daugman [19] se utilizan onduletas de Gabor discretizadas para construir un código binario que represente
el patrón del iris. En cambio, en el trabajo de Wildes [49] se utiliza una pirámide de diferencia de gaussianas
de la que se extraen valores de correlación para obtener una representación en forma de vector numérico.
Por último, el módulo de reconocimiento analiza las caracterı́sticas extraı́das del iris de un individuo
recién fotografiado contra los patrones conocidos del sujeto a identificar, y determina si el individuo es
4 Introducción a técnicas de reconocimiento de iris

auténtico o impostor. En los trabajos que utilizan un código binario como representación del patrón del iris,
la distancia de Hamming empleada en el método de Daugman [19] es la métrica que suele usarse como medida
de similitud. En los trabajos donde se utiliza una representación numérica no existe un método sobresaliente,
aunque la mayorı́a se pueden categorizar como métricas estadı́sticas o métodos de reconocimiento de patrones.
Por ejemplo, algunos métodos son redes neuronales, máquinas de soporte vectorial, análisis de componentes
principales (PCA, por sus siglas en inglés), discriminante lineal de Fisher, entre otros.

4. Método de Daugman para reconocimiento de iris

El trabajo de Daugman para reconocimiento de iris es uno de los primeros métodos que proponen un
sistema funcional completo. Ha tomado una alta importancia debido a que es el principal modelo de referencia
en el área del iris como rasgo biométrico [6, 7].
En la literatura, se puede encontrar que Daugman publica en 1993 un artı́culo que introduce y expone los
métodos que utiliza en el reconocimiento de iris [15]. En 1994, Daugman registra una patente de su sistema
[16]. Posteriormente, estas dos publicaciones fueron complementadas con un artı́culo publicado en 2004 por
el mismo autor [19].
En el método propuesto por Daugman [19], para realizar la adquisición de la imagen se utilizan cámaras
monocromáticas y se ilumina el iris con luz del espectro cercano al infrarrojo. En la imagen adquirida se
requiere un mı́nimo de 70 pı́xeles para el radio del iris. La calidad de la imagen capturada se evalúa con
una medición del enfoque, realizando un análisis del espectro de Fourier de la imagen. Para el módulo
de preprocesamiento, se realiza la segmentación del iris en la imagen capturada con un operador integro-
diferencial. Posteriormente, se realiza un escalamiento radial que transforma el área segmentada para obtener
una representación rectangular del iris. Con esta transformación se logra una normalización obteniendo
independencia de la resolución de la imagen capturada, invarianza a la posición del iris en la imagen capturada
e invarianza al grado de dilatación de la pupila. Para el módulo de extracción de caracterı́sticas se aplica la
onduleta de Gabor de dos dimensiones a la imagen normalizada. Posteriormente, la respuesta de la onduleta
de Gabor se discretiza para obtener un código binario. Finalmente, en el módulo de reconocimiento se utiliza
la distancia de Hamming normalizada como métrica de similitud.
A continuación se describen a detalle los métodos utilizados en el trabajo de Daugman para los módulos
de preprocesamiento, extracción de caracterı́sticas y reconocimiento.

4.1. Operador integro-diferencial

En el trabajo de Daugman la segmentación del iris y la pupila se realiza mediante un operador integro-
diferencial definido por la siguiente expresión:
I
∂ I(x, y)
máx Gσ (r) ∗
ds . (4.1)
(r,x0 ,y0 ) ∂r r,x0 ,y0 2πr

En esta expresión, I(x, y) es la imagen en la que se desea segmentar el iris y la pupila; el sı́mbolo ∗ es el
operador de convolución; en la integral de curva, ds es una circunferencia con radio r y centro en (x0 , y0 ); y
Gσ (r) puede ser cualquier función que suavice el resultado de la derivada parcial y con un parámetro σ que
define la escala de búsqueda. Un ejemplo de función que puede utilizarse como Gσ es la función gaussiana,
siendo su desviación estándar el parámetro σ para la escala [19].
Para estimar los parámetros (r, x0 , y0 ) se utiliza este operador integro-diferencial de forma iterativa.
Inicialmente, se adopta una escala σ de búsqueda grande, lo cuál se traduce en un suavizado alto, y se
halla la solución al operador integro-diferencial. En cada iteración se refina la estimación de los parámetros
(r, x0 , y0 ) reduciendo la escala de búsqueda σ. La búsqueda termina cuando se ha alcanzado precisión de
pı́xel, es decir, cuando la escala de búsqueda está utilizando la imagen original.
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 5

4.2. Escalamiento radial

En el método de Daugman se utiliza un modelo de escala radial, el cual el propio autor nombra como el
modelo de la hoja de goma homogénea [15, 19, 18]. Este modelo traslada el sistema cartesiano de la imagen
original I(x, y) a un sistema de coordenadas polares I(r, θ) con (r, θ) ∈ [0, 1] × [0, 2π]. La correspondencia
entre ambos sistemas de coordenadas se realiza en base a lo siguiente:
x(r, θ) = (1 − r)xp (θ) + rxs (θ),
(4.2)
y(r, θ) = (1 − r)yp (θ) + rys (θ).

El origen del sistema de coordenadas polares se encuentra en el centro de la pupila y es usado como
referencia en las expresiones (4.2): la pareja (xp (θ), yp (θ)) representa las coordenadas cartesianas del punto
que se encuentra a θ grados en la circunferencia que delimita la pupila; y la pareja (xs (θ), ys (θ)) representa
las coordenadas cartesianas del punto en la circunferencia que delimita el borde exterior del iris y que se
intersecta con el vector que parte del origen del sistema de coordenadas polares con pendiente de θ grados.
Con las expresiones (4.2) se puede convertir el sistema cartesiano al sistema de coordenadas polares y
viceversa:
I(x(r, θ), y(r, θ)) → I(r, θ). (4.3)

Debido al espacio en el que se encuentra definida la pareja de coordenadas polares (r, θ) y a la forma en
que se encuentran definidos x(r, θ) y y(r, θ), el sistema de coordenadas polares se vuelve independiente de la
dimensión de la imagen del iris y también se obtiene invarianza en la posición donde se encuentre localizado
el iris en la imagen. Adicionalmente, la definición de x(r, θ) y y(r, θ) toma en cuenta el hecho de que la pupila
y el iris no necesariamente son concéntricos, y también se obtiene invarianza al grado de dilatación de la
pupila [19, 18].

4.3. Onduletas de Gabor de dos dimensiones

Las onduletas de Gabor son utilizadas en el trabajo de Daugman para la codificación del patrón del
iris, es decir, para el módulo de extracción de caracterı́sticas. La onduleta de Gabor de dos dimensiones
está definida por la expresión:
2
/α2 +(y−y0 )2 /β 2 ] −2πi[u0 (x−x0 )+v0 (y−y0 )]
Ψ(x, y) = e−π[(x−x0 ) e . (4.4)

La onduleta de Gabor de dos dimensiones genera valores en el dominio de los números complejos y
es una generalización de la función original de Gabor [17]. Combina una función Gaussiana con una onda
sinodal. Los parámetros (x0 , y0 ) indican el centro de la onduleta, (α, β) especifican la desviación estándar de
la función Gaussiana en cada dimensión. Finalmente, los parámetros (u0 , v0 ) forman el vector de modulación
de la p
onduleta. Trasladando a coordenadas polares, el vector de modulación indica la frecuencia espacial
ω0 = u20 + v02 con dirección θ0 = arctan(v0 /u0 ).
De forma similar que el filtro de Fourier, la onduleta de Gabor se puede utilizar para descomponer una
señal y extraer información de frecuencia, fase y amplitud. A diferencia del filtro de Fourier, la inclusión de
una función Gaussiana limita la descomposición de la señal a una región local o región de interés.
En el caso de imágenes, se puede utilizar la operación de convolución para extraer la información local
de fase φ(x, y) y modulación A(x, y) [17]:
Im{Ψ(x, y) ∗ I(x, y)}
φ(x, y) = arctan , (4.5)
Re{Ψ(x, y) ∗ I(x, y)}
p
A(x, y) = (Re{Ψ(x, y) ∗ I(x, y)})2 + (Im{Ψ(x, y) ∗ I(x, y)})2 . (4.6)

Como ya se ha comentado anteriormente, la imagen original I(x, y) se traslada a un sistema de coor-


denadas polares I(r, θ) que es independiente de las dimensiones de la imagen y considera que el iris y la
6 Introducción a técnicas de reconocimiento de iris

pupila no necesariamente son concéntricos. Bajo este sistema de coordenadas polares, la onduleta de Gabor
está definida de la siguiente forma [15]:
2
/α2 −(θ−θ0 )2 /β 2
G(r, θ) = e−iω(θ−θ0 ) e−(r−r0 ) e . (4.7)

Con el filtro de Gabor en su forma de coordenadas polares G(r, θ) y la imagen normalizada I(r, θ) se
obtiene la transformada de Gabor del iris:
Z Z
2 2 2 2
I(r0 , θ0 ) = I(ρ, φ)e−iω(θ0 −φ) e−(r0 −ρ) /α e−(θ0 −φ) /β ρdρdφ. (4.8)
ρ φ

Para finalizar con la obtención del código del iris, se realiza una cuantización binaria de la transformada
de Gabor de la imagen de acuerdo al cuadrante del plano complejo en el que residan los coeficientes de
Gabor. Esta cuantización se representa mediante la expresión

h{Re,Im} = sgn{Re,Im} I, (4.9)

donde sgn es la función signo que toma valor 1 cuando I(r0 , θ0 ) es mayor o igual a cero. De lo contrario,
toma valor cero.
Lo anterior codifica cada punto de la imagen normalizada del iris I(r, θ) en una pareja de bits. En el
trabajo de Daugman se utiliza una resolución que permita obtener un código de 2048 bits para la imagen de
un iris (256 bytes). Este tamaño de código se elige porque es la capacidad aproximada de una cinta magnética
de tres canales de una tarjeta bancaria [15]. Aunque en los artı́culos de Daugman no se especifica la razón
para escoger este medio de almacenamiento de datos, es probable que la elección haya sido por influencia de
la patente de Flom y Safir [24], en donde se sugiere una tarjeta de crédito para almacenar los datos del iris.
El código se genera a partir de la información de fase. La información de amplitud se ignora, puesto que
es afectada por diversos factores como la iluminación del ambiente, el contraste de la imagen resultante, la
sensibilidad del sensor de la cámara, entre otros.

4.4. Distancia de Hamming

Para el módulo de reconocimiento, en el trabajo de Daugman se propone la distancia de Hamming como


métrica de similitud. La distancia de Hamming entre dos palabras es el número de elementos entre ambas
palabras que tienen que cambiarse para convertir una de las dos palabras en la otra. En el caso de números
decimales, es la cantidad de dı́gitos que deben cambiarse. Por ejemplo, la distancia de Hamming de los
números “5824” y “5528” es dos, puesto que hay que cambiar dos dı́gitos en cualquiera de los dos números
para convertirlo en el otro; y, análogamente, la distancia de Hamming entre las palabras “carta” y “manta”
también es dos.
Como ya se ha explicado anteriormente, Daugman propuso codificar la imagen del iris de una persona de
forma binaria. Para el caso particular de códigos binarios, la distancia de Hamming (HD) se puede calcular
utilizando una operación lógica XOR seguida del conteo de bits con valor uno. Si el código binario de dos
imágenes de iris se almacenan en un vector, el cálculo de la distancia de Hamming se puede expresar de la
siguiente forma:
kcodeA ⊕ codeBk
HD = , (4.10)
2048
en donde codeA y codeB son dos vectores con los códigos binarios de cada una de las imágenes de iris que
se quiere comparar, y el sı́mbolo ⊕ representa a la operación lógica XOR. La división por 2048 se realiza
debido a que es el tamaño del código binario que representa al iris. Al realizar la división se obtiene una
distancia de Hamming normalizada en el intervalo [0, 1], que al multiplicarlo por 100 expresa un porcentaje
de discrepancia de bits.
La elección de la distancia de Hamming está fundada en una prueba de independencia estadı́stica [18].
Se da por supuesto que el código generado por dos imágenes de iris diferentes son estadı́sticamente inde-
pendientes. Dado que se trabaja con un código binario, si se comparan dos bits correspondientes del código
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 7

de cada imagen de iris diferentes, existe igual probabilidad de coincidencia y de rechazo (50 % para ambos
casos). Esto significa que la comparación de dos bits correspondientes de códigos que provienen de imágenes
de iris diferentes se puede modelar con una distribución binomial.
La distancia de Hamming simula el ensayo de múltiples muestreos binomiales, por lo que se espera que la
distancia de Hamming tenga un valor del 50 % de discrepancia de bits cuando se estén comparando códigos
de iris diferentes. En otras palabras, si la métrica obtenida por la distancia de Hamming tiene un valor
cercano al 50 % de discrepancia, se concluye que la prueba de independencia estadı́stica fue exitosa, por lo
que el módulo de reconocimiento determina que el sujeto es un impostor.
Cuando se comparan dos imágenes diferentes del mismo iris la distribución binomial en la comparación
de los códigos binarios deja de existir, por lo que la distancia de Hamming mostrará un porcentaje de
discrepancia de bits menor al 50 %. Ası́, la prueba de independencia estadı́stica falla cuando se comparan
imágenes del mismo iris, puesto que los códigos binarios presentan correlación. En este caso, el módulo de
reconocimiento determina que el sujeto es auténtico.

4.5. Mejoras al método de Daugman

Los métodos mencionados en las secciones anteriores componen la propuesta original de Daugman [15, 16].
Una de las deficiencias de la propuesta original es que incluye a los párpados durante la fase de extracción de
caracterı́sticas cuando éstos cubren parte del iris (Figura 3). En consecuencia, en la fase de reconocimiento
se realiza comparación del área oculta del iris.

Figura 3: Los cı́rculos azul y verde muestran el resultado de una segmentación del iris; y las regiones en rojo
son las áreas no válidas cubiertas por los párpados.

Para solventar esto, Daugman modifica su propuesta original realizando cambios en los módulos de
preprocesamiento, extracción de caracterı́sticas y reconocimiento [19].
En el módulo de preprocesamiento, además de segmentar el iris, se añade la detección de las lı́neas de
los párpados. La detección de los párpados se realiza con un operador integro-diferencial similar al operador
(4.1) para segmentación del iris. La diferencia radica en utilizar un arco en lugar de un cı́rculo para la integral
de contorno.
En el módulo de extracción de caracterı́sticas, la generación del código binario del iris no cambia. Es
decir, se calcula sin tomar en cuenta que se realizó detección de párpados. En este módulo se agrega el
cálculo de una máscara binaria de igual tamaño que el código del iris. Esta máscara indica cuáles son los bits
válidos del código del iris, es decir, el área que no está cubierta por los párpados. Para el caso del trabajo
de Daugman, la máscara es de 256 bytes.
En el módulo de reconocimiento, para tomar en consideración la máscara de regiones válidas, la métrica
8 Introducción a técnicas de reconocimiento de iris

de la distancia de Hamming se modifica y se calcula con la siguiente expresión:

k(codeA ⊕ codeB) ∩ maskA ∩ maskBk


HD = . (4.11)
kmaskA ∩ maskBk

Con esta expresión se comparan únicamente los bits válidos en ambos códigos del iris. El denominador,
al igual que en la ecuación (4.10), normaliza la distancia de Hamming en el rango [0, 1].

5. Método de Wildes para reconocimiento de iris

El trabajo de Wildes [49], junto con el de Daugman, es uno de los trabajos altamente citados en la
literatura. Wildes presenta un prototipo de un sistema automático cubriendo todos los módulos para realizar
reconocimiento de iris.
En el trabajo de Daugman [19] no se aborda a detalle el módulo de adquisición de imagen. Únicamente
se menciona la resolución mı́nima requerida en el diámetro del iris, el tipo de iluminación a utilizar, el tipo
de sensor de la cámara utilizada para experimentación y la métrica de estimación de enfoque de la imagen
capturada. En contraste, en el trabajo de Wildes [49], se menciona con más detalle el equipo y configuración
utilizada para el módulo de adquisición. Se menciona el uso de un lente de 80 mm situado a 20 cm del sujeto
utilizando una apertura amplia para minimizar la luz requerida para iluminar el ojo y se especifica una
resolución esperada de 128 pı́xeles para el radio del iris. En cuanto a la iluminación, Wildes hace un esfuerzo
para eliminar la mayor cantidad posible de reflexiones de luz. En lugar de iluminación directa al ojo, se
menciona el uso de luz difusa posicionada por arriba y abajo del dispositivo de captura. Además, se utilizan
filtros polarizadores tanto en el origen de la luz como en el lente de la cámara con el fin de reducir reflejos. En
cuanto a la retroalimentación para alinear correctamente el ojo con la cámara, el mismo artı́culo de Wildes
menciona que Daugman utiliza retroalimentación con video en tiempo real por medio de una pantalla que
muestra la toma actual. En cambio, Wildes opta por un método más sencillo utilizando retı́culas que deben
quedar alineadas ante la vista del sujeto cuando se haya logrado el correcto posicionamiento.
Para el módulo de preprocesamiento, Wildes utiliza la transformada de Hough para realizar la segmen-
tación del iris y una técnica de registro entre imágenes para obtener una alineación de las imágenes que
se desean comparar. Para el módulo de extracción de caracterı́sticas, se utiliza una pirámide Laplaciana de
la que se calculan medidas de correlación normalizada sobre bloques de 8 × 8 pı́xeles. Finalmente, para el
módulo de reconocimiento se utiliza el discriminante lineal de Fisher.
En las siguientes secciones se describen a detalle los métodos utilizados en el trabajo de Wildes para el
preprocesamiento, extracción de caracterı́sticas y reconocimiento.

5.1. Transformada de Hough

En el método de Wildes [49], la segmentación del iris se realiza con la transformada de Hough [22].
Para esto, inicialmente se crea un mapa de contornos Iedge de la imagen y, posteriormente, se utiliza la
transformada de Hough sobre el mapa de contornos para encontrar los cı́rculos que delimitan a la pupila y
al iris.
De manera formal, la transformada de Hough para cı́rculos se define como [33, 31, 22]:
n
X
H(xc , yc , r) = h(xj , yj , xc , yc , r) (5.1)
j=1

donde
1, si (xj − xc )2 + (yj − yc )2 − r2 = 0

h(xj , yj , xc , yc , r) = (5.2)
0, de otro modo
y n es el número de pı́xeles detectados como borde y se encuentran en el mapa de contornos.
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 9

Por cada pı́xel (xj , yj ) ∈ Iedge , la función h tomará valor 1 cuando el pı́xel forme parte de la circunferencia
representada por los parámetros de la terna (xc , yc , r), donde xc y yc son las coordenadas del centro de la
circunferencia y r es el radio de la circunferencia.
Debido a que se trabaja con la suposición de que la imagen a segmentar contiene un iris en un plano
cerrado, se puede dar por hecho que el iris y la pupila son los únicos dos objetos con forma aproximadamente
circular. Al trabajar con esta suposición, los dos máximos globales de la función H son una elección adecuada
para la segmentación del iris. Los dos máximos globales de H proporcionarán los valores de dos ternas
(xc , yc , r) que delimitan el borde interior y exterior del iris.
En el trabajo de Wildes, adicional a la segmentación del iris, se realiza detección del borde de los párpados.
Para esto, nuevamente se utiliza la transformada de Hough, pero se reemplaza la función h de (5.2) por una
función que responda a arcos parabólicos [49].

5.1.1. Mapa de bordes con magnitud de gradiente

Para generar el mapa de bordes Iedge a partir de la imagen original I se utilizan métodos de detección
de bordes. En el trabajo de Wildes, el mapa de bordes se construye a partir de la magnitud del gradiente de
las intensidades de la imagen:
|∇G(x, y) ∗ I(x, y)| . (5.3)

Al resultado de la expresión anterior se le aplica un umbral para obtener el mapa binario Iedge que se
requiere para la transformada de Hough. En esta expresión el sı́mbolo nabla ∇ es el operador de gradiente, y

1 − (x−x0 )2 +(y−y 0)
2

G(x, y) = e 2σ 2 . (5.4)
2πσ 2

La función G representa una Gaussiana bidimensional que suaviza la imagen original I al realizarse la
convolución. El suavizado discrimina los bordes más finos de la imagen.

5.2. Registro de imagen

En el sistema de Wildes [49] se utiliza un método que encuentra correspondencias entre una imagen
modelo y una imagen objetivo, y se obtiene invarianza a escala y rotación de la imagen.
En este método, la correspondencia se calcula por medio de una función (u(x, y), v(x, y)). Si Ia es la
imagen objetivo e Id es la imagen modelo, esta función se construye de forma que se cumpla la siguiente
expresión: Z Z
mı́n (Id (x, y) − Ia (x − u, y − v))2 dxdy (5.5)
u,v x y

con la restricción      
x−u x x
= − sR(φ) (5.6)
y−v y y
donde s es un factor de escala y R(φ) es una matriz de rotación de φ grados.
En esencia, este método construye una función (u(x, y), v(x, y)) de manera que el valor de intensidad
que se encuentre en Ia ((x, y) − (u(x, y), v(x, y))) sea lo más cercano posible al valor de intensidad que se
encuentre en Id (x, y). La restricción (5.6) se requiere con el fin de construir una función (u(x, y), v(x, y)) que
realice una transformación entre los sistemas de coordenadas de ambas imágenes.
En realidad, para realizar la correspondencia de coordenadas entre la imagen modelo y la imagen objetivo
únicamente se requieren los parámetros de escala y rotación s y φ, pues son los que generan la función
(u(x, y), v(x, y)) utilizada en la ecuación (5.5). Para estimar estos parámetros, se utiliza un algoritmo iterativo
que se aplica a problemas de flujo óptico [4].
10 Introducción a técnicas de reconocimiento de iris

5.3. Representación multi-escala con filtro Laplaciano de Gaussiana

Para el módulo de extracción de caracterı́sticas, en el método de Wildes se utiliza una representación


multi-escala que se construye con una aproximación de filtros del Laplaciano de gaussianas. Para construir
esta representación, se emplea una pirámide Laplaciana utilizando filtros gaussianos pequeños.
Para la pirámide Laplaciana
 se utiliza un filtro bidimensional construido a partir del filtro de una dimen-
sión w = 1 4 6 4 1 /16. Este filtro se multiplica por sı́ mismo para formar W = wT w, el cual es un
filtro Gaussiano de dos dimensiones.
La pirámide Laplaciana se inicia convolucionando la imagen de interés con este filtro gaussiano y submues-
treando para obtener diferentes escalas (5.7). Entonces, cada nivel de la pirámide Laplaciana se construye
restando las imágenes resultantes de escalas adyacentes (5.8).
La construcción de las diferentes escalas se puede expresar de la siguiente forma:

gk = (W ∗ gk−1 )↓2 (5.7)

donde gk es la imagen en la escala k; se define g0 = I, siendo I la imagen de interés; y la expresión (·)↓2


representa un submuestreo que reduce la resolución de la imagen a la mitad en ambas direcciones. Con esto,
cada nivel de la pirámide Laplaciana se forma realizando la operación

lk = gk − 4W ∗ (gk+1 )↑2 (5.8)

donde lk es el k-ésimo nivel de la pirámide Laplaciana, y la expresión (·)↑2 indica un escalamiento que duplica
el tamaño de la imagen intercalando filas y columnas con valores cero. La convolución con 4W funciona como
un filtro de interpolación para asignar valores a estos pı́xeles con ceros.
La diferencia de gaussianas proporciona una buena aproximación a un filtraje de Laplaciano de gaussianas.
La pirámide que se utiliza en el método de Wildes es de cuatro niveles.

5.4. Métrica de similitud por correlación normalizada

A diferencia del método de Daugman, el método de Wildes utiliza un procedimiento mucho más elaborado
para determinar si una imagen a probar corresponde a la misma persona de un registro en una base de datos.
Como parte del módulo de extracción de caracterı́sticas, Wildes utiliza la correlación normalizada para
hallar un vector que sirva de indicador de similitud. Dadas dos imágenes I1 e I2 de tamaño n × m, la
correlación normalizada entre ambas imágenes está dada por la expresión:
Pn Pm
i=1 j=1 (I1 (i, j) − µ1 )(I2 (i, j) − µ2 )
ρ= (5.9)
nmσ1 σ2
Pn Pm
donde µ1 = (1/nm) i=1 j=1 I1 (i, j) es el valor de intensidad medio de I1 y µ2 está definido de forma
similar; y donde σ1 y σ2 son las desviaciones estándar de ambas imágenes y están definidas de forma similar
mediante la siguiente expresión: v
u n X m
u 1 X
σ1 = t (I1 (i, j) − µ1 )2 . (5.10)
nm i=1 j=1

En la ecuación (5.9) se puede notar que la correlación normalizada se define de forma muy similar a una
correlación estándar. La normalización que se agrega permite discriminar las variaciones en la intensidad de
la imagen.
En el método de Wildes, se calculan múltiples valores de correlación: se toman ambas imágenes que se
quieren comparar, se dividen en pequeñas regiones de 8 × 8 y se calcula el valor de correlación entre cada
pequeña región correspondiente. Esto se hace para cada uno de los cuatro niveles de la pirámide Laplaciana.
Ası́, en cada nivel de la pirámide se tendrán múltiples valores de correlación. Posteriormente, en cada nivel
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 11

se halla la mediana de todos los valores calculados para reducir la cantidad de valores a únicamente cuatro
correlaciones, es decir, un valor de correlación por nivel de la pirámide. Estos cuatro valores de correlación
son los que se utilizan para determinar si las imágenes corresponden al mismo iris.

5.5. Discriminante lineal de Fisher como clasificador

En el módulo de reconocimiento, el método de Wildes utiliza el discriminante lineal de Fisher para


combinar las métricas de correlación y determinar si dos imágenes corresponden al mismo iris o si se tratan
de personas diferentes.
Sea q una matriz con n muestras de d dimensiones, de las cuales un número na pertenecen a un conjunto
A y un número nb pertenecen a un conjunto B. El discriminante lineal de Fisher establece que se puede
hallar un vector ω que transforme las muestras mediante el producto ω T q ponderándolas de tal forma que
se maximice la razón de la varianza interclase contra la varianza intraclase.
Una medida de la varianza intraclase se puede hallar mediante la expresión
X
Sa = (q − µa )(q − µa )T (5.11)
q∈A
P
donde µa = ( q∈A q)/na es la media de d dimensiones para los datos del conjunto A. La varianza intraclase
Sb para el conjunto B se puede medir de forma similar.
Las matrices Sa y Sb son matrices de dispersión. La dispersión intraclase total está dada por Sw = Sa +Sb .
La varianza interclase se puede medir en base a las matrices de dispersión
Sv = (µa − µb )(µa − µb )T . (5.12)

Ası́, utilizando el discriminante de Fisher, se debe encontrar el vector ω que maximice la razón
ω T Sv ω
. (5.13)
ω T Sw ω

Luego de desarrollar la expresión anterior, se encuentra que la ω que maximiza la razón (5.13) es la
siguiente:
−1
ω = Sw (µa − µb ). (5.14)

En el caso particular de reconocimiento de iris, el conjunto A y el conjunto B corresponderı́an a los casos


en que un par de imágenes no correspondan a la misma persona (impostor), o bien, al caso de imágenes con
iris coincidentes (persona auténtica). Para terminar de construir el clasificador, únicamente hace falta definir
el punto de corte que separa la clase de las personas impostoras de la clase de personas auténticas. El punto
de corte que elige Wildes en su método es el punto intermedio de las medias transformadas dado por
1 T
ω (µa + µb ). (5.15)
2

Con el fin de obtener los valores del vector ω y del punto de corte que puedan ser utilizados para la
clasificación, es necesario utilizar un conjunto de imágenes de iris para ajustar el discriminante de Fisher.
Esto contrasta con el método de Daugman en el que el umbral de decisión se halla con un análisis estadı́stico
sin necesidad de imágenes de prueba.

6. Otros métodos para reconocimiento de iris

Posterior a los trabajos de Daguman [16] y Wildes [49], la mayorı́a de los trabajos que se encuentran
en la literatura aportan mejoras o alternativas a los métodos de cada uno de los diferentes módulos de un
sistema de reconocimiento de iris. En la Tabla 1 se presenta, de manera cronológica, una breve lista de los
trabajos relevantes en el área de reconocimiento de iris expuestos en este artı́culo.
12 Introducción a técnicas de reconocimiento de iris

Año Primer autor Artı́culo Aportaciones


1987 L. Flom Patente No. 4,641,349 de Estados Unidos Diseño conceptual de un sistema de re-
conocimiento de iris.
1994 J. Daugman Patente No. 5,291,560 de Estados Unidos Uno de los primeros sistemas funciona-
les de reconocimiento de iris.
1996 K. Hanna A system for non-intrusive human iris ac- Prototipo de sistema no intrusivo para
quisition and identification la adquisición de imagen del iris.
1997 R. Wildes Iris recognition: an emerging biometric Sistema de reconocimiento de iris uti-
technology lizando un vector de caracterı́sticas
numérico.
1998 W. Boles A human identification technique using Sistema de reconocimiento utilizando
images of the iris and wavelet transform. cı́rculos virtuales, una representación
en cruces de ceros y funciones de disi-
militud.
2002 T. Camus Reliable and fast eye finding in close-up Algoritmo para una rápida localización
images. del ojo utilizando una representación
polar.
2003 J. Daugman The importance of being random: statis- Presenta resultados de pruebas en gran
tical principles of iris recognition escala y describe mejoras a su algoritmo
original para descartar regiones inváli-
das.
2005 Y. Chen Localized Iris Image Quality Using 2-D Métrica para estimar la calidad de la
Wavelets imagen adquirida por regiones circula-
res.
2005 V. Dorairaj Performance evaluation of iris-based re- Uso de ICA y PCA para construir un
cognition system implementing PCA and vector binario de caracterı́sticas.
ICA encoding techniques
2006 J. Matey Iris on the Move: Acquisition of Images Captura de imagen del iris en entornos
for Iris Recognition in Less Constrained con pocas restricciones y con el sujeto
Environments en movimiento.
2009 X. Huang Image deblurring for less intrusive iris Técnica de restauración de imagen del
capture iris con mal enfoque.
2009 H. Proença On the feasibility of the visible wave- Analiza la posibilidad de usar imágenes
length, at-a-distance and on-the-move capturadas en el espectro de luz visible
iris recognition para el reconocimiento de iris.
2009 R. Labati Agent-based image iris segmentation and Segmentación del iris realizando detec-
multiple views boundary refining ción del centro de la pupila y, posterio-
mente, estimación de bordes.
2010 H. Proença Iris recognition: on the segmentation of Segmentación del iris con el apoyo de
degraded images acquired in the visible redes neuronales y detectando la es-
wavelength clerótica para facilitar la detección del
iris.
2013 A. Kumar Isometric efficient and accurate Fourier- Extracción de caracterı́sticas robustas
SIFT method in iris recognition system al cambio de iluminación a través de la
transformada de Fourier de caracterı́sti-
cas SIFT.

Tabla 1: Breve listado de trabajos relacionados con el reconocimiento de iris.


E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 13

En la literatura existen pocos trabajos que han propuesto mejoras o alternativas para la captura de
imágenes en el módulo de adquisición de imagen. Uno de los trabajos que se puede encontrar fue publicado
en 1996 por Hanna, et al., [26]. En este trabajo se propone un prototipo para que la adquisición de la imagen
sea menos intrusiva. Se utilizan dos cámaras con lentes que proporcionan un campo de visión amplio con
las que se detecta la presencia de una persona (en particular, su cabeza) dentro de un área de captura de
imagen. Al utilizar dos cámaras, es posible estimar la distancia, a la que se encuentra el sujeto, con técnicas
de visión computacional. Luego de que se han estimado distancias, se utiliza una tercera cámara con un
lente que proporciona un campo de visión cerrado (mayor acercamiento) para fotografiar el ojo del sujeto.
De esta forma, para obtener una imagen del iris de una persona sólo se requiere que el sujeto se posicione
en un área de captura con la vista al frente. El área de captura se define de acuerdo a la calibración del par
de cámaras que proporcionan la visión estéreo de campo amplio. Esto contrasta con el método de Daugman
y Wildes, donde se requiere que el sujeto reubique la posición de su ojo para obtener una captura adecuada.
Un trabajo más reciente que aborda la captura de imagen es el proyecto publicado por Matey, et al.,
nombrado “Iris on the Move” [39]. Este proyecto propone un sistema capaz de capturar la imagen de un
iris en entornos con pocas restricciones. Es más ambicioso que el trabajo de Hanna, ya que el objetivo es la
captura de imágenes con calidad suficiente para el reconocimiento mientras el sujeto se mueve con velocidad
de caminata normal.
Otros trabajos que abordan la captura de imagen es el de Proença [41] y el de Chou et al., [14]. En el
trabajo de Proença se menciona que la luz del espectro visible es la más adecuada para realizar capturas en
entornos menos cooperativos, y se realiza un análisis de la información que es posible capturar con luz del
espectro visible y luz del espectro cercano al infrarrojo. En el trabajo de Chou se abordan los cuatro módulos
de reconocimiento de iris y, en particular, para el módulo de adquisición construyen su propia cámara, que
posicionan en un ángulo no ortogonal, es decir, el eje óptico de la cámara no es horizontal.
Luego de la captura de la imagen del iris, algunos autores abordan la evaluación de la calidad de la toma.
La evaluación de la calidad de la toma no es un proceso exclusivo del módulo de adquisición de la imagen,
ya que algunos autores optan por retrasar la evaluación de la calidad hasta después del preprocesamiento y,
en algunos casos, hasta después de la extracción de caracterı́sticas. En el método de Daugman, por ejemplo,
se utiliza el espectro de Fourier para estimar el grado de enfoque de la imagen capturada [19], por lo que la
estimación de la calidad forma parte del módulo de preprocesamiento. En cambio, en la patente de Zhang
y Salganicoff [51], la evaluación de la calidad de la toma abarca tanto el módulo de adquisición como el de
preprocesamiento, ya que se utilizan los bordes del iris y la pupila que se estiman en la segmentación para
estimar el grado de enfoque, con base en valores de mediana y gradientes. El trabajo de Chen et al., [11]
se propone una métrica de calidad basada en una onduleta que estima la calidad de la toma por regiones
circulares, es decir, se estima la calidad para diferentes regiones de la imagen del iris e incluso se propone
una modificación a la distancia de Hamming propuesta por Daugman para ponderar la métrica de similitud
de acuerdo a la calidad detectada.
Algunos autores que abordan el tema de la calidad de la imagen capturada, optan por desarrollar técnicas
de restauración. Por ejemplo, Huang et al., [32] proponen un método para restaurar una imagen que se
encuentra fuera de foco basándose en una técnica Bayesiana. Otros autores estudiaron las consecuencias
de una imagen de baja calidad para la fase del reconocimiento. Por ejemplo, Kalka et al., [35] estudiaron
siete factores que afectan la calidad de una imagen del iris y concluyeron que imágenes borrosas a causa
de desenfoque y movimiento e imágenes fuera de ángulo son las que causan mayor problema en la etapa de
reconocimiento. También mostraron que su métrica de calidad puede predecir la eficiencia de la etapa de
reconocimiento.
Para el módulo de preprocesamiento, inicialmente se desarrollaron métodos que produjeran una mejor
segmentación bajo el supuesto de que la pupila y el iris son objetos con forma circular. Ejemplos de estos
trabajos son el de Liu [38], el de Camus [9] y el de He [29]. En el trabajo de Liu [38] se desarrolla un método
para detectar cı́rculos, al que nombraron como “algoritmo de lı́nea normal”, que se utiliza en conjunto con el
método de Canny [10] para detectar bordes. En el trabajo de Camus [9] se opta por utilizar el plano polar,
en lugar de un plano cartesiano, para detectar los lı́mites de la pupila y el iris con ayuda de derivadas con
dirección radial. En el trabajo de He [29] se propone un algoritmo propio inspirado en el uso de resortes
imaginarios en conjunto con el algoritmo de Viola [48].
14 Introducción a técnicas de reconocimiento de iris

A pesar de que existe mucho trabajo que realiza la segmentación del iris tratando de localizar cı́rculos,
la tendencia actual es el desarrollo de métodos que trabajen sin la suposición de que el iris y la pupila son
objetos circulares [8]. Un método que se ha utilizado para segmentar el iris sin el supuesto de forma circular
es el método de contornos activos [20, 44]. Otro método es el propuesto por Labati [37] en el que primero se
estima la ubicación del centro de la pupila y, posteriormente, se estiman los bordes que delimitan el iris. Por
otro lado, Proença [42] trabaja con imágenes de calidad baja que se capturan en condiciones de bajo control
y decide detectar la esclerótica como primer paso y como elemento clave para la posterior detección del iris
y la pupila.
Durante la segmentación, la detección de los párpados es comúnmente tomada en consideración por los
trabajos recientes que se puede encontrar en la literatura. Los métodos de Labati [37], Proença [42] y los
métodos que usan contornos activos [20, 44] que ya se mencionaron, son ejemplos de métodos que toman
en cuenta que los párpados pueden cubrir parte del iris y excluyen el área cubierta del resultado de la
segmentación.
Para el módulo de extracción de caracterı́sticas, se han propuesto métodos alternativos para generar
códigos binarios similares al del método de Daugman. Por ejemplo, en el trabajo de Tisse [47] para generar
el código binario se utiliza la “imagen analı́tica”, la cual es una extensión de la “señal analı́tica” que se
deriva de la transformada de Hilbert [28, 25]; y en el trabajo de Chou [13] se combinan filtros de diferencia
de gaussianas y Laplacianio de gaussianas para formar un código binario.
De igual forma, otros autores han optado por representaciones numéricas, siendo más similares al método
utilizado por Wildes. Por ejemplo, Boles y Boashash [5] utilizaron los cruces en cero de la transformada por
onduleta diádica. Otro ejemplo es el método de Mehrotra [40] en el que se utiliza el detector de Harris [27]
para localizar puntos de interés y formar un vector de caracterı́sticas con la información en los puntos de
interés, con la consecuencia de que el vector de caracterı́sticas no tiene un tamaño fijo.
En el último módulo de un sistema de reconocimiento de iris, el módulo de reconocimiento, los métodos
utilizados normalmente dependen y se proponen de acuerdo al vector de caracterı́sticas que se obtiene del
módulo de extracción de caracterı́sticas. Para el caso de los métodos que generan un código binario del iris,
la distancia de Hamming propuesta por Daugman [19], o una variante de la misma, es la métrica de similitud
que suele utilizarse. Por ejemplo, en el trabajo de Dorairaj [21] se binariza el resultado extraı́do a partir
de PCA o de un análisis de componentes independientes (ICA) para utilizar la distancia de Hamming. En
el trabajo de Chou [13], la métrica utilizada está basada en la distancia de Hamming, aunque no se hace
comentario alguno de este hecho. En el trabajo de Chen [11], como ya se mencionó anteriormente, se modifica
la distancia de Hamming para tomar en cuenta la calidad detectada en diferentes regiones del iris.
En el caso de los métodos que utilizan vectores de caracterı́sticas con valores numéricos no es posible
identificar un método común, ya que la métrica suele proponerse de acuerdo a los rasgos que se extraen con el
vector de caracterı́sticas. En el método de Wildes [49], por ejemplo, se usa el discriminante lineal de Fisher.
En el método de Xu [50] se utiliza PCA de dos dimensiones (2DPCA) como extractor de caracterı́sticas
y la métrica utilizada es la distancia de Hamming. En el método de Son [46] se utilizan máquinas de
soporte vectorial (SVM) como clasificador para un vector obtenido a partir de una onduleta y de técnicas de
reducción de dimensión. En el método de Kumar y Majhi [36] la transformada Fourier-SIFT es utilizada para
determinar puntos caracterı́sticos que serán utilizados para encontrar correspondencias entre las imágenes a
comparar con la distancia Gromov-Hausdorff.

7. Perspectiva

En la literatura existe una numerosa cantidad de trabajos relacionados al iris como rasgo biométrico.
Hablando en general, se puede decir que el grado de desarrollo que existe actualmente en el área de los sistemas
de reconocimiento del iris, es suficiente para realizar la identificación de personas de forma confiable. Incluso,
en el mercado ya se comercializan aparatos y soluciones que implementan reconocimiento del iris.
A pesar del progreso existente, el área del iris como biométrico continúa siendo un campo de investigación
activa. Como ya se mencionó anteriormente, la tendencia de investigación actual se dirige a la eliminación
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 15

de las suposiciones o restricciones impuestas por los primeros sistemas de reconocimiento de iris. Al otorgar
libertad al entorno de trabajo, los métodos actualmente implementados suelen ser insuficientes y dejan de
ser confiables. La mitigación del entorno de trabajo puede ser algo sencillo como el eliminar la suposición de
la estricta forma circular del iris y la pupila; o algo más complejo como el uso de luz visible en lugar de luz
infrarroja, o la adquisición de imagen de un sujeto lejano.
El desarrollo que se ha generado en el área es muy extenso, por lo que es difı́cil abarcar toda la investigación
realizada en una revisión de la literatura. Sin embargo, aunque en esta revisión sólo se mencionan algunos
de los trabajos existentes, lo expuesto debe ser suficiente para tener una idea amplia del desarrollo actual
de los sistemas de reconocimiento de iris. Probablemente se puede concluir que ya es posible realizar el
reconocimiento del iris de forma confiable bajo condiciones controladas, pero en ambientes de trabajo menos
restringidos aún no se ha desarrollado un método que proporcione una confianza aceptable.

Referencias
[1] CASIA Iris Image Database, http://biometrics.idealtest.org/. Ultimo acceso: Septiembre de 2014.
[2] Fuad M. Alkoot. A review on advances in iris recognition methods. International Journal of Computer
Engineering Research, 3(1):1–9, January 2012.
[3] Ehsan M. Arvacheh. A Study of Segmentation and Normalization for Iris Recognition Systems. PhD
thesis, University of Waterloo, 2006.
[4] James R. Bergen, P. Anandan, Keith J. Hanna, and Rajesh Hingorani. Hierarchical model-based motion
estimation. In G. Sandini, editor, Computer Vision — ECCV’92, volume 588, pages 237–252. Springer
Berlin Heidelberg, 1992.
[5] W. W. Boles and B. Boashash. A human identification technique using images of the iris and wavelet
transform. IEEE Transactions on Signal Processing, 46(4):1185–1188, April 1998.
[6] Kevin W. Bowyer. The results of the NICE.II iris biometrics competition. Pattern Recognition Letters,
33(8):965 – 969, 2012.
[7] Kevin W. Bowyer, Karen P. Hollingsworth, and Patrick J. Flynn. Image understanding for iris biome-
trics: A survey. Computer Vision and Image Understanding, 110(2):281–307, May 2008.
[8] Kevin W. Bowyer, Karen P. Hollingsworth, and Patrick J. Flynn. A survey of iris biometrics research:
2008–2010. In Mark J. Burge and Kevin W. Bowyer, editors, Handbook of Iris Recognition, chapter 2,
pages 15–54. Springer London, 2013.
[9] T. A. Camus and R. Wildes. Reliable and fast eye finding in close-up images. Object recognition
supported by user interaction for service robots, 1:389–394, 2002.
[10] John Canny. A Computational Approach to Edge Detection. IEEE Transactions on Pattern Analysis
and Machine Intelligence, PAMI-8(6):679–698, November 1986.
[11] Yi Chen, Sarat C. Dass, and Anil K. Jain. Localized Iris Image Quality Using 2-D Wavelets. Advances
in Biometrics, 3832:373–381, 2005.
[12] Yu Chen, Malek Adjouadi, Armando Barreto, Naphtali Rishe, and Jean Andrian. A computational
efficient iris extraction approach in unconstrained environments. IEEE 3rd International Conference on
Biometrics: Theory, Applications, and Systems, 2009, (2):1–7, September 2009.
[13] Chia-Te Chou, Sheng-Wen Shih, Wen-Shiung Chen, and Victor W. Cheng. Iris Recognition with Multi-
Scale Edge-Type Matching. 18th International Conference on Pattern Recognition, 2006, 4:545–548,
2006.
[14] Chia-Te Chou, Sheng-Wen Shih, Wen-Shiung Chen, Victor W. Cheng, and Duan-Yu Chen. Non-
Orthogonal View Iris Recognition System. IEEE Transactions on Circuits and Systems for Video
Technology, 20(3):417–430, March 2010.
16 Introducción a técnicas de reconocimiento de iris

[15] John G. Daugman. High confidence visual recognition of persons by a test of statistical independence.
IEEE Transactions on Pattern Analysis and Machine Intelligence, 15(11):1148–1161, November 1993.
[16] John G. Daugman. Biometric personal identification system based on iris analysis (US Patent 5,291,560),
1994.
[17] John G. Daugman. Demodulation by Complex-Valued Wavelets for Stochastic Pattern Recognition.
International Journal of Wavelets, Multiresolution and Information Processing, 01(01):1–17, 2003.
[18] John G. Daugman. The importance of being random: statistical principles of iris recognition. Pattern
Recognition, 36(2):279–291, February 2003.
[19] John G. Daugman. How Iris Recognition Works. IEEE Transactions on Circuits and Systems for Video
Technology, 14(1):21–30, January 2004.
[20] John G. Daugman. New methods in iris recognition. IEEE Transactions on Systems, Man, and Cyber-
netics, Part B: Cybernetics, 37(5):1167–1175, October 2007.
[21] Vivekanand Dorairaj, Natalia A. Schmid, and Gamal Fahmy. Performance evaluation of iris-based recog-
nition system implementing PCA and ICA encoding techniques. In Proc. SPIE, Biometric Technology
for Human Identification II, volume 5779, pages 51–58, 2005.
[22] Richard O. Duda and Peter E. Hart. Use of the Hough Transformation to Detect Lines and Curves in
Pictures. Communications of the ACM, 15(1):11–15, January 1972.
[23] Maryam Eskandari and Önsen Toygar. Effect of eyelid and eyelash occlusions on iris images using
subpattern-based approaches. In Fifth International Conference on Soft Computing, Computing with
Words and Perceptions in System Analysis, Decision and Control, pages 1–4. IEEE, 2009.
[24] Leonard Flom and Aran Safir. Iris recognition system, 1987. US Patent 4,641,349.
http://www.google.com.mx/patents/US4641349.
[25] D. Gabor. Theory of communication. Part 1: The analysis of information. Journal of the Institution of
Electrical Engineers - Part III: Radio and Communication Engineering, 93(26):429–457, 1946.
[26] K. Hanna, R. Mandelbaum, D. Mishra, V. Paragano, and L. Wixson. A system for non-intrusive human
iris acquisition and identification. In IAPR Workshop on Machine Vision Applications, pages 200–203,
November 1996.
[27] Chris Harris and Mike Stephens. A Combined Corner and Edge Detector. In Proceedings of Fourth
Alvey Vision Conference, pages 147–151, 1988.
[28] Joseph P. Havlicek, John W. Havlicek, and Alan C. Bovik. The analytic image. In Proceedings of the
International Conference on Image Processing, 1997, volume 2, pages 446–449, Santa Barbara, CA,
USA, 1997. IEEE.
[29] Zhaofeng He, Tieniu Tan, and Zhenan Sun. Iris Localization via Pulling and Pushing. 18th International
Conference on Pattern Recognition, 2006, 4:366–369, 2006.
[30] Zhaofeng He, Tieniu Tan, and Zhenan Sun. Topology modeling for Adaboost-cascade based object
detection. Pattern Recognition Letters, 31(9):912–919, July 2010.
[31] Paul V. C. Hough. Method and means for recognizing complex patterns (US Patent 3,069,654), 1962.
[32] Xinyu Huang and Liu Ren. Image deblurring for less intrusive iris capture. IEEE Conference on
Computer Vision and Pattern Recognition, 2009, pages 1558–1565, June 2009.
[33] J. Illingworth and J. Kittler. A survey of the Hough transform. Computer Vision, Graphics, and Image
Processing, 44(1):87–116, 1988.
[34] Anil K. Jain and Ajay Kumar. Biometric Recognition: An Overview. In Emilio Mordini and Dimitros
Tzovaras, editors, Second Generation Biometrics: The Ethical, Legal and Social Context, chapter 3,
pages 49–79. Springer Netherlands, 2012.
E. Hernandez-Garcia, A. Martin-Gonzalez, C. Brito-Loeza 17

[35] Nathan D. Kalka, Jinyu Zuo, Natalia A. Schmid, and Bojan Cukic. Image quality assessment for iris
biometric. In Proc. SPIE, Biometric Technology for Human Identification III, volume 6202, pages
62020D–62020D–11, 2006.
[36] Ankush Kumar and Banshidhar Majhi. Isometric efficient and accurate Fourier-SIFT method in iris
recognition system. 2013 International Conference on Communication and Signal Processing, pages
260–264, April 2013.
[37] Ruggero Donida Labati, Vincenzo Piuri, and Fabio Scotti. Agent-based image iris segmentation and
multiple views boundary refining. In IEEE 3rd International Conference on Biometrics: Theory, Ap-
plications, and Systems, 2009, pages 1–7, September 2009.
[38] Yuanning Liu, Senmiao Yuan, Xiaodong Zhu, and Qingliang Cui. A practical iris acquisition system
and a fast edges locating algorithm in iris recognition. Instrumentation and Measurement Technology
Conference, 2003. IMTC ’03. Proceedings of the 20th IEEE, 1:166–168, May 2003.
[39] James R. Matey, Oleg Naroditsky, Keith Hanna, Ray Kolczynski, Dominick J. LoIacono, Shakuntala
Mangru, Michael Tinker, Thomas M. Zappia, and Wenyi Y. Zhao. Iris on the Move: Acquisition of
Images for Iris Recognition in Less Constrained Environments. Proceedings of the IEEE, 94(11):1936–
1947, November 2006.
[40] Hunny Mehrotra, G. S. Badrinath, Banshidhar Majhi, and Phalguni Gupta. An efficient dual stage
approach for iris feature extraction using interest point pairing. In IEEE Workshop on Computational
Intelligence in Biometrics: Theory, Algorithms, and Applications, 2009, pages 59–62. IEEE, March 2009.
[41] Hugo Proença. On the feasibility of the visible wavelength, at-a-distance and on-the-move iris re-
cognition. In IEEE Workshop on Computational Intelligence in Biometrics: Theory, Algorithms, and
Applications, 2009, pages 9–15, Nashville, TN, March 2009. IEEE.
[42] Hugo Proença. Iris recognition: on the segmentation of degraded images acquired in the visible wave-
length. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(8):1502–1516, 2010.

[43] Arun Ross. Iris Recognition: The Path Forward. Computer, 43(2):30–35, February 2010.
[44] Samir Shah and Arun Ross. Iris Segmentation Using Geodesic Active Contours. IEEE Transactions on
Information Forensics and Security, 4(4):824–836, December 2009.
[45] S. V. Sheela and P. A. Vijaya. Iris Recognition Methods - Survey. International Journal of Computer
Applications, 3(5):19–25, June 2010.

[46] Byungjun Son, Hyunsuk Won, Gyundo Kee, and Yillbyung Lee. Discriminant iris feature and support
vector machines for IRIS recognition. In International Conference on Image Processing, 2004, volume 2,
pages 865–868. IEEE, October 2004.
[47] Christel-loı̈c Tisse, Lionel Martin, Lionel Torres, and Michel Robert. Person identification technique
using human iris recognition. In Proceedings of Vision Interface, pages 294–299, 2002.
[48] P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proceedings
of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001, volume 1,
pages I–511–I–518. IEEE, 2001.
[49] Richard P. Wildes. Iris recognition: an emerging biometric technology. Proceedings of the IEEE,
85(9):1348–1363, September 1997.
[50] Xiuli Xu and Ping Guo. Iris Feature Extraction Based on the Complete 2DPCA. In Wen Yu, Haibo
He, and Nian Zhang, editors, Advances in Neural Networks – ISNN 2009, volume 5552, pages 950–958.
Springer Berlin Heidelberg, 2009.

[51] Guang Hua Zhang and Marcos Salganicoff. Method of measuring the focus of close-up images of eyes
(US Patent 5,953,440), 1999.

También podría gustarte