Tesis Jose Enrique Suarez Pascual

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 220

TESIS DOCTORAL

Mecanismos de Captura y
Procesado de Imágenes de
Venas para Identificación
Personal

Autor:
D. José Enrique Suárez Pascual

Directores:
Dr. D. Raúl Sánchez Reíllo
Dr. D. Michael V. García Lorenz

DEPARTAMENTO TECNOLOGÍA ELECTRÓNICA

Leganés, Julio 2011


Tesis Doctoral

Mecanismos de Captura y Procesado de


Imágenes de Venas para Identificación Personal
Autor: D. José Enrique Suárez Pascual

Directores: Dr. D. Raúl Sánchez Reíllo


Dr. D. Michael V. García Lorenz

Firma del tribunal calificador:

Nombre y Apellidos Firma

Presidente:

Vocal:

Vocal:

Vocal:

Secretario:

Calificación:

Leganés, 2011
Hasta aquí hemos llegado …
.... que no es poco
Agradecimientos

La presente investigación se ha realizado bajo la dirección de los


profesores Raúl Sánchez Reíllo y Michael V. García Lorenz, a quienes quiero
expresar mi más sincero agradecimiento por su ayuda y consejos prestados.

Un agradecimiento muy especial a mi mujer, Cristina, y a mis hijos,


Mario y Candela, por robarles tantas horas de tardes, noches, fines de semana
y vacaciones junto al PC, y por la paciencia de aguantarme en esos momentos.

También deseo manifestar mi gratitud a todas aquellas personas, sin


cuya colaboración con manos y muñecas reales este trabajo no se hubiera
podido llevar a cabo y sin las que no hubiese podido realizar las cientos de
pruebas necesarias: mi familia (Cristina, Mario y Candela), mis padres (Quique
y Pili), mis hermanos (David y Alejandro), mis tíos (Alfonso y Mari Carmen), mis
cuñadas (Silvia y Susana), mi familia política (Mila, Celso, Tania, Iñaki, Juanjo,
Rosa y Fernando), mis amigos (David, José Luis, Jaime, Mario, Javier del Rey,
Rebeca, Gloria y Javier Chacón), mis alumnos de ESO del IES Julio Verne en
Leganés en los cursos 2008-2010 y mis alumnos de ESO y Bachillerato del IES
Isabel la Católica en Madrid en el curso 2010-2011.

Tengo que citar igualmente a mis compañeras del IES Julio Verne (Olga
y Maribel) y a mis compañeros del IES Isabel la Católica (Vicente, Manuel,
Alberto, José Manuel y Maria Ángeles), por soportarme a mí y a mis
“cachivaches” de prueba en los departamentos durante estos 4 años. También
un agradecimiento especial a mi compañero de trabajos vasculares del
departamento GUTI, Jaime de Uriarte, por su inestimable ayuda con el
MATLAB cada vez que me quedaba atascado en algún punto.

Por último agradecerle a mi fuerza de voluntad por no haberme dejado


abandonar el trabajo las muchas veces que el cuerpo me lo pedía, cuando me
sentía frustrado por no conseguir los resultados deseados después de
semanas y semanas de pruebas y trabajo, y cuando me preguntaba para qué
tanto esfuerzo si realmente ya no era necesario.

I
Resumen

Actualmente la identificación biométrica para el acceso a recintos o


servicios está cobrando bastante importancia. La biometría es una tecnología
que, además de realizar funciones de reconocimiento, aporta mayores niveles
de seguridad que otros métodos de identificación externos, al llevar
intrínsecamente la información en el cuerpo. La identificación biométrica
vascular ofrece un futuro muy prometedor en ambos aspectos. La mayoría de
los sistemas biométricos se basan en sistemas hardware (HW) para la captura
de muestras del usuario más una solución software (SW) para el procesado de
las mismas.

La tarea de la investigación en biometría vascular hoy en día es crear


sistemas fiables y seguros para obtener soluciones aplicables. En esta Tesis,
hemos propuesto dos importantes contribuciones a la identificación mediante
esta modalidad biométrica:

1. Un sistema hardware novedoso y económico para la captura de


patrones y muestras del usuario, tanto de palma como de muñeca, que
ofrece imágenes de una calidad suficiente para su procesado posterior.
Además, a diferencia de los trabajos previos realizados, las
especificaciones y diseño de este sistema se ofrecen abiertamente a la
comunidad científica.

2. Un sistema de procesamiento de las imágenes de las venas extraídas,


basado en las conocidas función Gaussiana y función de Convolución, y
un nuevo sistema de toma de decisiones, basado en una comparación
orientable de las líneas extraídas apoyado con el dato obtenido del
ancho de la muñeca de cada usuario. Esto también se ofrece a la
comunidad científica, mostrando todas las fases del proceso, al contrario
de lo que ocurre con las escasas publicaciones existentes que se
analizarán a lo largo del presente documento.

III
Resumen

Para demostrar la viabilidad de esta propuesta se ha desarrollado e


implementado un sistema HW y SW completo, y se ha probado finalmente con
100 usuarios de diferentes edades, razas y sexo, obteniendo los resultados
mostrados al final de esta Tesis que confirman la viabilidad futura de la solución
propuesta. Finalmente se indican las líneas de investigación futuras para
mejorar la solución y obtener mejores resultados, así como para obtener una
mayor comodidad a la hora de la captura de muestras del usuario.

IV
Abstract

Biometric identification for the compartment or service access is more


and more important nowadays. Biometrics is a technology which brings higher
security leves than other external identification methods because the
information is inherently inside the human body, apart from providing
recognition functions. Vascular biometric identification offers a very hopeful
future in both subjects. Most of the biometric systems are based on hardware
systems (HW) in order to take user samples in addition to software systems
(SW) so as to process these ones.

The investigation task in vascular biometrics is focused on creating


reliable and secure systems at this moment to obtain relevant solutions. We
propose in this PhD thesis two important contributions for the identification
using the above mentioned biometric modality:

1. A novel and economic hardware system in order to capture user patterns


and samples, palm and wrist both, which offers images with enough
quality for its further processing. Furthermore, unlike the previous found
works, the design and specifications of this system are available openly
to the scientific community.

2. An image processing system for the extracted veins images, based on


the well-known Gauss and Convolution functions, and a novel decision
making system, based on an orientation comparison of the extracted
lines with the support of the wrist width value obtained for every user. All
of this is also available to the scientific community, explaining every step
in the whole process, unlike what happens with the limited existing
scientific publications, which will be discussed along the present
document.

A complete HW and SW system has been designed and developed so as


to demonstrate the viability of these works, and this one has been finally tested

V
Abstract

with 100 users from different ages, races and sex, obtaining the results shown
at the end of this PhD thesis, which confirm the future viability of the proposed
solution. Finally, future investigation points are given to enhance the solution
and to get better results, as well as to obtain a major comfort for the user
sample captures.

VI
Índice

1 Introducción .......................................................................... 1

2 Sistemas biométricos........................................................... 7
2.1 Introducción ............................................................................................. 7
2.2 Reclutamiento, autenticación e identificación .......................................... 8
2.3 Diagrama de bloques de un sistema biométrico ...................................... 9
2.4 Parámetros de medida y curvas de un sistema biométrico.................... 10
2.4.1 Tasas de falsos negativos (FNMR/FRR) ........................................................................ 10
2.4.2 Tasas de falsos positivos (FMR/FAR) ............................................................................ 10
2.4.3 Tasa de igual error (EER/CER) ...................................................................................... 11
2.4.4 Curvas EER .................................................................................................................... 11
2.4.5 Curvas ROC y DET ........................................................................................................ 12
2.4.6 Curvas de distribución de probabilidad .......................................................................... 13
2.5 Factores a cumplir por un sistema biométrico ....................................... 13
2.6 Modalidades biométricas ....................................................................... 14
2.7 Conclusiones ......................................................................................... 16

3 Biometría vascular ............................................................. 17


3.1 Introducción ........................................................................................... 17
3.2 Biometría vascular ................................................................................. 17
3.3 Estado de la técnica en captura de muestras ........................................ 18
3.4 Estado de la técnica en preprocesado ................................................... 19
3.5 Revisión de las propuestas de extracción de características................. 20
3.6 Algoritmos de comparación propuestos en la bibliografía...................... 25
3.7 Conclusiones ......................................................................................... 28

4 Sistema de captura de imágenes ...................................... 31


4.1 Introducción ........................................................................................... 31
4.2 Fundamento del sistema de iluminación ................................................ 31
4.2.1 Principio del sistema de iluminación NIR ....................................................................... 32
4.2.2 Sistemas de captura de imágenes de partida ................................................................ 36
4.3 Sistema de captura de imágenes con iluminación superior ................... 39
4.3.1 Resultados obtenidos con este sistema ......................................................................... 42
4.4 Sistema de captura de imágenes reducido con iluminación superior .... 43
4.4.1 Resultados obtenidos con este sistema ......................................................................... 45

VII
Índice

4.5 Sistema de captura de imágenes final con iluminación prismática ........ 47


4.5.1 Resultados obtenidos con este sistema ......................................................................... 50
4.6 Sistema de captura de imágenes final con iluminación por bóveda ...... 52
4.6.1 Resultados obtenidos con este sistema ......................................................................... 55
4.6.2 Sistema final de fijación para la muñeca ........................................................................ 57
4.7 Medidas de calidad de las imágenes de los sistemas de iluminación ... 61
4.7.1 Medidas de calidad utilizadas......................................................................................... 62
4.7.2 Resultados obtenidos ..................................................................................................... 65
4.8 Conclusiones ......................................................................................... 67

5 Preprocesado y extracción de características ................. 69


5.1 Introducción ........................................................................................... 69
5.2 Extracción de la región de interés en las imágenes............................... 70
5.2.1 Extracción de la región de interés en los patrones del reclutamiento ............................ 70
5.2.2 Extracción de la región de interés en las muestras para el reconocimiento .................. 74
5.2.3 Resultados obtenidos ..................................................................................................... 75
5.3 Extracción de características de la ROI ................................................. 77
5.3.1 Función básica utilizada para la extracción .................................................................... 77
5.3.2 Funciones adicionales necesarias para su adaptación a sistemas vasculares ............. 79
5.3.3 Resultados obtenidos ..................................................................................................... 81
5.4 Conclusiones ......................................................................................... 85

6 Métodos de comparación para el reconocimiento ........... 87


6.1 Introducción ........................................................................................... 87
6.2 Método de comparación basado en el diferente ancho de la muñeca ... 88
6.2.1 Resultados obtenidos ..................................................................................................... 89
6.3 Método de comparación basado en la comparación orientable
completa de imágenes ........................................................................... 90
6.3.1 Descripción ..................................................................................................................... 91
6.3.2 Resultados obtenidos ..................................................................................................... 92
6.3.3 Variante con traslaciones y rotaciones ........................................................................... 96
6.4 Conclusiones ....................................................................................... 101

7 Optimización de la solución propuesta .......................... 103


7.1 Introducción ......................................................................................... 103
7.2 Parámetros óptimos para el sistema de captura de imágenes ............ 103
7.3 Parámetros óptimos para el preprocesado de las imágenes ............... 108

VIII
Índice

7.4 Parámetros óptimos para la extracción de características................... 109


7.5 Parámetros óptimos para los métodos de comparación ...................... 116
7.6 Conclusiones ....................................................................................... 118

8 Resultados obtenidos ...................................................... 119


8.1 Introducción ......................................................................................... 119
8.2 Resultados con el sistema primitivo de fijación, sin traslaciones ni
rotaciones ............................................................................................ 121
8.3 Resultados con el sistema final de fijación .......................................... 124
8.3.1 Sin traslaciones ni rotaciones, prueba para ajustar el parámetro RECRUIT_DIL ....... 124
A) Con el parámetro RECRUIT_DIL = 3 ................................................................... 124
B) Con el parámetro RECRUIT_DIL = 6, 9, 12 y 15 ................................................. 126
8.3.2 Sin traslaciones ni rotaciones, pruebas adicionales .................................................... 131
8.3.3 Con traslaciones y rotaciones ...................................................................................... 133
8.4 Resultados con el sistema primitivo de fijación, con traslaciones y
rotaciones ............................................................................................ 136
8.5 Resultados temporales ........................................................................ 140
8.6 Conclusiones ....................................................................................... 142

9 Conclusiones y líneas de investigación futuras ............ 145


9.1 Conclusiones generales....................................................................... 145
9.2 Líneas de investigación futuras ........................................................... 146

10 Referencias bibliográficas ............................................... 149

Anexo: Plataforma de pruebas ................................................. 155


A.1 Introducción ......................................................................................... 155
A.2 Estructura y convenciones a adoptar ................................................... 156
A.2.1 Sistema de carpetas ..................................................................................................... 156
A.2.2 Convenios generales a adoptar con la plataforma de pruebas.................................... 158
A.2.3 Diagrama de bloques ................................................................................................... 162
A.3 Parte general reutilizable de la aplicación Matlab ................................ 164
A.3.1 Descripción de los bloques generales .......................................................................... 164
A.3.2 Ajustes a realizar en la parte general por el investigador ............................................ 165
A.3.3 Acciones a realizar en la parte general por el investigador ......................................... 165
A.4 Parte específica de cada investigador de la aplicación Matlab ............ 169

IX
Índice

A.5 Bloque de resultados generados por la plataforma de pruebas........... 171


A.5.1 Documentación generada por la plataforma de pruebas ............................................. 171
A.5.2 Ejemplos de la documentación generada por la plataforma de pruebas ..................... 173

X
Índice de tablas

Tabla 1 Comparativa final de resultados para los sistemas de


iluminación ....................................................................... 66

Tabla 2 Ejemplo de anchos de muñeca para 1.520


identificaciones y 80 autenticaciones ............................... 90

Tabla 3 Resultados del estudio de calidad para los parámetros


del sistema de iluminación ............................................... 108

Tabla 4 Tiempos de ejecución para los algoritmos con cada


prueba .............................................................................. 142

Tabla 5 Comparativa final de resultados para el sistema


biométrico completo ......................................................... 143

Índice de figuras

Figura 1 Diagrama de bloques general de un sistema


biométrico ………………………………………………….. 9

Figura 2 Ejemplo de curvas EER ………………………………….. 11

Figura 3 Ejemplo de curvas ROC y DET …………………………. 12

Figura 4 Ejemplo de curvas de distribución de probabilidad …… 13

Figura 5 Tipos de sistemas biométricos ………………………….. 16

Figura 6 Imágenes de venas utilizando cámaras térmicas …….. 19

Figura 7 Imagen de venas utilizando cámaras CCD e


iluminación por infrarrojos ............................................. 19

Figura 8 Método para obtener la ROI …………………………….. 20

Figura 9 Método para la extracción de características …………. 22-23

Figura 10 Espectro electromagnético ………………………………. 32

Figura 11 Curva de respuesta para un sensor CCD ……………… 33

Figura 12 Interacción radiación-piel ………………………………… 34

Figura 13 Coeficiente de absorción espectral de los


componentes de la piel …………………………………... 34

XI
Índice de figuras

Figura 14 Diferencia entre los niveles de absorción espectral de


la hemoglobina oxigenada (HbO2) y desoxigenada
(Hb) ………………………………………………………… 35

Figura 15 Sistema de captura de imágenes en [TIS95] ………….. 36

Figura 16 Imágenes obtenidas por el sistema de captura de


imágenes en [TIS95] ……………………………………... 37

Figura 17 Sistema de captura de imágenes en [BAH04] ………… 37

Figura 18 Imágenes obtenidas por el sistema de captura de


imágenes en [BAH04] ……………………………………. 38

Figura 19 Imágenes obtenidas por el sistema de captura de


imágenes en [NFI06] ……………………………………... 38

Figura 20 Sistema de captura de imágenes en [EHV08] ………… 38

Figura 21 Imágenes obtenidas por el sistema de captura de


imágenes en [EHV08] ……………………………………. 39

Figura 22 Principio de funcionamiento del sistema de captura de


imágenes con iluminación superior …………………….. 40

Figura 23 Sistema de captura de imágenes con iluminación


superior …………………………………………………….. 41

Figura 24 Diferentes vistas del sistema de captura de imágenes


con iluminación superior …………………………………. 41

Figura 25 Imágenes de buena calidad obtenidas con el sistema


de captura con iluminación superior ……………………. 42

Figura 26 Imágenes de baja calidad obtenidas con el sistema de


captura con iluminación superior ……………………….. 42

Figura 27 Principio de funcionamiento del sistema de captura de


imágenes reducido con iluminación superior ………….. 44

Figura 28 Sistema de captura de imágenes reducido con


iluminación superior ………………………………………. 44

Figura 29 Diferentes vistas del sistema de captura de imágenes


reducido con iluminación superior ………………………. 45

Figura 30 Imágenes de buena calidad para las palmas obtenidas


con el sistema de captura reducido con iluminación
superior …………………………………………………….. 46

XII
Índice de figuras

Figura 31 Imágenes de baja calidad para las palmas obtenidas


con el sistema de captura reducido con iluminación
superior …………………………………………………….. 46

Figura 32 Imágenes para las muñecas obtenidas con el sistema


de captura reducido con iluminación superior …………. 46-47

Figura 33 Principio de funcionamiento del sistema de captura de


imágenes con iluminación prismática …………………... 48

Figura 34 Sistema de captura de imágenes con iluminación


prismática ………………………………………………….. 49

Figura 35 Diferentes vistas del sistema de captura de imágenes


con iluminación prismática ………………………………. 49

Figura 36 Imágenes para las palmas obtenidas con el sistema de


captura con iluminación prismática ……………………... 50

Figura 37 Imágenes para las muñecas obtenidas con el sistema


de captura con iluminación prismática …………………. 51

Figura 38 Sistema de iluminación por bóveda DOM ……………… 52

Figura 39 Principio de funcionamiento del sistema de captura de


imágenes con iluminación por bóveda …………………. 53

Figura 40 Sistema de captura de imágenes con iluminación por


bóveda y el sistema primitivo de fijación para la
muñeca …………………………………………………….. 54

Figura 41 Diferentes vistas del sistema de captura de imágenes


con iluminación por bóveda ……………………………… 54

Figura 42 Imágenes obtenidas con el sistema de captura con


iluminación por bóveda (Ganancia 260, Gamma 40 /
Ganancia 260, Gamma 60) ……………………………… 56

Figura 43 Imágenes obtenidas con el sistema de captura con


iluminación por bóveda (Ganancia 260, Gamma 100 /
Ganancia 300, Gamma 40) ……………………………… 56

Figura 44 Imágenes obtenidas con el sistema de captura con


iluminación por bóveda (Ganancia 300, Gamma 60 /
Ganancia 300, Gamma 100) …………………………….. 56

Figura 45 Sistema final de fijación para la muñeca ………………. 58

XIII
Índice de figuras

Figura 46 Diferentes vistas del sistema de captura de imágenes


con iluminación por bóveda y el sistema final de
fijación para la muñeca …………………………………... 58

Figura 47 Principio de funcionamiento del sistema final de


fijación para la muñeca …………………………………... 59

Figura 48 Imágenes obtenidas con el sistema de iluminación por


bóveda y el sistema primitivo de fijación ……………….. 60

Figura 49 Imágenes obtenidas con el sistema de iluminación por


bóveda y el sistema final de fijación ……………………. 61

Figura 50 Imagen de un patrón del reclutamiento ………………… 70

Figura 51 Imagen del patrón tras la ampliación de histograma …. 71

Figura 52 Imagen del patrón tras la reconstrucción morfológica ... 72

Figura 53 Diagrama de bloques del algoritmo de eliminación de


píxeles interiores ………………………………………….. 72

Figura 54 Imagen del patrón tras la eliminación de píxeles


interiores erróneos ………………………………………... 73

Figura 55 Procedimiento para obtener la ROI de un patrón ……... 74

Figura 56 Procedimiento para obtener la ROI de una muestra …. 75

Figura 57 Ejemplo de ROIs extraídas ……………………………… 76

Figura 58 Principio de funcionamiento del proceso completo de


extracción de características …………………………………... 79

Figura 59 Principio de funcionamiento de la función de


eliminación de líneas y puntos erróneos ……………….. 81

Figura 60 Proceso completo de extracción de características ……. 82-84

Figura 61 Ejemplo de patrones extraídos (todavía sin dilatar) …... 84

Figura 62 Decisión de aceptación potencial con el método de


análisis basado en el diferente ancho de la muñeca ….. 89

Figura 63 Decisión de rechazo con el método de análisis basado


en el diferente ancho de la muñeca …………………………. 89

Figura 64 Principio de funcionamiento del método de


comparación orientable completa de imágenes ………. 91

XIV
Índice de figuras

Figura 65 Decisión de aceptación para el método de análisis


basado en la comparación orientable completa de
imágenes …………………………………………………... 92-93

Figura 66 Decisión de rechazo para el método de análisis


basado en la comparación orientable completa de
imágenes …………………………………………………... 94-95

Figura 67 Curva de distribución de probabilidad de los resultados


obtenidos con el método de comparación orientable
completa al comparar un usuario con los 22 usuarios
de la base de datos ………………………………………. 95

Figura 68 Decisión de rechazo errónea por desviación en las


imágenes de muestra y patrón ………………………….. 96

Figura 69 Principio de funcionamiento gráfico de las traslaciones


y rotaciones realizadas por la variante del algoritmo …. 97

Figura 70 Principio de funcionamiento del método de


comparación orientable completa de imágenes con la
variante de traslaciones y rotaciones …………………... 99

Figura 71 Curva de distribución de probabilidad de los resultados


obtenidos al aplicar el algoritmo de traslaciones y
rotaciones ………………………………………………….. 100

Figura 72 Imágenes obtenidas con diferentes valores para el


parámetro de la alimentación de la cámara …………… 105

Figura 73 Imágenes obtenidas con diferentes valores para el


parámetro de la exposición del software de la cámara . 106

Figura 74 Imágenes obtenidas con diferentes valores para el


parámetro Gamma del software de la cámara ………… 107

Figura 75 Ajustes para la extracción de características: N1=9;


N2=5; SS=1,8; SD=0,5 …………………………………… 110

Figura 76 Ajustes para la extracción de características: N1=20;


N2=30; SS=1,8; SD=0,5 …………………………………. 111

Figura 77 Ajustes para la extracción de características: N1=20;


N2=30; SS=6,8; SD=3,5 …………………………………. 112

Figura 78 Ajustes para la extracción de características: N1=20;


N2=30; SS=6,8; SD=4,5 …………………………………. 113

XV
Índice de figuras

Figura 79 Patrón con valores diferentes de RECRUIT_DIL ……... 114-116

Figura 80 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
primitivo de fijación, sin utilizar ni traslaciones ni
rotaciones ………………………………………………….. 122

Figura 81 Curvas EER para los resultados con el sistema


primitivo de fijación, sin utilizar ni traslaciones ni
rotaciones ………………………………………………….. 122

Figura 82 Fallos típicos con el sistema primitivo de fijación, sin


utilizar ni traslaciones ni rotaciones …………………….. 123

Figura 83 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
final de fijación, sin utilizar ni traslaciones ni rotaciones
y RECRUIT_DIL = 3 ……………………………………… 125

Figura 84 Curvas EER para los resultados con el sistema final de


fijación, sin utilizar ni traslaciones ni rotaciones y
RECRUIT_DIL = 3 ………………………………………... 125

Figura 85 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
final de fijación, sin utilizar ni traslaciones ni rotaciones
y RECRUIT_DIL = 6 ……………………………………… 126

Figura 86 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
final de fijación, sin utilizar ni traslaciones ni rotaciones
y RECRUIT_DIL = 9 ……………………………………… 127

Figura 87 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
final de fijación, sin utilizar ni traslaciones ni rotaciones
y RECRUIT_DIL = 12 …………………………………….. 127

Figura 88 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
final de fijación, sin utilizar ni traslaciones ni rotaciones
y RECRUIT_DIL = 15 …………………………………….. 128

Figura 89 Curvas EER para los resultados con el sistema de final


de fijación, sin utilizar ni traslaciones ni rotaciones y
RECRUIT_DIL = 6 ………………………………………... 128

XVI
Índice de figuras

Figura 90 Curvas EER para los resultados con el sistema final de


fijación, sin utilizar ni traslaciones ni rotaciones y
RECRUIT_DIL = 9 ………………………………………... 129

Figura 91 Curvas EER para los resultados con el sistema final de


fijación, sin utilizar ni traslaciones ni rotaciones y
RECRUIT_DIL = 12 ………………………………………. 129

Figura 92 Curvas EER para los resultados con el sistema final de


fijación, sin utilizar ni traslaciones ni rotaciones y
RECRUIT_DIL = 15 ………………………………………. 130

Figura 93 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
final de fijación, sin utilizar ni traslaciones ni
rotaciones, DIL = 6 y 100 usuarios ……………………… 132

Figura 94 Curvas EER para los resultados con el sistema final de


fijación, sin utilizar ni traslaciones ni rotaciones, DIL =
6 y 100 usuarios …………………………………………... 132

Figura 95 Curvas de distribución de probabilidad para los


resultados con el sistema final de fijación, utilizando
traslaciones y rotaciones, DIL = 6 y 100 usuarios, para
el primer método de comparación y autenticaciones …. 134

Figura 96 Curvas de distribución de probabilidad para los


resultados con el sistema final de fijación, utilizando
traslaciones y rotaciones, DIL = 6 y 100 usuarios, para
el primer método de comparación, autenticaciones e
identificaciones ……………………………………………. 135

Figura 97 Curvas EER para los resultados con el sistema final de


fijación, utilizando traslaciones y rotaciones, DIL = 6 y
100 usuarios, para el segundo método de comparación 135

Figura 98 Curvas de distribución de probabilidad para los


resultados con el sistema primitivo de fijación,
utilizando traslaciones y rotaciones, para el primer
método de comparación y autenticaciones ……………. 138

Figura 99 Curvas de distribución de probabilidad para los


resultados con el sistema primitivo de fijación,
utilizando traslaciones y rotaciones, para el primer
método de comparación, autenticaciones e
identificaciones ……………………………………………. 138

XVII
Índice de figuras

Figura 100 Curvas de distribución de probabilidad de las


comparaciones intraclase e interclase con el sistema
primitivo de fijación, utilizando traslaciones y
rotaciones, para el segundo método de comparación .. 139

Figura 101 Curvas EER para los resultados con el sistema


primitivo de fijación, utilizando traslaciones y
rotaciones, para el segundo método de comparación .. 139

Figura 102 Diagrama de bloques de la plataforma de pruebas …... 163

Figura 103 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_ROI.bmp” ……………………….. 174

Figura 104 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT.bmp” ………… 174

Figura 105 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_45.bmp” . 174

Figura 106 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_90.bmp” . 175

Figura 107 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_135.bmp” 175

Figura 108 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_
TOTAL.bmp” ………………………………………………. 175

Figura 109 Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT
_TOGETHER.bmp” ………………………………………. 176

Figura 110 Ejemplo de documentación BMP – Archivo


“User_00013_R_004_AUTHENTICATION.bmp” ……… 176

Figura 111 Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_
BIN_45.bmp” ………………………………………………. 176

Figura 112 Ejemplo de documentación BMP – Archivo


“User_00013_R_004_AUTHENTICATION_
BIN_90.bmp” ………………………………………………. 177

Figura 113 Ejemplo de documentación BMP – Archivo


“User_00013_R_004_AUTHENTICATION_
BIN_135.bmp” …………………………………………….. 177

XVIII
Índice de figuras

Figura 114 Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION
_TOTAL.bmp” ……………………………………………... 177

Figura 115 Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_
TOGETHER.bmp” ………………………………………… 178

Figura 116 Ejemplo de documentación BMP - Archivos


“User_00013_R_004_IDENTIFICATION_AGAINST
_USER_X..bmp” ………………………………………….. 178

Figura 117 Ejemplo de documentación TXT - Archivo


“User_00013_L_00M_ROI.txt” ………………………….. 179

Figura 118 Ejemplo de documentación TXT - Archivo


“User_00013_L_004_ROI.txt” …………………………… 179

Figura 119 Ejemplo de documentación TXT - Archivo


“User_00013_L_004_AUTHENTICATION.txt” ………… 179

Figura 120 Ejemplo de documentación TXT - Archivo


“User_00013_R_004_IDENTIFICATION_AGAINST
_USER_00010.txt” ………………………………………... 180

Figura 121 Ejemplo de documentación XLS - Archivo


“Results_ROI.xls” -> Hoja “ROI_Data_Recruitment” …. 180

Figura 122 Ejemplo de documentación XLS - Archivo


“Results_ROI.xls” -> Hoja “ROI_Data_Autentication” … 181

Figura 123 Ejemplo de documentación XLS - Archivo


“Results_ROI.xls” -> Hoja “ROI_Data_Identificacation” 181

Figura 124 Ejemplo de documentación XLS – Archivo


“Results_Authentication.xls” -> Hoja “User_13_Right” .. 182

Figura 125 Ejemplo de documentación XLS – Archivo


“Results_Identification.xls” -> Hoja
“Results_Identification” …………………………………… 182

Figura 126 Ejemplo de documentación XLS – Archivo


“Results_Identification.xls” -> Hoja “Results_Overview” 183

Figura 127 Ejemplo de documentación en consola de MATLAB -


Con el reclutamiento individual, por ejemplo, de la
muestra derecha del usuario 00001 ……………………. 183

XIX
Índice de figuras

Figura 128 Ejemplo de documentación en consola de MATLAB -


Con el reclutamiento múltiple, por ejemplo, de los 3
usuarios de la base de datos de usuarios ..................... 184

Figura 129 Ejemplo de documentación en consola de MATLAB -


Con la autenticación individual, por ejemplo, de la
muestra 4 izquierda del usuario 00003 ………………… 185

Figura 130 Ejemplo de documentación en consola de MATLAB -


Con la autenticación múltiple, por ejemplo, de las 4
muestras izquierdas del usuario 00001 ………………… 186

Figura 131 Ejemplo de documentación en consola de MATLAB -


Con la identificación individual o múltiple, por ejemplo,
de las 4 muestras izquierdas del usuario 00002 frente
a los 3 usuarios de la base de datos de usuarios …….. 187

XX
Acrónimos

ADN Ácido Desoxirribonucleico


CCD Charge-Coupled Device (Dispositivo de Carga Acoplada)
CENIT Consorcios Estratégicos Nacionales de Investigación Tecnológica
CER Cross-over Error Rate (Tasa de Cruce de Error)
DET Detection Error Trade-off (Correlación de Detección de Error)
DOM Sistema de Iluminación Domo
EER Equal Error Rate (Tasa de Igual Error)
FNMR False Non-Match Rate (Tasa de Falsos Negativos)
FRR False Rejection Rate (Tasa de Falso Rechazo)
FMR False Match Rate (Tasa de Falsos Positivos)
FAR False Acceptance Rate (Tasa de Falsa Aceptación)
FW Finger Width (Ancho de Dedo)
GoA Global Approach (Aproximación Global)
GUTI Grupo Universitario de Tecnologías de Identificación
HW Hardware
IC Imaging Capture (Captura de Imágenes)
IR Infrared (Infrarrojo)
LED Light-Emitting Diode (Diodo Emisor de Luz)
LoA Local Approach (Aproximación Local)
NIR Near Infrared (Infrarrojo Cercano)
PC Personal Computer (Ordenador Personal)
PIBES Perfeccionamiento de la Identificación Biométrica y Evaluación de
su Seguridad
ROC Receiver Operating Characteristic (Curva de Funcionamiento del
Receptor)
ROI Region of Interest (Región de Interés)
SAX Sistema de Iluminación Axial
SW Software
TXT Archivo de texto sin formato
USB Universal Serial Bus (Bus Serie Universal)
VWLIP Variation of the Wide Line Integrated Profile (Variación del Perfil
Integrado de Línea Ancha)
WLIP Wide Line Integrated Profile (Perfil Integrado de Línea Ancha)
XLS Archivo de Excel

XXI
Capítulo 1:

Introducción

La identificación biométrica por las venas del ser humano, y en concreto


por las de determinados apéndices, como las manos o los dedos, es una de las
modalidades más recientes y de mayor potencial. Existen en el mercado tres
sistemas comerciales de tecnologías dispares: TechSphere [TEC07] utiliza el
dorso de la mano, Fujitsu [FUJI06] utiliza la palma de la misma, e Hitachi
[HITA06] utiliza el dedo. Sin embargo, desde el punto de vista científico, existen
pocas publicaciones con detalles de esta modalidad biométrica, ya que casi
todas ellas están sujetas al secreto de sus patentes (esto se puede apreciar en
el apartado de referencias bibliográficas). Sólo se pueden encontrar algunas
comunicaciones a nivel de congreso, con determinados datos parciales, pero
por desgracia poca información de relevancia está disponible como para
implementar un sistema de estas características basándose en dichos textos.
Esta falta de información al inicio de los trabajos de esta Tesis está reflejada en
el capítulo 2.

La presente Tesis Doctoral arranca de los resultados obtenidos en


diversos proyectos previos del Grupo de Investigación GUTI. En especial, de lo
indicado en el proyecto TEC2006-12365 PIBES, donde se trabajó en
perfeccionar muchos aspectos de la identificación biométrica que permitieron
progresar en el estado de la técnica y facilitar su aplicación práctica. Dicho
proyecto PIBES recomendó líneas futuras de investigación, entre las que se
cuentan:

• Crear prototipos funcionales cercanos a las aplicaciones finales


(escenarios reales), que pongan a prueba la viabilidad de la tecnología
de identificación y autenticación disponible.

Página 1
Capítulo 1: Introducción

• Mejorar las prestaciones y el coste de los dispositivos hardware,


mientras se incrementa su seguridad.
• Desarrollar nuevos sistemas de identificación biométrica que sean más
robustos y potentes en hardware y software.
• Profundizar en la metodología de evaluación de los sistemas de
identificación biométrica.

Esta Tesis se enmarca dentro de estos objetivos, con especial énfasis


en los tres primeros, mediante el desarrollo de una nueva solución de
identificación completa, basada en el estudio de la estructura vascular del
sujeto, especialmente centrado en las venas de la mano, y con especial
aplicación a la muñeca.

A lo largo del proyecto PIBES, miembros del Grupo de Investigación


donde se enmarca esta propuesta han evaluado en detenimiento el rendimiento
de algunos sistemas de biometría vascular, obteniendo conclusiones muy
esperanzadoras sobre la mejora de estos dispositivos. A su vez, gracias al
proyecto CENIT Segur@, se ha trabajado parcialmente en la captura de las
imágenes de venas de la mano, tanto en palma como en dorso (parte de los
trabajos aquí presentados se han desarrollado dentro del marco de dicho
proyecto). Los resultados obtenidos permiten abrir una puerta a la obtención de
un sistema de captura de altas prestaciones, bajo coste y especificaciones
abiertas (algo que actualmente no es posible conseguir con los sistemas
comerciales actuales), incluyendo también la opción de la muñeca.

Al mismo tiempo, la participación del Grupo de Investigación GUTI en


distintos eventos públicos de diseminación de la investigación, como la
Semana de la Ciencia o la Feria de Madrid es Ciencia, ha servido para
comprobar que la aceptación social de la tecnología es extremadamente alta,
sin encontrarse casos de rechazo por vinculaciones de salud o policiales.

Partiendo de todos estos precedentes, esta Tesis Doctoral parte de cero


en cuanto a trabajos desarrollados previamente en el grupo de Investigación
GUTI, aunque se ha partido del análisis previo de la poca documentación

Página 2
Capítulo 1: Introducción

técnica existente sobre tecnología vascular en los documentos y de artículos


técnicos que se irán citando a lo largo de este documento, y que se pueden
consultar en las referencias bibliográficas.

Su objetivo final será la de diseñar los mecanismos necesarios para


crear un sistema completo de identificación vascular, tanto a nivel de algoritmo
como a nivel del dispositivo de captura. Los mecanismos diseñados se
probarán desarrollándolos por completo, creando un sistema fiable, robusto y
abierto, manteniendo en mente durante su desarrollo todas las líneas
comentadas anteriormente indicadas en el proyecto PIBES, y así proporcionar
desde el inicio las garantías de seguridad necesarias a esta nueva modalidad.

Como se ha mencionado, este sistema incluirá un primer dispositivo de


captura de imágenes vasculares de calidad y con bajo coste, mediante la
utilización del espectro infrarrojo adecuado, y una plataforma de pruebas
software adicional abierta que sea capaz de procesar dichas imágenes,
comprobar su funcionamiento mediante algún algoritmo de extracción de
características de venas sencillo y proporcionar unos resultados de
reconocimiento (autenticación e identificación) aceptables. Dicha plataforma de
pruebas se diseñará de tal manera que sea aplicable a otros algoritmos para su
utilización por cualquier investigador de sistemas biométricos vasculares, y por
tanto aumentar su reutilización en el futuro.

Para ello, se plantea una metodología basada en el estudio inicial del


Estado de la Técnica y el paulatino desarrollo de los diversos módulos que
compondrán el sistema de identificación vascular completo. El primer paso será
el de trabajar en encontrar un sistema de captura de imágenes vasculares que
sea capaz de obtener buenas imágenes y de calidad, intentando homogeneizar
la iluminación de la misma. Una vez obtenidas estas imágenes vasculares con
la suficiente calidad, se investigará en métodos de extracción de características
de la estructura vascular del usuario, decidiendo por uno de ellos para validar el
sistema y seguir con el sistema software.

Página 3
Capítulo 1: Introducción

Los algoritmos software para la fase de reconocimiento serán elegidos


por su sencillez para evitar altos tiempos de ejecución, ya que el objetivo
primordial es obtener un sistema completo fiable y operativo, que sirva de base
para futuros trabajos por otros investigadores, ya sean dentro del Grupo de
Investigación GUTI o internacionalmente. La plataforma de pruebas se
desarrollará en paralelo a todos estos trabajos y completándose
paulatinamente según surjan las necesidades de investigación, consiguiéndose
finalmente un sistema totalmente abierto y reutilizable. Finalmente, todo el
sistema se irá probando en cada fase con las diferentes imágenes vasculares
obtenidas paulatinamente por el sistema de captura desarrollado.

La estructura de este documento está dividida de la siguiente manera:

• El capítulo 1 es una breve introducción del trabajo, explicando los


objetivos perseguidos, la metodología utilizada y la estructura de todo el
documento

• En el capítulo 2 se describen las características y los conceptos más


importantes de los sistemas biométricos, necesarios para comprender el
trabajo realizado en esta Tesis Doctoral.

• Con la finalidad de dar una visión general sobre la literatura existente, en


el capítulo 3 se revisa la literatura disponible sobre los sistemas
biométricos vasculares.

• En el capítulo 4 se presenta el sistema de captura de imágenes


vasculares finalmente obtenido, explicando los diferentes dispositivos
probados hasta llegar a la solución definitiva, y se presentan los
resultados finales en imágenes y en medidas de calidad.

• El capítulo 5 trata sobre los métodos de procesamiento de las imágenes


vasculares obtenidas utilizados con la plataforma software desarrollada
para esta Tesis Doctoral, mientras que el capítulo 6 versa sobre los
algoritmos utilizados para la toma de decisiones en el reconocimiento.

• En el capítulo 7 se indican los parámetros óptimos para todo el sistema,


tanto a nivel hardware como a nivel software

Página 4
Capítulo 1: Introducción

• El capítulo 8 presenta los resultados obtenidos por la plataforma


software con las imágenes vasculares del sistema de captura final
descrito en el capítulo 4, el cual permite validar el sistema completo.

• Finalmente, el capítulo 9 está dedicado a proporcionar las conclusiones


más importantes, así como a mencionar las posibles mejoras y líneas de
investigación futuras, basándose en los resultados obtenidos por esta
Tesis Doctoral.

Página 5
Capítulo 1: Introducción

Página 6
Capítulo 2:

Sistemas biométricos

2.1 Introducción
Antes de comenzar con la exposición de la Tesis, sus algoritmos y
conclusiones, se va dar en este capítulo una visión general sobre los sistemas
biométricos y la biometría en general, explicando sus características y
parámetros más importantes, necesarios para la comprensión del trabajo
descrito en este documento.

La biometría es la ciencia que trata de reconocer a una persona


utilizando para ello sus características físicas o de comportamiento [BPI99].
Dichas características se pueden medir por métodos manuales y/o automáticos
y se pueden medir parámetros físicos, de comportamiento o ambos.

Identificar a personas por sus parámetros físicos o de comportamiento


es tan antiguo como el hombre. Esto, que parece tan sencillo para el cerebro
humano, está resultando realmente complejo de automatizar. Los dos objetivos
fundamentales buscados por la biometría automática son principalmente tres:
realizar la identificación en entornos donde no se puede tener a una persona
para realizar esta operación, evitar el riesgo de fallos por cansancio humano y
proporcionar medios de autenticación de personas más familiares y cercanos al
comportamiento humano. La biometría empieza a surgir como “ciencia” en
cuanto se necesita constatar objetivamente esa identidad. Nace inicialmente la
firma manuscrita, la huella dactilar o las medidas corporales, pero en los
últimos tiempos existen nuevas técnicas como la identificación por iris, retina,
facial, ADN, etc., y más recientemente la identificación vascular. En esta Tesis
se plantea un nuevo método automático de identificación biométrica vascular
basado en las venas de las muñecas.

Página 7
Capítulo 2: Sistemas biométricos

2.2 Reclutamiento, autenticación e identificación

Tal como se indica en [TIS95], todos los sistemas biométricos requieren


que cada usuario autorizado sea reclutado. Esto significa que cada usuario
muestre su parte física relevante o ejecute el comportamiento adecuado frente
al sistema una o varias veces, para así crear uno o varios patrones (también
denominados como referencias biométricas). Este patrón se debe guardar en
una base de datos para su posterior elaboración. Cuando el usuario quiera
acceder al sistema, deberá hacer lo mismo que en el reclutamiento (mostrar la
misma parte física o ejecutar el mismo comportamiento) para generar lo que a
partir de ahora denominaremos como muestra, y el sistema se encargará de
compararlas y reconocer su grado de coincidencia para emitir una decisión
positiva o negativa en función de un umbral de comparación previamente
establecido.

Atendiendo a la comparación, el reconocimiento biométrico puede


realizarse de dos maneras diferentes.

• Se puede tratar de responder a la pregunta “¿Eres tú quien dices ser?”.


En este caso se compara la muestra obtenida del usuario con el patrón
almacenado de la persona supuesta y se toma una decisión. Este tipo
de reconocimiento se denomina autenticación o verificación y sólo
necesita realizar una única comparación, con lo que su tiempo de
decisión es bajo. Para ello, el sistema tiene que permitir al usuario que
declare su identidad de alguna manera (a través de un número de
usuario, una tarjeta, etc.). Se conoce también como comparación 1:1.

• O se puede intentar reconocer a una persona dentro de un grupo


previamente reclutado. En este caso se compara la muestra obtenida del
usuario con los patrones almacenados de todos los usuarios. Este tipo
de reconocimiento biométrico se denomina identificación y requiere
que se realicen muchas comparaciones, con lo que su tiempo de
decisión es relativamente alto en función del número de usuarios del
sistema. Se conoce también como comparación 1:N, siendo N el número
de usuarios reclutados en el sistema.

Página 8
Capítulo 2: Sistemas biométricos

2.3 Diagrama de bloques de un sistema biométrico

Independientemente de que el reconocimiento sea del tipo autenticación


o identificación, todos los sistemas biométricos cumplen siempre con un mismo
diagrama de bloques general, que luego se puede particularizar para cada
sistema. Hay muchos diagramas de bloques generales que podrían ser válidos
para cualquier sistema con escasas adaptaciones, por ejemplo, los indicados
en [GSS06], [BVU04] o [CHW10], pero a lo largo de esta Tesis, se va a utilizar
el mostrado en la figura 1.
Reclutamiento
Reconocimiento

Figura 1: Diagrama de bloques general de un sistema biométrico [REI06a]

En dicha figura se pueden ver las diferentes fases de un sistema


biométrico. Primero se realiza el reclutamiento con la toma de la muestra o
muestras del usuario, se preprocesan para mejorar su calidad, se extraen las
características más importantes y finalmente se obtiene el patrón del usuario
guardándose para posteriores comparaciones. Cuando un usuario deba ser
reconocido (autenticación o verificación), se vuelve a tomar una o varias
muestras del usuario, se preprocesa, se extraen las características de dicha
muestra y finalmente se compara ésta última con el patrón guardado
anteriormente para tomar una decisión de reconocimiento.

Este modelo ha sido la base utilizada para el desarrollo del sistema de


captura de imágenes indicado en el capítulo 4, del preprocesado y extracción
de características del capítulo 5, del método de análisis para el reconocimiento
del capítulo 6 y de la plataforma de pruebas indicada en el anexo.

Página 9
Capítulo 2: Sistemas biométricos

2.4 Parámetros de medida y curvas de un sistema biométrico

Sin embargo, tal como indica el Dr. Raúl Sánchez Reíllo en [REI06a], la
probabilidad de que dos imágenes tomadas del mismo sujeto sean idénticas es
prácticamente nula y/o la probabilidad de que dos vectores de características
obtenidos de dos imágenes del mismo sujeto sean iguales es muy baja.

Por tanto, al no ser iguales, hay que realizar “mediciones de parecido” o


“medidas de calidad del sistema biométrico”. Usando técnicas matemáticas,
hay que establecer umbrales que indiquen cuándo dicho parecido es razonable
y cuándo no lo es. Para ello se utilizan las denominadas tasas de error y curvas
representativas de la estadística que envuelven esas medidas de parecido.

En [IBG10] y [VSI94] se pueden consultar casi todas ellas, de entre las


que destacan las utilizadas en esta Tesis para dar resultados, por ser las más
aceptadas por los investigadores y que se explican brevemente a continuación.

2.4.1 Tasas de falsos negativos (FNMR/FRR)

Las tasas de falsos negativos son fundamentalmente dos: False Non-


Match Rate (FNMR) y False Rejection Rate (FRR). La primera expresa el
porcentaje de veces en las que el algoritmo de comparación da como no
iguales dos muestras del mismo usuario. La segunda indica el porcentaje de
veces que un usuario válido es rechazado por el sistema. En el caso de que el
sistema esté diseñado para tomar la decisión final basada en un único intento,
FNMR y FRR son equivalentes. Hay que intentar siempre que se acerquen lo
más posible a cero.

2.4.2 Tasas de falsos positivos (FMR/FAR)

Las tasas de falsos positivos son dos: False Match Rate (FMR) y False
Acceptance Rate (FAR). La primera expresa el porcentaje de veces en las que
el algoritmo de comparación da como iguales dos muestras de usuarios
distintos. La segunda indica el porcentaje de veces que ocurre que un intruso
es reconocido por el sistema o que un usuario es erróneamente identificado.
De la misma forma, hay que intentar que se acerquen lo más posible a cero.

Página 10
Capítulo 2: Sistemas biométricos

2.4.3 Tasa de igual error (EER/CER)

Las dos tasas de error anteriores son complementarias. Jugando con los
parámetros del sistema se puede forzar la calidad de un sistema biométrico,
intentando que uno de los dos sea cero, pero a costa de que el otro
probablemente suba. Ambos, sin embargo, por sí solos no dan una idea clara
de dicha calidad, por lo que se suelen fundir en un nuevo parámetro, Equal
Error Rate (EER) o tasa de igual error, también denominado Cross-over Error
Rate (CER) o tasa de cruce de error, que indica el punto en el que FAR y FMR
tienen el mismo valor. Este parámetro da una primera idea del rendimiento del
sistema, aunque no es totalmente determinante, ya que el sistema puede que
se configure para que trabaje en un punto distinto del EER, ya bien sea para
aumentar la usabilidad (disminuyendo el FRR) o para aumentar la seguridad
(disminuyendo el FAR).

2.4.4 Curvas EER

Estos tres parámetros se pueden representar gráficamente en las


llamadas curvas EER, para lo cual se dibuja la curva FNMR (o la FRR si se
está trabajando a nivel de sistema) y la curva FMR (o la FAR si se está
trabajando a nivel de sistema) tomando sus respectivos valores en función de
diferentes valores de umbral. Donde se crucen las curvas, se tiene el valor
EER. El sistema biométrico será tanto mejor cuanto más separadas estén las
curvas y cuanto más cerca de cero esté el valor EER. Un ejemplo de estas
curvas se muestra en la figura 2.

Figura 2: Ejemplo de curvas EER [REI06a]

Página 11
Capítulo 2: Sistemas biométricos

2.4.5 Curvas ROC y DET

Otras curvas que se utiliza para representar los mismos tres parámetros
anteriores son las curvas ROC (Receiver Operating Characteristic) o DET
(Detection Error Trade-off).

En las curvas ROC se representa una curva logarítmica con ejes en los
valores de FNMR (eje de ordenadas) y FMR (eje de abscisas), de forma que el
valor EER es el punto de la diagonal con pendiente 1. En las curvas DET se
hace básicamente lo mismo pero se utiliza una escala de desviación normal en
ambos ejes. El sistema biométrico será tanto mejor cuanto más se pegue la
curva al vértice superior izquierdo (curva ROC) o al vértice superior derecho
(curva DET). A continuación, se muestra un ejemplo de curvas DET y ROC en
la figura 3.

Curvas ROC
Curva DET

Curvas DET

Figura 3: Ejemplos de curvas ROC y DET [BPI02]

Página 12
Capítulo 2: Sistemas biométricos

2.4.6 Curvas de distribución de probabilidad

Las curvas ERR, ROC y DET dan una idea muy buena de la calidad,
pero no deben tomarse como un factor determinante para la misma. Hay otro
tipo de curva que también se debe utilizar para esta tarea y que complementa a
las curvas anteriores. Es la llamada curva de distribución de probabilidad. En
estas curvas se representan normalizadas las curvas de distribución de
probabilidad de los parámetros FAR y FRR, de forma que el sistema será tanto
mejor cuanto más separadas estén las curvas de distribución de probabilidad y
menor sea el área de intersección de las mismas. Si existe intersección entre
las curvas FAR y FRR, para cada umbral se puede conocer el valor de sus
valores. La figura 4 muestra un ejemplo general de curvas de distribución de
probabilidad para FAR y FRR en la que se pueden observar sus valores para
un umbral seleccionado.

Curva FRR Curva FAR

Umbral

Figura 4: Ejemplo de curvas de distribución de probabilidad

2.5 Factores a cumplir por un sistema biométrico

Los parámetros observables en las anteriores curvas pueden dar una


primera idea de la idoneidad del sistema biométrico. Sin embargo, tal como se
cita en [BVU04], hay otra serie de factores que pueden influenciar en la
popularidad, aplicación y rendimiento de un sistema de identificación biométrica
(aparte de los parámetros de medida biométrica), por lo que no es
sorprendente que no haya ninguna técnica que sea capaz de cumplir con todo
lo indicado en [VSI94]. Los más importantes son los indicados en [REI06a] y el
sistema desarrollado en esta Tesis intenta cumplir con la mayoría de ellos:

Página 13
Capítulo 2: Sistemas biométricos

• Universalidad: El porcentaje de sujetos potenciales de pertenecer a un


sistema de identificación, de los que se podría extraer un patrón o una
muestra. Hay que intentar que sea lo mayor posible.

• Unicidad: La probabilidad de que dos muestras de dos sujetos distintos


tengan las mismas características. Nunca debería haber dos vectores de
características iguales de usuarios diferentes.

• Estabilidad: Si las características utilizadas permanecen inalteradas


respecto al tiempo, a enfermedades, a edad, a profesión laboral, etc. En
el caso de que se alteren, se debe determinar o minimizar dicha
variabilidad. Harían falta más estudios sobre ello.

• Facilidad de captura: Los mecanismos de toma de patrones y muestras


deben ser lo más cómodos posibles para evitar el rechazo del usuario.

• Robustez frente al fraude: Detección de sujeto vivo, detección de


sujeto amenazado, etc. Debe implementarse en paralelo a los sistemas
para evitar el rechazo por parte del usuario.

• Coste: Tanto de los equipos hardware y del software, así como el coste
de implantación. Deberían ser lo más bajos posible.

• Aceptación por parte del usuario: Puede resultar sorprendente, pero


si no se tiene en cuenta la aceptación del sistema por parte del usuario,
los sistemas que cumplan con todos los demás factores no podrán ser
utilizados. Los usuarios pueden rechazar el uso del sistema por muchos
motivos: temor a sufrir daños colaterales (“real” (retina) o por total
desconocimiento (iris)), por implicaciones legales (huella), por
implicaciones “laborales”, por tasas de error “elevadas”, por desidia o
cansancio (voz), por falta de comodidad, etc.

2.6 Modalidades biométricas

Finalmente, aunque ya se han mencionado en la introducción de este


capítulo, indicar que existen muy variados sistemas de identificación biométrica
basados en distintas modalidades. Muchos de ellos pueden usarse

Página 14
Capítulo 2: Sistemas biométricos

potencialmente, pero sólo algunos están suficientemente desarrollados como


para una implantación real. A continuación se citan las modalidades más
importantes sobre las que se están realizando estudios de investigación
conocidos. Las ventajas y desventajas de cada una de ellos se pueden
consultar en [REI06b] o [LPR04]:

• ADN: Se analizan las muestras orgánicas de un individuo a nivel


microscópico. Es la única técnica válida hoy en día a nivel legal, con un
grado de confianza que prácticamente se puede considerar del 100%.

• Firma manuscrita: Se toman muestras de la firma del sujeto (o de cómo


firma) y se analizan sus características.

• Huella dactilar: Se obtiene una imagen de la huella dactilar del sujeto


(de uno o varios de sus dedos) y se extraen sus minucias.

• Voz: Se toman muestras de voz del usuario mediante un micrófono y se


extrae su vector de características.

• Cara: Se obtiene una foto de la cara del sujeto, ya sea en 2 o en 3


dimensiones, y se obtienen las características más relevantes.

• Geometría de la mano: Se toma una imagen de la mano del sujeto, en


un entorno controlado y se analiza su morfología.

• Iris: Se obtiene una foto o una secuencia de video del ojo del sujeto, se
aísla el iris y se extraen las características del mismo.

• Retina: Se toma una imagen del fondo del ojo y se analiza la capilaridad
existente en la pared de la retina.

• Vascular: Se obtiene una imagen de la mano/muñeca/dedo con


iluminación por infrarrojos o una cámara térmica, sacando la disposición
de las venas interiores y analizando sus características. Este es el tipo
biométrico desarrollado en esta Tesis, cuyo Estado de la Técnica se
describe en el siguiente capítulo.

A priori no se puede decir que una técnica sea mejor que otra, depende
de la aplicación y del objetivo perseguido. Incluso sería deseable mezclar

Página 15
Capítulo 2: Sistemas biométricos

varias entre sí. La figura 5 ilustra cada una de las modalidades mencionadas
anteriormente.

Universidad Carlos III de Madrid

Figura 5: Tipos de sistemas biométricos

2.7 Conclusiones

A lo largo de este capítulo se ha intentado dar una visión general sobre


los sistemas biométricos, con el objetivo de facilitar al lector la comprensión de
los capítulos posteriores y aportándole un conocimiento base que le permita
entenderlos de manera más completa. Evidentemente este capítulo es sólo un
resumen de la literatura técnica disponible sobre los sistemas biométricos que,
entre otros documentos, se encuentran reflejados en las referencias
bibliográficas.

Página 16
Capítulo 3:

Biometría vascular

3.1 Introducción
Dentro de todas las modalidades biométricas existentes actualmente y
explicadas en el punto 2.6, la biometría vascular es la modalidad más
novedosa. En el presente capítulo se va a explicar en detalle en qué consiste
esta modalidad y se van a exponer las distintas tecnologías existentes antes de
iniciar esta Tesis.

Al final del capítulo, se indican las conclusiones obtenidas tras el análisis


de toda la literatura existente y que sirvieron de base inicial para los sistemas y
algoritmos expuestos e implementados en este documento.

3.2 Biometría vascular


Esta modalidad intenta determinar la identidad de una persona
analizando la estructura vascular de una parte del cuerpo, la cual se define
como la red completa de venas que están colocadas debajo de la piel de cada
persona.

La forma de las venas en la misma parte del cuerpo se ha comprobado


que es distinta en cada persona [BPI99] y es muy estable durante un periodo
de tiempo largo ya que, fisiológicamente, está muy asociada al resto del cuerpo
desde el nacimiento y no le afecta la edad, salvo en la primera etapa
adolescente durante el crecimiento.

Tal como se indica en [VBS07], debido a que el elemento biológico


usado en esta técnica para la identificación es interno y no completamente
visible (con condiciones de iluminación estándar), la seguridad conseguida es

Página 17
Capítulo 3: Biometría vascular

realmente elevada porque esta modalidad es mucho más difícil de falsificar que
otras ya descritas.

Trabajos previos, como los realizados por el grupo “International


Biometrics Group” [IBG10] han revelado un gran potencial en esta modalidad
con tasas de error realmente bajas (parecidas a las obtenidas con el iris) y una
buena aceptación por parte del usuario. También advierte que debido a que se
necesita constantemente que la sangre fluya por la venas para obtener los
patrones y muestras, intrínsecamente se dispone de un mecanismo de
detección de sujeto vivo.

Estas propiedades de unicidad, estabilidad, robustez frente al fraude y


aceptación por parte del usuario hacen que esta modalidad tenga un potencial
grande para el futuro y ofrezca seguridad y fiabilidad en la identificación de
personas. Partiendo de estas ideas, hay varios autores que han investigado en
biometría vascular. Tal como se ha comentado en el capítulo 1 de esta Tesis, la
información técnica disponible es muy escasa y parcial, a pesar de lo cual se
va a hacer una presentación del Estado de la Técnica, explicando brevemente
para ello lo que propone cada uno de los autores para cada uno de los bloques
del diagrama mostrado en la figura 1.

3.3 Estado de la técnica en captura de muestras


Las venas forman parte de la estructura interna del cuerpo humano. Por
eso, si se quiere obtener información sobre su localización se pueden utilizar
en principio técnicas médicas que obtienen muy buenos resultados. Pero este
tipo de técnicas suelen ser invasivas, caras e incómodas para el usuario, por lo
que las técnicas como los rayos X, scanners ultrasónicos o resonancias
magnéticas se descartan para la biometría vascular.

Básicamente, para obtener esta información de manera no invasiva se


pueden utilizar 2 métodos: Cámaras térmicas, como las utilizadas en los
trabajos [GSS06], [BVU04], [THV05] y [UTI04] que obtienen imágenes de gran
calidad pero que son realmente caras, o cámaras CCD con iluminación por
LEDs infrarrojos, cuyas imágenes no son tan buenas pero son mucho más
económicas. Trabajos con este último tipo de sistemas de captura de muestras

Página 18
Capítulo 3: Biometría vascular

se pueden consultar en [TIS95], [NFI06], [BAH04], [AIS04], [IVT05], [MFE06a],


[MFE06b y [FEH06]. En el capítulo 4 se explicará con más detalle esta técnica.
La figura 6 muestra ejemplos de imágenes vasculares captadas con cámaras
térmicas, mientras que la figura 7 muestra una imagen vascular captada con
una cámara de infrarrojos.

Figura 6: Imágenes de venas utilizando cámaras térmicas [GSS06]

Figura 7: Imagen de venas utilizando cámaras CCD e iluminación por infrarrojos [VBS07]

3.4 Estado de la técnica en preprocesado


Una vez que se ha obtenido la imagen deseada, normalmente se aplica
un preprocesado para mejorarla y/o descartar partes que no son relevantes
para los siguientes pasos del sistema y así obtener la llamada Región de
Interés (a partir de ahora denominada ROI, de su acrónimo en inglés “Region of
Interest”).

Las técnicas de preprocesado para obtener la ROI deberían ser


normalmente fáciles de implementar ya que la luz emitida por los LEDs o la
cámara térmica, sólo refleja el tejido orgánico, siendo el resto negro/blanco o
casi negro/blanco (dependiendo del tipo de cámara utilizada). Utilizando
algoritmos de valores límite se puede discernir claramente la

Página 19
Capítulo 3: Biometría vascular

mano/muñeca/dedo del fondo y obtener así la ROI deseada. Ningún artículo


describe este paso salvo en [BVU04], donde se propone extraer el contorno de
la mano y obtener la ROI a partir de los espacios interdigitales. En [REI00] se
explican también algunas opciones para poder extraer esos espacios y otros
puntos singulares de la imagen, basado en estudios biométricos de la
geometría de la mano. La figura 8 muestra el método de preprocesado indicado
anteriormente.

Figura 8: Método para obtener la ROI [BVU04]

3.5 Revisión de las propuestas de extracción de


características
Las técnicas de extracción de características a partir de la ROI son muy
variadas. Algunas aplican otro preprocesado adicional para mejorar la calidad
de la imagen (operaciones morfológicas, detección de valores límite,
eliminación de ruido, análisis de multiresolución, filtros, etc.), mientras que otras
obtienen directamente las características sin ninguna elaboración posterior

Página 20
Capítulo 3: Biometría vascular

(Watershed). A continuación se mencionan algunas de las técnicas analizadas


en las referencias bibliográficas para extraer las características de las venas.

• En [GSS06] se utiliza una aproximación morfológica, obteniendo


el patrón vascular utilizando el algoritmo Watershed (este
algoritmo se explica en más en detalle, por ser el primero
mencionado, pero para casi todos los demás se propone al lector
que consulte cada una de las referencias bibliográficas indicadas).
El algoritmo Watershed consiste en visualizar las imágenes en 3
dimensiones. Se basa en simular el proceso de inmersión en un
líquido y consiste en discernir los puntos de misma altitud en una
superficie, metiendo dicha superficie dentro de un líquido y viendo
cómo se inunda a través de unos agujeros que se han colocado
previamente de forma estratégica. Matemáticamente se
implementa con ayuda de la distancia geodésica y de la zona de
influencia geodésica. La distancia geodésica entre 2 píxeles X e Y
en A es la longitud ínfima de las rutas P que unen X e Y y están
completamente en A:

dA(x,y) = in f{l(p)},

mientras que la zona de influencia geodésica se puede definir así:


Suponiendo que A contiene un conjunto B que consta de varios
componentes conectados B1, B2, …., Bk, la zona de influencia
geodésica izA (Bi) de un componente Bi de B en A es el lugar
geométrico de los puntos de A cuya distancia geodésica de Bi sea
inferior que su distancia geodésica con cualquier otro componente
de B:

izA (Bi) = {p Є A, ٧j Є [1,k]/{i}, dA(p,Bi)}.

Partiendo de estas 2 fórmulas matemáticas, se obtienen los


Watershed (cuencas) de las imágenes en escala de grises
mediante un método recursivo aplicado a cada zona de la imagen.
Es decir, lo que hace este método es discernir exactamente las
zonas blancas de las venas a diferencia del fondo de la palma,

Página 21
Capítulo 3: Biometría vascular

pero de manera directa y sin preprocesado. Pero si se aplica este


algoritmo directamente a las imágenes en escala de grises, se
obtienen ramas inexistentes debido al ruido de la imagen y otras
irregularidades. Para que finalmente se obtenga el esqueleto
correcto de las venas, se propone implementar operaciones de
aperturas y cierres morfológicos para eliminar imperfecciones.

• En [THV05] se proponen filtros para la mejora de la imagen y un


algoritmo de esqueletización para obtener las líneas de las
venas.

• Zhang, Ma y Han recomiendan un método basado en técnicas de


multiresolución basadas en Curvelets [MFE06a], Wavelets
[MFE06b] o Ridgelets [FEH06].

• En [IVT05] se utiliza una aproximación de multiresolución para


obtener el patrón vascular, utilizando un filtro paso alto
Butterworth y luego aplicar métodos de análisis de multiresolución
basados en la energía local de la imagen.

• En [TIS95] se propone un algoritmo de extracción de


características basado en la mejora de la calidad de la imagen a
través de filtros y un algoritmo de podado final. En la figura 9 se
muestra de forma visual el método utilizado en [TIS95], partiendo
de la imagen inicial y mostrando los pasos de mejora en la calidad
de la imagen para obtener finalmente la imagen vascular
aplicando el podado final.

Página 22
Capítulo 3: Biometría vascular

Figura 9: Método para la extracción de características [TIS95]

• En [IVP00] se utiliza un filtro paso bajo Gaussiano, luego otro filtro


con una máscara espacial que mejora el efecto de redondeo en el
contorno, a continuación un filtro de paso alto local y finalmente
un umbral local.

• En [BVU04] se recomienda un análisis/representación con filtros


multiresolución múltiples para extraer puntos dominantes en base
a umbrales seleccionados.

• En [BAH04] se propone una normalización de la intensidad de la


imagen y se mejoran sus límites usando máscaras. A
continuación se reduce el tamaño y se realiza una enfatización del
contraste.

• En [AIS04] se aplica una normalización del brillo de la imagen y


luego una reducción del tamaño de la misma.

Página 23
Capítulo 3: Biometría vascular

Las referencias para sistemas vasculares son bastante escasas por lo


que también se han analizado algunas otras técnicas utilizadas para la
extracción de las características de las líneas o de la geometría de la mano
(también conocidas como “palmprint”), que también se podrían utilizar con
ligeras adaptaciones para los sistemas vasculares.

• En [HPI02] se propone el filtro Sobel y operaciones morfológicas


parea extraer los puntos característicos de las líneas de la palma.

• En [HIU00] se utilizan las funciones “wide line integrated profile


(WLIP)”, “variation of the wide line integrated profile” (VWLIP) y
“finger width” (FW) en imágenes de los dedos. A partir de aquí, se
aplican funciones de correlación y distancias euclídeas para
extraer las características.

• En [NFV06] se proponen los algoritmos Local Approach (LoA) y


Global Approach (GoA) para extraer las líneas de las venas,
asumiendo que las venas son lineales, y se miden sus
bifurcaciones a partir de sus asimetrías.

Durante el desarrollo de esta Tesis Doctoral también han ido


apareciendo otros métodos, muchos de ellos mezclando diversas técnicas
biométricas como se recomienda en el punto 1.6, algunos de los cuales se
enuncian a continuación.

• En [NFV09] se utiliza un método de umbral para obtener los


puntos iniciales de la imagen de las venas de los dedos, luego se
utiliza el algoritmo "line tracking” para obtener un mapa de
probabilidad y un mapa de grises. Finalmente se utiliza el análisis
“directional neighborhood” para extraer el patrón vascular.

• En [LFE04] se propone la extracción de las líneas de la palma de


la mano utilizando la función Gaussiana, su primera y su segunda
derivada en diversas direcciones espaciales, realizando luego una
superposición de todas las imágenes obtenidas.

Página 24
Capítulo 3: Biometría vascular

• En [NAB09] se muestra un método para la extracción de las líneas


de la mano y sus intersecciones, utilizando para ello un algoritmo
de vectorización que aplica el concepto MIC (círculo inscrito
máximo).

• En [FLF09] se utiliza el detector de límites SUSAN [SUS97] para


detectar las líneas y su orientación. Más tarde se aplican
operaciones morfológicas para eliminar puntos o líneas erróneas.

• En [FPP09] se proponen unas nuevas funciones llamadas


“Laplacianpalm” y “Locality Preserving Projections” (LPP) para
extraer las características conjuntas de las líneas y venas de la
palma de la mano.

• En [PAU09] se utiliza una igualación de histograma adaptativa,


luego el operador “Mexican hat”, a continuación un algoritmo de
esqueletización y finalmente una eliminación del ruido superfluo.

3.6 Algoritmos de comparación propuestos en la bibliografía


Tal como se muestra en el diagrama de bloques general de la figura 1, el
último paso para completar el sistema sería analizar las características de las
muestras y de los patrones de los usuarios, comparándolas entre sí para emitir
una decisión de reconocimiento positivo o negativo. Al igual que en las técnicas
de extracción de características, los métodos de análisis son también muy
variados y dispares. Algunos de los analizados en las referencias bibliográficas
se muestran a continuación, tanto para sistemas vasculares como para
sistemas de líneas de la mano. Es importante destacar que algunas de las
referencias dan resultados, pero otras simplemente indican el método utilizado
sin dar más información adicional.

• En [THV05] se recomienda utilizar las distancias y métricas


Haussdorf para comparar los patrones vasculares de las venas.
Eligiendo los parámetros adecuadamente se puede llegar a
obtener FNMR = FMR = 0 (figura 6 de la página 64 de la
publicación de dicha referencia). Pero estos resultados se

Página 25
Capítulo 3: Biometría vascular

consiguen con una base de datos de usuarios muy pequeña de


12 usuarios y obtenida con condiciones muy controladas de
temperatura y humedad, que hace que las imágenes sean
siempre buenas. Por tanto este método es bueno en principio
para grupos pequeños y cuando las condiciones para la
adquisición de las muestras sean las mismas, pero el autor duda
de sus propios resultados con más usuarios y con condiciones
que provoquen imágenes no tan claras.

• Zhang, Ma y Han utilizan redes neuronales para el reconocimiento


en [MFE06a], [MFE06b] y [FEH06]. Han hecho experimentos con
3.200 imágenes de dedos en [MFE06a] con un EER = 0,128%
(figura 7 de la página 4 de la publicación de dicha referencia),
3.200 imágenes de dedos en [MFE06b] con un EER = 0,130%
(figura 6 de la página 1084 de dicha referencia) y 120 imágenes
de manos [FEH06] con un EER = 0,130% (figura 4 de la página
874 de dicha referencia). El método y los autores son los mismos
en los tres artículos, usando técnicas de multiresolución, pero
diferenciándose en la función de transformación utilizada; en
[MFE06a] se basa en Curvelets, en [MFE06b] se basa en
Wavelets y en [FEH06] se basa en Ridgelets.

• En [IVT05] se utilizan las distancias Manhattan para comparar los


patrones vasculares. Los resultados se obtienen con 1.000
imágenes y proporcionan un EER aproximado del 3% mostrados
en forma de curvas EER (figura 3a de la página 551 y figura 3b de
la página 552 de dicha referencia).

• En [TIS95] se propone un método de comparación parcial de las


imágenes de la muestra y del patrón mediante la superposición de
las mismas, pero también proponen técnicas de lógica borrosa
para desarrollos posteriores. No dan resultados definitivos por el
pequeño número de muestras analizadas, pero sí tablas de
comparación para los 20 usuarios empleados para ver los
porcentajes de comparación (tabla 1 y 2 de las páginas 30 y 31 de

Página 26
Capítulo 3: Biometría vascular

la publicación de dicha referencia) . En dichas tablas se observa


que eligiendo un umbral de 70% y 60% para los 2 métodos
mostrados, se puede llegar a obtener un FRR del 5%.

• En [BVU04] se recomienda un método basado en el radio de


variación Inter-to-Intra y en una matriz de pesos de las
propiedades múltiples de los puntos dominantes hallados para
cada resolución. Al final, a una determinada resolución, cada
palma de la mano va a tener un vector de pesos individual basado
en las propiedades de sus características múltiples y un vector de
características de los puntos dominantes. Multiplicando ambos, se
obtiene el valor integrado de las características múltiples.
Finalmente se integra toda la información utilizando funciones
booleanas. Lo prueban con 20 imágenes y obtienen un EER de
2,3%.

• En [BAH04] se propone un método de correlación de fases para


realizar las comparaciones entre las diferentes imágenes. Han
hecho experimentos con 25 personas y los resultados los ofrecen
en forma de curvas de distribución de probabilidad (figura 3 y
tabla 1 de la página 251 de la publicación de dicha referencia). En
estas curvas se observa que con un umbral del valor de
correlación de 0,6 se obtienen FAR = 8% y FMR = 9%, con un
umbral del valor de correlación de 0,61 se obtienen FAR = 12% y
FMR = 2,1%, y con un umbral del valor de correlación de 0,62 se
obtienen FAR = 20% y FMR = 1,09%.

• En [PAU03] se utiliza una comparación de imágenes, utilizando


una función de correlación normalizada y redes neuronales para
realizar el reconocimiento. En esta publicación no se proporcionan
resultados.

• En [HPI02] se aplica la energía de la palma de la mano para


después utilizar una identificación de tipo “grano grueso”.
Tampoco se ofrecen resultados claros.

Página 27
Capítulo 3: Biometría vascular

• En [HIU00] se utiliza un motor de inferencia borroso basado en


medidas de similitud/diferencias para realizar el reconocimiento.

• En [DMS99] se extraen las características de la forma de la mano,


se aplica ahora una técnica de comparación deformable y luego
se definen diferentes distancias para evaluar las similitudes entre
las formas.

• En [TNC99] se aplican las denominadas “datum point-invariant


characteristics” y luego una técnica de comparación de líneas.

• En [CVB98] se utiliza una función de correlación normalizada para


determinar las similitudes de personas diferentes.

3.7 Conclusiones

Tal como se desprende de los puntos anteriores, existen muy diversas


técnicas para cada uno de los pasos a desarrollar en un sistema completo, tal
como pretende esta Tesis Doctoral. Sin embargo no aparece ninguna
publicación que recoja la descripción de uno completo y que, por tanto,
relacione unos bloques con otros. Analizado el Estado de la Técnica, se decidió
inicialmente por desarrollar las siguientes ideas:

• Para el sistema de captura de imágenes, utilizar cámaras CCD con


iluminación por infrarrojos, descartando las cámaras térmicas por su
elevado coste. En principio se decidió utilizar imágenes de la palma,
pero más adelante se cambió a imágenes de la muñeca por no haber
ningún artículo o Tesis Doctoral preliminar sobre ellas y para resolver los
problemas encontrados inicialmente con las imágenes de las palmas,
como se describirá en el capítulo 4.

• Para el preprocesado, desarrollar un nuevo método de obtención de ROI


para la muñeca, diferente al único encontrado y propuesto en el punto
2.3 y que además sólo sirve para las palmas de la mano.

Página 28
Capítulo 3: Biometría vascular

• Para la extracción de características, utilizar alguno de los métodos no


utilizados todavía en los artículos propuestos para los sistemas
vasculares, pero sí utilizados en otros sistemas, realizando las
adaptaciones necesarias para su utilización y así obtener un método
novedoso aplicado a la biometría vascular.

• Como algoritmos de comparación, utilizar una técnica de comparación


orientable similar a las utilizadas en algunas de las referencias dadas en
el punto 3.5, por su simplicidad y adecuación perfecta a la venas de la
muñeca (ya que en la mayoría de los casos no disponen de tantos
puntos de intersección como en la palma y los métodos de análisis de
puntos e intersecciones utilizados en la mayoría de las referencias de
dicho punto 3.5 no se podrían aplicar a estas imágenes).

• Finalmente, al no existir ni encontrar nada parecido en la literatura


técnica, también se decidió crear una plataforma de pruebas abierta y
reutilizable para otros investigadores, que completase el sistema
biométrico vascular, permitiendo desarrollar cualquier algoritmo y
proporcionar los parámetros y curvas biométricas indicados en el punto
2.4, y así poder comparar los resultados de manera objetiva con los
sistemas futuros desarrollados en el Grupo de Investigación GUTI.

Página 29
Capítulo 3: Biometría vascular

Página 30
Capítulo 4:

Sistema de captura de imágenes

4.1 Introducción
A partir de este capítulo se van a empezar a exponer los estudios y
trabajos desarrollados en esta Tesis Doctoral, basándose en las conclusiones
del Estado de la Técnica descritas en el capítulo anterior.

Este capítulo trata sobre el sistema de captura de imágenes para el


sistema completo. Primero se explicará el principio físico en el que se
fundamenta, a continuación se mostrarán los sistemas encontrados en la
literatura técnica y finalmente se expondrán los sistemas implementados para
el sistema completo de esta Tesis, indicando para cada uno de ellos su
principio de funcionamiento y resultados obtenidos. Al final del capítulo se
exponen las medidas de calidad de cada sistema y se indican las conclusiones
sobre el sistema final escogido.

4.2 Fundamento del sistema de iluminación


Se pueden utilizar diferentes partes del cuerpo para desarrollar los
sistemas biométricos vasculares, pero la mayoría de ellos se centran en la
palma de la mano o los dedos, debido a la simplicidad de la captura y a la
aceptación del método por parte del usuario. A pesar de ello, hemos
comprobado que este tipo de sistemas no funcionan todavía bien con todos los
tipos de manos porque les puede afectar en algunos casos propiedades como
el espesor de la piel o la profundidad de las venas. Más adelante se mostrará
algún ejemplo observado en el desarrollo de esta Tesis. Por eso, la zona de
estudio será la muñeca y no la mano. Sus imágenes son de mejor calidad que
las de las palmas o dorso porque las venas están mucho más superficiales.

Página 31
Capítulo 4: Sistema de captura de imágenes

Tal como se ha explicado en el punto 3.7, el sistema de captura de


imágenes propuesto en esta Tesis Doctoral está basado en cámaras CCD de
bajo coste con iluminación por infrarrojos, en particular centrado en la
iluminación por infrarrojos cercano (iluminación NIR “Near Infrared”) en la zona
de 850 nm de longitud de onda.

4.2.1 Principio del sistema de iluminación NIR

Tal como se observa en la figura 10, el espectro electromagnético se


divide en diferentes zonas en función de la frecuencia o de la longitud de onda
de cada radiación. El rango visible es muy estrecho (400-750 nm
aproximadamente) mientras que el rango infrarrojo está situado justo en la
banda superior siguiente del espectro (750 – 106 nm aproximadamente). De
este rango infrarrojo sólo interesará para el sistema de captura de imágenes la
zona NIR (750 – 1100 nm aproximadamente).

Figura 10: Espectro electromagnético [EAS09]

Según se explica en [NFI06], utilizando la zona de iluminación NIR es


posible capturar el patrón vascular superficial de la mano, dedos o muñeca. Es
un método no invasivo y de bajo coste que no requiere la inserción de ningún
agente extraño en la sangre.

Página 32
Capítulo 4: Sistema de captura de imágenes

Primeramente se va a exponer un breve resumen de la justificación


teórica de este tipo de sistemas. Información más detallada al respecto se
puede encontrar en [EAS09], [NFI06], [BVU04], [HOB02] y [TIS95].

El ojo humano solo es capaz de detectar la luz visible, la cual está dentro
de un rango muy estrecho de todo el espectro electromagnético. La visibilidad
de las venas debajo de la piel es muy baja en condiciones de luz normal. Sin
embargo, esto se puede resolver utilizando la zona infrarroja cercana (NIR)
(entre 800 y 950 nm). En la figura 11 se observa que los sensores CCD
utilizados para la captura de las imágenes son precisamente más sensibles
cuando la luz que incide sobre ellos tiene una longitud de onda entre 600 y 900
nm, es decir, la zona alta del espectro visible y la zona baja del espectro
infrarrojo (o sea, la zona NIR).

Figura 11: Curva de respuesta para un sensor CCD [TIS95]

Además, tal como se indica en [TIS95], existen tres propiedades


especiales que poseen la radiación infrarroja, la materia orgánica y las venas
de las personas, las cuales permiten desarrollar métodos de captura de
imágenes:

1) Tal como se representa en la figura 12, de toda la radiación que incide


en la muñeca/mano/dedo hay parte que se refleja, otra parte que se
dispersa y otra parte que realmente se absorbe. Pero en cualquier caso,
la incidencia de la luz infrarroja puede penetrar aproximadamente 3 mm

Página 33
Capítulo 4: Sistema de captura de imágenes

dentro de la materia orgánica.

3 mm

Figura 12: Interacción radiación-piel [EAS09]

2) La figura 13 muestra el coeficiente de absorción de los diferentes


componentes de la piel en función de la longitud de onda. La zona
sombreada, entre 630 y 1300 nm, indica la región donde el coeficiente
de absorción del conjunto de componentes de la piel es menor. En la
literatura se refieren a esta región como la ventana óptica de la piel ya
que es donde más refleja la luz. Por tanto, la zona NIR es una zona con
máximo reflejo de luz, cualidad deseable para el sistema de captura de
imágenes.

Página 34
Capítulo 4: Sistema de captura de imágenes

Figura 13: Coeficiente de absorción espectral de los componentes de la piel [EAS09]

3) La reducción de hemoglobina en la sangre de las venas tiene menos


coeficiente de absorción que la materia de alrededor, por eso se utilizan
en el sistema de captura las imágenes de las venas y no de las arterias.
Esta afirmación se puede observar en la figura 14. En ella se muestra en
detalle el espectro de absorción para los dos tipos de hemoglobina
(oxigenada y desoxigenada). La absorción de radiación por la
hemoglobina variará en función de si se trata de hemoglobina oxigenada
que llevan las arterias (HbO2) o la hemoglobina desoxigenada que llevan
las venas (Hb), siendo esta variación la que provoca la diferencia de
color entre ambas y que el coeficiente de la absorción en la zona NIR
sea menor para venas que para arterias.

Figura 7.-

Figura 14: Diferencia entre los niveles de absorción espectral de la hemoglobina oxigenada
(HbO2) y desoxigenada (Hb) [EAS09]

La consecuencia de estas 3 propiedades es que si se proyecta con luz


infrarroja NIR en la parte deseada del cuerpo (en el caso de esta Tesis, la
muñeca), se puede capturar la imagen de sus venas utilizando simplemente
una cámara CCD con el filtro de IR adecuado que limite el resto de radiación
que no sea de esa longitud de onda. En la imagen obtenida, el patrón vascular
aparecerá más oscuro que la carne que lo rodea y será fácilmente discernible.

Página 35
Capítulo 4: Sistema de captura de imágenes

Se demuestra en [HOB02] que si se utiliza una longitud de onda de


aproximadamente 850-900 nm para la luz infrarroja, los resultados son mucho
mejores y se evitan muchas interferencias indeseables de la radicación IR
emitidas por el cuerpo humano y el ambiente (fundamentalmente de origen
térmico).

4.2.2 Sistemas de captura de imágenes de partida

Antes de describir los sistemas de captura de imágenes investigados en


esta Tesis, se van a mostrar brevemente los escasos sistemas encontrados en
los trabajos de otros investigadores al comenzar el estudio, los cuales fueron la
base más tarde para algunos de los sistemas desarrollados, y algunas de las
imágenes obtenidas por ellos, dejando al lector la posibilidad de encontrar
todos los detalles en las referencias bibliográficas indicadas.

En [TIS95] se propone el siguiente sistema: Cámara CCD monocromo,


filtro IR HOYA RM90, matriz de LEDs infrarrojos de 880 nm. Este sistema se
muestra en la figura 15 y un ejemplo de imagen obtenida por él se muestra en
la figura 16.

Figura 15: Sistema de captura de imágenes en [TIS95]

Página 36
Capítulo 4: Sistema de captura de imágenes

Figura 16: Imágenes obtenidas por el sistema de captura de imágenes en [TIS95]

En [BAH04] se propone el siguiente sistema: Cámara CCD monocromo


CV-15H, 2 matrices de LEDs infrarrojos SANYO SLR931A. Este sistema se
muestra en la figura 17 y un ejemplo de imagen obtenida por él se muestra en
la figura 18.

Figura 17: Sistema de captura de imágenes en [BAH04]

Página 37
Capítulo 4: Sistema de captura de imágenes

Figura 18: Imágenes obtenidas por el sistema de captura de imágenes en [BAH04]

En [NFI06] se propone el siguiente sistema: Cámara térmica Hitachi KP-


F2A, filtro IR HOYA RM80, 2 matrices de LEDs infrarrojos. Un ejemplo de
imágenes obtenidas con este sistema se muestra en la figura 19.

Figura 19: Imágenes obtenidas por el sistema de captura de imágenes en [NFI06]

En [EHV08] se propone el siguiente sistema: Cámara térmica, filtro IR, 3


matrices de LEDs infrarrojos, papel difusor. Este sistema se muestra en la
figura 20 y un ejemplo de imagen obtenida por él se muestra en la figura 21.

Figura 20: Sistema de captura de imágenes en [EHV08]

Página 38
Capítulo 4: Sistema de captura de imágenes

Figura 21: Imágenes obtenidas por el sistema de captura de imágenes en [EHV08]

Como se puede apreciar fácilmente por las imágenes obtenidas de cada


uno de los sistemas, las imágenes capturadas con los dos últimos son de
bastante buena calidad, pero utilizan cámaras térmicas (más caras), mientras
que los 2 primeros sistemas utilizan cámaras CCD monocromo mucho más
económicas, pero que obtienen peores resultados.

Para crear un sistema de captura de imágenes con un mejor


comportamiento que los dos primeros sistemas mostrados y cuya calidad se
acerque a los dos últimos, se han desarrollado paulatinamente cuatro sistemas
de prueba para finalmente obtener el sistema final presentado en esta Tesis
Doctoral.

4.3 Sistema de captura de imágenes con iluminación superior


El primer sistema de captura de imágenes creado para esta Tesis
intentaba imitar a los 2 primeros sistemas presentados en el punto 4.2.2 para
comprobar si las imágenes eran parecidas a las presentadas por sus
investigadores. El sistema constaba de dos matrices de 36 LED IR (modelo de
LED: OSRAM SFH 4450, 850 nm [OSR08a] y [OSR08a]), una cámara CCD
monocromo de bajo coste (Imaging Source DM 21BU054 [IMS08]), un objetivo
(EYSEO TV8570 1/3” [EYS08]), 2 filtros IR colocados uno sobre otro (B+W 52
092 y B+W 52 093 [B+W08]) y papeles difusores para la matriz de LEDs. El
sistema completo disponía de una tapa negra de protección para evitar la luz
infrarroja del ambiente.

Página 39
Capítulo 4: Sistema de captura de imágenes

El principio de funcionamiento de este primer sistema de captura se


muestra en el diagrama de bloques de la figura 22. La mano se coloca debajo
en el sistema de fijación, haciendo que la mano que fija apoyada en 3 pernos
para sujetar los espacios interdigitales de la misma. La luz IR incide en la
palma de la mano desde las dos matrices de LED (previamente
homogeneizada por los papeles difusores) y su imagen reflejada es grabada
por la cámara CCD, previo filtrado de parte del espectro mediante los 2 filtros
IR colocados delante del objetivo.

Iluminación Cámara

Reflexión
Objetivo

Reflexión
Filtro B+W 52 092
Filtro B+W 52 093

Matriz de LED Matriz de LED

Papel difusor Papel difusor

Mano

Sistema de fijación de la mano

Figura 22: Principio de funcionamiento del sistema de captura de imágenes con iluminación
superior

La figura 23 muestra la construcción del prototipo para este primer


sistema basándose en el principio de funcionamiento de la figura 22. La figura

Página 40
Capítulo 4: Sistema de captura de imágenes

24 muestra diferentes vistas del mismo prototipo (alzado, planta y perfil) junto
con el sistema completamente cubierto con la tapa de protección.

Figura 23: Sistema de captura de imágenes con iluminación superior

Figura 24: Diferentes vistas del sistema de captura de imágenes con iluminación superior

Página 41
Capítulo 4: Sistema de captura de imágenes

4.3.1 Resultados obtenidos con este sistema

Para mostrar los resultados obtenidos con este primer sistema de


captura, es preciso detallar primero las condiciones empleadas en las pruebas:

• Imágenes tomadas: 20 (10 personas, palma izquierda y derecha)


• Ajustes de los parámetros la cámara: Ganancia: 300, Exposición: 1/50,
Gamma: 100

Las mejores imágenes se muestran en la figura 25 (palma izquierda del


usuario 1, palma derecha del usuario 9), sin embargo, hay palmas en las que
las venas apenas se ven (figura 26, palma derecha del usuario 10, palma
izquierda del usuario 7).

Figura 25: Imágenes de buena calidad obtenidas con el sistema de captura con iluminación
superior

Figura 26: Imágenes de baja calidad obtenidas con el sistema de captura con iluminación
superior

Página 42
Capítulo 4: Sistema de captura de imágenes

Este sistema se utilizó inicialmente para tomar imágenes de las palmas


de las manos pero los resultados obtenidos no obtenían la calidad deseada, tal
como se puede ver en las figuras 25 y 26. Esta falta de calidad se puede ver en
la escasa homogeneización en la luz de las imágenes capturadas que
provocaba además un exceso de brillos en algunas zonas mientras que otras
se mostraban sombras que ocultaban la información vascular. Esta falta de
calidad se cuantificará más adelante el punto 4.7 mediante las medidas
utilizadas. En un primer análisis sobre el posible motivo de esta falta de calidad,
se supuso que el problema provenía de que la distancia entre la mano, las
matrices de LED y la cámara era excesiva (aprox. 20 cm). Por eso se propuso
la siguiente idea para mejorar este primer sistema.

4.4 Sistema de captura de imágenes reducido con iluminación


superior
El segundo sistema de captura de imágenes fue creado a partir del
primero para intentar corregir los fallos encontrados e indicados en el punto
anterior. Los componentes hardware son los mismos (excepto la eliminación
del objetivo, que ya no era necesario), pero la disposición es completamente
diferente. La posición de la cámara ha sido invertida y está colocada en la parte
inferior del sistema, de forma que la mano o muñeca se coloca sobre ella. En el
primer sistema la cámara se colocaba en la parte superior y la mano o muñeca
se colocaba debajo.

El principio de funcionamiento de este segundo sistema de captura se


muestra en el diagrama de bloques de la figura 27. La mano se coloca encima,
pero ahora sin sistema de fijación exacto. La luz IR incide en la palma de la
mano desde las dos matrices de LED (previamente homogeneizada por los
papeles difusores) y su imagen reflejada es grabada por la cámara CCD, previo
filtrado de parte del espectro realizado por los filtros IR colocados delante del
objetivo.

En este caso la distancia entre las matrices de LED y la cámara es de


apenas 5 cm y también se dispone de una tapa negra de protección para evitar
la luz infrarroja del ambiente.

Página 43
Capítulo 4: Sistema de captura de imágenes

Sistema de Iluminación
fijación de la Mano
mano
Reflexión

Reflexión
Papel difusor Papel difusor

Matriz de LED
Matriz de LED

Filtro B+W 52 092


Filtro B+W 52 093

Cámara

Figura 27: Principio de funcionamiento del sistema de captura de imágenes reducido con
iluminación superior

La figura 28 muestra la construcción del prototipo para este segundo


sistema basándose en el principio de funcionamiento de la figura 27. La figura
29 muestra diferentes vistas del mismo prototipo (alzado, planta y perfil) junto
con el sistema completamente cubierto con la tapa de protección.

Figura 28: Sistema de captura de imágenes reducido con iluminación superior

Página 44
Capítulo 4: Sistema de captura de imágenes

Figura 29: Diferentes vistas del sistema de captura de imágenes reducido con iluminación
superior

4.4.1 Resultados obtenidos con este sistema

Las condiciones empleadas en las pruebas para obtener los resultados


de este prototipo son las siguientes:

• Imágenes tomadas: 40 (10 personas, palma izquierda y derecha,


muñeca izquierda y derecha)
• Ajustes de los parámetros la cámara: Ganancia: 300, Exposición: 1/40,
Gamma: 100

La figura 30 muestra las mejores imágenes de las palmas (palma


izquierda del usuario 1, palma izquierda del usuario 7), sin embargo, sigue
habiendo palmas en las que las venas apenas se ven (palma izquierda del
usuario 3, palma derecha del usuario 3), tal como se observa en la figura 31.

Página 45
Capítulo 4: Sistema de captura de imágenes

Figura 30: Imágenes de buena calidad para las palmas obtenidas con el sistema de captura
reducido con iluminación superior

Figura 31: Imágenes de baja calidad para las palmas obtenidas con el sistema de captura
reducido con iluminación superior

La figura 32, por el contrario, muestra 4 imágenes obtenidas para las


muñecas.

Página 46
Capítulo 4: Sistema de captura de imágenes

Figura 32: Imágenes para las muñecas obtenidas con el sistema de captura reducido con
iluminación superior

Tal como se observa y se demostrará numéricamente en el punto 4.7,


los resultados parecen mejores que con el primer sistema, sobre todo en las
imágenes de las venas de las muñecas, pero todavía aparece una falta de
homogenización de la luz, apareciendo todavía muchas zonas muy oscuras y
otras demasiado claras, al contrario de lo que se pensaba que iba a ocurrir,
pero ya se observa que las imágenes de las venas de las muñecas son más
claras que las de las palmas en muchos casos.

Esto hace que todavía no se pueda dar validez a este sistema para su
utilización en el sistema de identificación biométrico vascular completo y se
siguieran buscando otras soluciones alternativas.

4.5 Sistema de captura de imágenes final con iluminación


prismática

El tercer sistema de captura de imágenes fue creado buscando, sobre


todo, la homogenización de la imagen y la eliminación de brillos y sombras.

El sistema constaba de una cámara CCD monocromo de bajo coste


(Imaging Source DM 21BU054), 2 filtros IR colocados uno sobre otro (B+W 52
092 y B+W 52 093) y un sistema de iluminación prismática DCM SYSTEMS
SAX 0505 (LEDS IR, 880 nm) [DCM08]. Con este sistema de iluminación
prismática se suponía que los resultados deberían ser mucho mejores en
cuanto a calidad. Este tipo de sistemas de iluminación se conocen como

Página 47
Capítulo 4: Sistema de captura de imágenes

“beam-spliter” y técnicamente consisten en emitir la luz infrarroja sobre un


cristal polarizado inclinado que dirige la luz sólo hacia arriba (nunca hacia
abajo) y su reflejo permite que se dirija completamente hacia abajo donde se
sitúa la cámara.

El principio de funcionamiento de este tercer sistema de captura se


muestra en el diagrama de bloques de la figura 33. La mano se coloca encima
del sistema de fijación. Al utilizar un sistema de iluminación prismática, la luz IR
incide lateralmente en el espejo polarizado del dispositivo SAX, desviándose
hacia arriba donde está colocada la mano o muñeca, para reflejarse después
en la cámara situada en la parte inferior del sistema, previa primera
homogeneización de la luz por parte del espejo polarizado y el siguiente filtrado
de parte del espectro realizado por los filtros IR colocados delante de la
cámara.

Iluminación
Sistema de
fijación de la Mano
mano Reflexión

Reflexión

Sistema
SAX

Filtro B+W 52 092


Filtro B+W 52 093

Cámara

Figura 33: Principio de funcionamiento del sistema de captura de imágenes con iluminación
prismática

La figura 34 muestra la construcción del prototipo para este tercer


sistema basándose en el principio de funcionamiento de la figura 33. La figura
35 muestra diferentes vistas del mismo prototipo (alzado y perfil).

Página 48
Capítulo 4: Sistema de captura de imágenes

Figura 34: Sistema de captura de imágenes con iluminación prismática

Figura 35: Diferentes vistas del sistema de captura de imágenes con iluminación prismática

Página 49
Capítulo 4: Sistema de captura de imágenes

4.5.1 Resultados obtenidos con este sistema

Los resultados obtenidos se obtuvieron con las siguientes condiciones:

• Imágenes tomadas: 40 (10 personas, palma izquierda y derecha,


muñeca izquierda y derecha)

• Ajustes de los parámetros la cámara: Ganancia: 260, Exposición: 1/30,


Gamma: 100

La figura 36 muestra las imágenes de los mismos usuarios para las


palmas que las mostradas en las figuras 30 y 31.

Figura 36: Imágenes para las palmas obtenidas con el sistema de iluminación prismática

La figura 37 muestra las imágenes de los mismos usuarios para las


muñecas que las mostradas en la figura 32.

Página 50
Capítulo 4: Sistema de captura de imágenes

Figura 37: Imágenes para las muñecas obtenidas con el sistema de iluminación prismática

Tal como se puede observar a simple vista, los resultados obtenidos con
este sistema no mejoran a los dos primeros ni se resuelve el problema
fundamental de brillos, sombras y homogeneización para las imágenes
capturadas. Tal como se indicó en el diagrama de bloques general de la figura
1, la captura de la imagen es el primer paso del sistema biométrico completo,
de forma que cuanto mejor calidad tenga (es decir, mayor sea la diferencia
entre las venas y la carne de alrededor y menos brillos y sombras presente),
más sencillos serán los algoritmos de preprocesado y extracción de
características y el sistema total debería presentar tiempos de ejecución más
pequeños. Por eso se decide probar con otro tipo de iluminación para
conseguir este objetivo y se descarta totalmente ese sistema que ni siquiera se
incluye en las pruebas de calidad del punto 4.7 a la vista de lo observado.

Página 51
Capítulo 4: Sistema de captura de imágenes

4.6 Sistema de captura de imágenes final con iluminación por


bóveda

El cuarto sistema de captura de imágenes fue creado teniendo en cuenta


los fallos encontrados anteriormente. Consta de una cámara CCD monocromo
de bajo coste (Imaging Source DM 21BU054), 2 filtros IR colocados uno sobre
otro (B+W 52 092 y B+W 52 093) y un sistema de iluminación por bóveda DCM
SYSTEMS DOM 1410 (LEDS IR, 880 nm) [DCM08].

La figura 38 muestra en detalle el dispositivo DOM utilizado y su principio


de funcionamiento. El sistema de iluminación se denomina así debido a su
forma de semiesfera o bóveda. Está diseñado para iluminar un objeto en todas
direcciones con luz difusa a través la matriz de LED IR colocados en su
circunferencia superior, produciendo un efecto de iluminación uniforme y
resolviendo el problema encontrado en los 3 primeros sistemas (sombras,
brillos y falta de homogeneización). Este efecto se denomina iluminación
“cloudy day”.

Figura 38: Sistema de iluminación por bóveda DOM [DCM08]

El sistema de iluminación DOM finalmente utilizado es una semiesfera


rodeada de 112 LED IR de 850 nm y una alimentación máxima de 24V DC.
Para el sistema de captura de imágenes finalmente utilizado sólo se necesita
una alimentación de 11V DC debido a la sensibilidad de la cámara CCD
utilizada y a las distancias entre cada uno de los componentes (no más de 5
cm entre la cámara y la muñeca).

El principio de funcionamiento de este cuarto sistema de captura se


muestra en el diagrama de bloques de la figura 39. La mano se coloca encima
sin un sistema de fijación exacto para la muñeca (a partir de ahora llamado

Página 52
Capítulo 4: Sistema de captura de imágenes

sistema primitivo de fijación). La luz del sistema DOM incide en la bóveda y se


distribuye uniformemente iluminando la mano o muñeca en la parte superior,
para finalmente reflejarse en la cámara situada en la parte inferior, previo
filtrado de parte del espectro realizado por los filtros IR colocados delante de la
cámara.

Sistema primitivo de Iluminación


fijación para la Mano
muñeca Reflexión

Reflexión

Filtro B+W 52 092


Filtro B+W 52 093

Cámara

Figura 39: Principio de funcionamiento del sistema de captura de imágenes con iluminación por
bóveda

Este cuarto sistema no dispone de cubierta para protegerse de la


iluminación IR ambiental, como ocurría en los 3 primeros, por quedar la cámara
casi completamente tapada al colocar la mano o muñeca sobre el sistema, pero
sí dispone de un primer sistema primitivo de fijación para la muñeca sin
ninguna precisión para guiar al usuario en la colocación de la misma. Como en
el resto de sistemas, la cámara se conecta al PC vía USB para poder obtener
las imágenes con el software IC Capture V2.0 (suministrado con la cámara) y
siempre graba imágenes de 640 x 480 píxeles con 256 niveles de escala de
grises.

La figura 40 muestra la construcción del prototipo para este cuarto


sistema en base al principio de funcionamiento de la figura 39 y el sistema
primitivo de fijación de la muñeca. La figura 41 muestra diferentes vistas del
mismo prototipo (planta, alzado y varios perfiles).

Página 53
Capítulo 4: Sistema de captura de imágenes

Figura 40: Sistema de captura de imágenes con iluminación por bóveda y sistema primitivo de
fijación para la muñeca

Figura 41: Diferentes vistas del sistema de captura de imágenes con iluminación por bóveda

Página 54
Capítulo 4: Sistema de captura de imágenes

4.6.1 Resultados obtenidos con este sistema

Una vez descrito el funcionamiento del sistema final implementado, se


van a exponer los resultados logrados, los cuales fueron obtenidos bajo las
siguientes condiciones:

• Imágenes tomadas: 180 (30 personas, 3 imágenes de la muñeca


izquierda y 3 imágenes de la muñeca derecha).

• Ajustes de los parámetros la cámara: Ganancia: 260/300, Exposición:


1/30, Gamma: 40/60/100

Los parámetros de la cámara se han modificado en las imágenes, para


así probar diferentes opciones en las imágenes con los parámetros de los
algoritmos explicados en el capítulo 5 (preprocesado y extracción de
características).

Este nuevo hardware permite capturar toda la muñeca y reconocer muy


fácilmente los bordes de la misma. Esta propiedad, junto con el sistema final de
fijación explicado en el punto 4.6.2, es la utilizada para poder obtener una ROI
con un método muy simple, que simplifica el diagrama de bloques completo del
sistema mostrado en la figura 1.

Los resultados de las imágenes obtenidas para un mismo usuario con


diferentes parámetros de la cámara se muestran como ejemplo en las
siguientes figuras, siendo muy similares en cuanto a calidad respecto a las del
resto de usuarios:

• Figura 42 -> Ganancia = 260, Gamma = 40 para la imagen izquierda


Ganancia = 260, Gamma = 60 para la imagen derecha

• Figura 43 -> Ganancia = 260, Gamma = 100 para la imagen izquierda


Ganancia = 300, Gamma = 40 para la imagen derecha

• Figura 44 -> Ganancia = 300, Gamma = 60 para la imagen izquierda


Ganancia = 300, Gamma = 100 para la imagen derecha

Página 55
Capítulo 4: Sistema de captura de imágenes

Figura 42: Imágenes obtenidas con el sistema de captura con iluminación por bóveda
(Ganancia 260, Gamma 40 / Ganancia 260, Gamma 60)

Figura 43: Imágenes obtenidas con el sistema de captura con iluminación por bóveda
(Ganancia 260, Gamma 100 / Ganancia 300, Gamma 40)

Figura 44: Imágenes obtenidas con el sistema de captura con iluminación por bóveda
(Ganancia 300, Gamma 60 / Ganancia 300, Gamma 100)

Página 56
Capítulo 4: Sistema de captura de imágenes

Tal como se observa, los resultados se este sistema sí mejoran los de


los sistemas anteriores, presentando la luz una buena homogeneización y
reduciéndose considerablemente las sombras y reflejos de las imágenes.

Además la distinción entre las venas y la carne de alrededor es


suficientemente clara para los algoritmos software del capítulo 5,
independientemente de los parámetros elegidos para la cámara. Todo esto se
confirmará con las pruebas de calidad mostradas en el punto 4.7.

4.6.2 Sistema final de fijación para la muñeca

Por necesidades de los métodos de análisis de reconocimiento utilizados


en el capítulo 6, el sistema primitivo de fijación de la muñeca mostrado en las
figuras 40 y 41 no era preciso y dejaba demasiados grados de libertad al
usuario, de forma que las imágenes de las muñecas tenían demasiada
desviación, lo que hacía que el algoritmo mencionado no funcionase bien.

Por eso, se diseñó posteriormente un sistema de fijación mucho más


preciso que elimina la gran mayoría de los grados de libertad del usuario a la
hora de colocar la mano en el sistema y provoca que todas las muestras y
patrones obtenidos de cada usuario sean casi idénticas, lo cual es un requisito
absolutamente necesario para que el algoritmo de reconocimiento obtenga
buenos resultados.

La figura 45 muestra el sistema final de fijación para la muñeca. El


sistema dispone de varios puntos de fijación de diversas partes de la mano
(dedo pulgar (3), dedo índice (5 y 6), dedo meñique (8 y 9), palma inferior (1) y
antebrazo (2, se ve en la figura 46)), con varias reglas métricas en los puntos
de fijación para el reconocimiento por parte del usuario de la posición elegida y
así poderla repetir exactamente en las siguientes muestras (4, 7, 10 y 12).

La figura 46 muestra dicho sistema de fijación implementado sobre el


sistema de captura de imágenes con iluminación por bóveda desde diferentes
vistas (planta, alzado y perfil), formando el sistema final con el que se han
obtenido la mayoría de los resultados mostrados en el capítulo 8, aunque otros
resultados se han dado con el sistema primitivo.

Página 57
Capítulo 4: Sistema de captura de imágenes

7 10

5 6 8 9

4
11
3 12
1

Figura 45: Sistema final de fijación para la muñeca

Figura 46: Diferentes vistas de sistema de captura de imágenes con iluminación por bóveda y
el sistema final de fijación para la muñeca

Página 58
Capítulo 4: Sistema de captura de imágenes

A continuación, se explica el procedimiento que hay que seguir para fijar


exactamente la muñeca en cada una de las tomas de muestras. La idea de
este sistema de fijación consiste en fijar 6 puntos de la mano para eliminar casi
completamente cualquier grado de libertad al usuario a la hora de colocar la
mano y obtener imágenes casi idénticas para cada muestra y patrón. En la
figura 47 se muestran gráficamente los puntos de los pasos descritos a
continuación para tomar cada muestra y patrón.

7 10
5 6 8 9

4
3 1 (debajo)
12
11

Figura 47: Principio de funcionamiento del sistema final de fijación para la muñeca

El procedimiento a seguir en función de los puntos indicados en la figura


47 está basado en que el usuario debe colocar la mano sobre el sistema de
fijación para la mano/muñeca siguiendo los pasos siguientes:

• Apretar a tope sobre 1 y pegar el antebrazo en 2.

• Colocar el pulgar debajo de 3 y mirar la colocación final del dedo sobre


la regla en 4 para tenerlo en cuenta en las próximas muestras.

Página 59
Capítulo 4: Sistema de captura de imágenes

• Colocar el dedo índice entre 5 y 6 y mirar la colocación final del dedo


sobre la regla en 7 para tenerlo en cuenta en las próximas muestras.

• Colocar el dedo meñique entre 8 y 9 y mirar la colocación final del dedo


sobre la regla en 10 para tenerlo en cuenta en las próximas muestras.

• Apoyar la palma en 11 y mirar la colocación del borde de la misma


sobre la regla en 12 para tenerlo en cuenta en las próximas muestras.

Utilizando este procedimiento para la toma de todas las muestras y


patrones, se obtienen imágenes muy parecidas, lo que simplifica enormemente
los algoritmos explicados en los capítulos 5 y 6. Por último mostrar la diferencia
entre las imágenes obtenidas por el sistema de iluminación por bóveda con el
sistema primitivo y con el sistema final de fijación. La figura 48 muestra las
imágenes obtenidas para 4 muestras diferentes de un mismo usuario utilizando
el sistema primitivo de fijación las figuras 40 y 41. La figura 49 muestra las
imágenes obtenidas para 4 muestras diferentes del mismo usuario usando el
sistema final de fijación de las figuras 45, 46 y 47.

Figura 48: Imágenes obtenidas con el sistema de iluminación por bóveda y el sistema primitivo
de fijación

Página 60
Capítulo 4: Sistema de captura de imágenes

Figura 49: Imágenes obtenidas con el sistema de iluminación por bóveda y el sistema final de
fijación

Tal como se observa, las imágenes de la figura 49 son casi idénticas por
la reducción casi absoluta de los grados de libertad para el usuario, mientras
que en la figuras 48 se observan diferencias en la posición de las muñecas,
que provocarían una complicación en los algoritmos utilizados en los capítulos
5 y 6. Por eso se decidió tomar la base de datos de muestras de más usuarios
utilizando el sistema de posicionamiento de las figuras 45, 46 y 47 y desarrollar
los algoritmos en función de estas imágenes.

4.7 Medidas de calidad de las imágenes de los sistemas de


iluminación

Para confirmar lo indicado en los resultados cualitativos de las imágenes


obtenidos directamente por observación de las mismas, se han utilizado
algunas métricas/medidas de calidad objetivas que constaten lo indicado. Se
han realizado para el primer, segundo y cuarto sistema, ya que el tercer
sistema se descartó directamente al observar simplemente las imágenes
obtenidas, tal como se indicó en el punto 4.5. Se ha realizado sobre 10
imágenes de cada uno de los 3 prototipos elegidas al azar.

Página 61
Capítulo 4: Sistema de captura de imágenes

4.7.1 Medidas de calidad utilizadas

La primera medida hace relación al contraste entre las venas y la carne


de cada una de las imágenes. El procedimiento realizado para las 10 imágenes
de cada prototipo es el siguiente:

1. Se elige una región de interés central cuadrada (ROI) con el mismo


tamaño para cada imagen.

2. Se resaltan manualmente las líneas de las venas en cada una de las


imágenes pintándolas de color rojo.

3. Se crean 2 conjuntos diferentes: Conjunto V con todos los píxeles de las


venas, y conjunto C con todos los píxeles de la carne.

4. Se hace el cálculo medio del valor de todos los píxeles que pertenecen a
la vena en una imagen, mediante la siguiente ecuación:

XV = ΣxΣi pV(xi,yi) / Σ(xi,yi),

donde pV(xi,yi) es el valor del píxel (xi,yi) perteneciente a la vena, valor Є


(0, 256)

5. Se hace el cálculo medio del valor de todos los píxeles que pertenecen a
la carne en una imagen, mediante la siguiente ecuación:

XC = ΣxΣi pC(xi,yi) / Σ(xi,yi),

donde pC(xi,yi) es el valor del píxel (xi,yi) perteneciente a la carne, valor


Є (0, 256)

6. Se calcula la diferencia de ambos valores en cada imagen z:

Dimagen z = Xv - XC

7. Finalmente se calcula el valor medio de todos los valores Dimagen z de las


10 imágenes del mismo prototipo, mediante la siguiente ecuación

DAprototipo = Σ Dimagen z / 10

Este procedimiento calcula finalmente el contraste medio entre los


píxeles que pertenecen a la carne y los píxeles que pertenecen a las venas
para comprobar la diferencia entre ellas, siendo mejor el sistema cuanto mayor
sea su valor.

Página 62
Capítulo 4: Sistema de captura de imágenes

La segunda medida de calidad es la variación máxima media entre los píxeles


que pertenecen a la carne de cada imagen. El procedimiento realizado para las
10 imágenes de cada prototipo es el siguiente:

1. Se elige una región de interés central cuadrada (ROI) con el mismo


tamaño para cada imagen que la primera medida de calidad.

2. Se resaltan manualmente las líneas de las venas en cada una de las


imágenes pintándolas de color rojo.

3. Se crean 2 conjuntos diferentes: Conjunto V con todos los píxeles de las


venas, y conjunto C con todos los píxeles de la carne. Se descarta el
conjunto V y se sigue trabajando con el conjunto C.

4. Se hace el cálculo del valor máximo de todos los píxeles que pertenecen
a la carne en una imagen, mediante la siguiente ecuación:

MaxC = Max (pC(xi,yi)),

donde pC(xi,yi) es el valor del píxel (xi,yi) perteneciente a la carne, valor Є


(0, 256)

5. Se hace el cálculo del valor mínimo de todos los píxeles que pertenecen
a la carne en una imagen, mediante la siguiente ecuación:

MinC = Min (pC(xi,yi)),

donde pC(xi,yi) es el valor del píxel (xi,yi) perteneciente a la carne, valor Є


(0, 256)

6. Se calcula la diferencia de ambos valores en cada imagen z:

Dimagen z = MaxC - MinC

7. Finalmente se calcula el valor medio de todos los valores Dimagen z de las


10 imágenes del mismo prototipo, mediante la siguiente ecuación

DBprototipo = Σ Dimagen z / 10

Este procedimiento calcula finalmente si la homogeneización de las


zonas blancas es buena, es decir, mide si hay muchos brillos y sombras en las
imágenes, siendo mejor el sistema cuanto menor sea su valor.

Página 63
Capítulo 4: Sistema de captura de imágenes

La última medida de calidad es la distribución de la luz en la imagen. Si


la luz se distribuye uniformemente, la energía media por píxel debería ser
similar en todos los bloques reducidos de la ROI ya que las venas y la carne se
distribuyen de manera aleatoria por la muñeca y la selección de una ROI
relativamente grande haría que los valores medios de cada bloque reducido de
la ROI tengan que ser muy parecidos. El procedimiento realizado para las 10
imágenes de cada prototipo es el siguiente:

1. Se elige una región de interés central cuadrada (ROI) con el mismo


tamaño para cada imagen que la primera y segunda medida de calidad.

2. Se divide dicha ROI en 9 cuadrados iguales (3 x 3) para tener zonas


reducidas pero suficientemente grandes, a los que llamaremos bloques.

3. Se hace el cálculo de la energía de cada uno de los bloques de la ROI


extraídos en el paso 2, mediante la siguiente ecuación:
2
Eblock z = ΣxΣi (p(xi,yi)) ) / x*y),

donde p(xi,yi) es el valor del píxel (xi,yi) perteneciente al bloque z, valor Є


(0, 256); (p(xi,yi))2 es el valor de la energía del píxel (xi,yi) perteneciente
al bloque z, valor Є (0, 65536); x e y son los valores de filas y columnas
del bloque seleccionado

4. Se calcula el valor máximo de todos los valores de energía de cada


bloque, mediante la siguiente ecuación:

MaxE = Max (Eblock z)

5. Se calcula el valor mínimo de todos los valores de energía de cada


bloque, mediante la siguiente ecuación:

MinE = Min (Eblock z)

6. Se calcula la diferencia de ambos valores en cada imagen z:

DImagen z = MaxE – MinE

7. Finalmente se calcula el valor medio de todos los valores Dimagen z de las


10 imágenes del mismo prototipo, mediante la siguiente ecuación

DCprototipo = Σ Dimagen z / 10

Página 64
Capítulo 4: Sistema de captura de imágenes

Este procedimiento calcula finalmente si la distribución de la luz es


buena en las imágenes, siendo mejor el sistema cuanto menor sea su valor.

4.7.2 Resultados obtenidos

Para realizar estas medidas se creó una plataforma de pruebas


específica para este propósito con las condiciones indicadas en la introducción
del punto 4.7.

Los resultados mostraron que, con la primera medida de calidad, el


contraste de las imágenes con el segundo sistema es un 11,44 % superior de
media al obtenido en el primero. Para el cuarto sistema se comprueba que el
contraste es un 5,80 % superior de media respecto al segundo.

Por otra parte, con la segunda medida de calidad, la variación en las


imágenes con el segundo sistema es un 11,06 % inferior de media que las que
se obtuvieron con el primero, mientras que la variación en las imágenes con el
cuarto sistema es un 51,06 % inferior de media respecto al segundo.

Por último, la media de la variación máxima de energía por píxeles en


las imágenes del primer sistema era de 15.503,95 (en una escala de 0 a 65.536
para niveles de gris), mientras que en las imágenes del segundo sistema era
de 17.628.01 (un 13,71% superior al primer sistema). El valor obtenido para las
imágenes del cuarto sistema era de 8.752.83 (un 51,24% inferior que el primer
sistema).

La tabla 1 muestra un resumen comparativo de los resultados


comentados anteriormente para cada uno de los parámetros de medida de
calidad descritos, pero de manera más ordenada y que demuestran claramente
que el sistema de iluminación por bóveda tiene mucha mejor calidad que los
primeros (seleccionados sus resultados totales en verde). Por eso se eligió
como sistema final para el resto de la Tesis, y cuyos resultados se contrastaron
más tarde con los resultados del sistema completo mostrados en el capítulo 8.

Página 65
Capítulo 4: Sistema de captura de imágenes

Tabla 1: Comparativa final de resultados para los sistemas de iluminación

Primer sistema: Segundo sistema: Cuarto sistema:


Sistema con Sistema reducido Sistema con
Medidas de calidad
iluminación con iluminación iluminación por
superior superior bóveda
DImagen 1 14,73 10,82 13,65
DImagen 2 13,23 12,20 12,99
DImagen 3 5,64 2,23 14,31
DImagen 4 14,23 10,64 18,08
Primera DImagen 5 11,68 9,17 7,67
medida de
DImagen 6 12,72 13,14 14,05
calidad:
DImagen 7 10,82 13,96 9,4
Diferencia de
DImagen 8 19,98 17,20 11,25
contraste
medio vena- DImagen 9 4,02 5,10 12,38
carne DImagen 10 -3,20 21,27 8,66
DAPrototipo 10,385 11,573 12,244
% variación frente al
valor inmediatamente 11,44 5,80
inferior
DImagen 1 218 185 83
DImagen 2 255 197 68
DImagen 3 255 198 107
DImagen 4 253 197 73
Segunda
DImagen 5 245 243 130
medida de
DImagen 6 254 246 131
calidad:
DImagen 7 255 229 117
Diferencia de
contraste DImagen 8 239 255 108
medio carne- DImagen 9 200 164 103
carne DImagen 10 204 201 115
DBPrototipo 237,8 211,5 103,5
% variación frente al
valor inmediatamente -11,06 -51,06
superior
DImagen 1 15.283 13.356 4.611
DImagen 2 16.747 16.326 3.842
DImagen 3 12.539 12.099 7.234
DImagen 4 18.292 18.981 11.190
DImagen 5 15.634 21.013 12.593
Tercera
DImagen 6 11.305 26.882 12.255
medida de
DImagen 7 15.326 14.617 8.571
calidad:
Diferencia de DImagen 8 23.082 30.046 1.327
energía media DImagen 9 11.607 7.537 4.787
DImagen 10 15.215 15.423 9.188
DBPrototipo 15.503 17.628 7.560
% variación frente al
valor inmediatamente -12,05 -51,24
superior

Página 66
Capítulo 4: Sistema de captura de imágenes

4.8 Conclusiones

En este capítulo se ha explicado el proceso seguido para obtener


finalmente un sistema de captura de imágenes con una calidad suficiente para
ser utilizado por el sistema biométrico vascular completo y que mejora
aparentemente los sistemas expuestos en el punto 4.2.2 que utilizan cámaras
CCD IR, a la vista de los resultados que se observan en las figuras 42, 43, 44,
48 y 49. Hay que tener en cuenta que para estar plenamente seguro de lo
afirmado aquí, habría que analizar las imágenes de dichos sistemas con las
medidas de calidad del punto 4.7 y constatarlo numéricamente. Sin embargo
esto no es posible, al no disponer de dichas imágenes originales.

Los valores obtenidos por las medidas de calidad prueban que la


distribución de la luz, la homogeneidad de la misma y la diferencia entre vena y
carne son mucho mejores en el sistema de iluminación por bóveda, eligiéndose
este para tomar la base de datos de usuarios necesaria para probar en el
capítulo 8 todo el sistema biométrico propuesto en esta Tesis.

Sin embargo, el sistema de captura de imágenes tiene algunos puntos


susceptibles de mejora en investigaciones futuras.

1. En el sistema de captura habría que desarrollar un método de


posicionamiento de la muñeca más comercial y más cómodo para el
usuario, basándose en la idea indicada en el punto 4.6.2. Un punto
fundamental del sistema actual es la necesidad de limitar en buen grado
los grados de libertad del usuario para garantizar la similitud de las
muestras y simplificar el sistema de reconocimiento basado en la
comparación orientable completa, lo que provoca una cierta
incomodidad para el usuario a la hora de la adquisición.

2. Pero si se desarrolla un sistema con más grados de libertad y que no


exija un posicionamiento tan estricto, que sería un punto a mejorar en el
futuro, las imágenes ya no serán tan similares y habría que complicar y
mejorar los algoritmos descritos en los capítulos 5 y 6.

Página 67
Capítulo 4: Sistema de captura de imágenes

Página 68
Capítulo 5:

Preprocesado y extracción de
características

5.1 Introducción
En el capítulo anterior se ha explicado el sistema de captura de
imágenes utilizado en esta Tesis Doctoral, es decir, la parte HW del sistema
biométrico vascular completo, pero falta la parte SW, es decir, la parte de
preprocesado de las imágenes, la extracción de características y los métodos
de análisis para el reconocimiento. Toda esta parte SW se ha realizado
implementando la plataforma de pruebas abierta mostrada en el anexo. A partir
de este punto se van a tratar cada uno de estos aspectos.

Este capítulo se centra en particular en las etapas de preprocesado y


extracción de características, que son los primeros pasos a realizar por la
plataforma de pruebas una vez que se tienen las imágenes de las muestras y
patrones de cada usuario, tal como se observa en el diagrama de bloques de la
figura 1. Todo ello, teniendo en cuenta los puntos de partida mencionados en
las conclusiones del punto 3.7.

En el algoritmo desarrollado en esta Tesis, el preprocesado sólo


comprende la extracción de la ROI, ya que no hace falta ninguna mejora de la
calidad de la imagen porque, tal como se ha indicado en el capítulo 4, ésta es
suficientemente buena para no realizar ningún paso posterior que complique el
sistema total y alargue innecesariamente los tiempos de ejecución del sistema.

Una vez extraída la ROI, se extraen directamente las características del


patrón vascular y se guardan en una base de datos para posteriormente aplicar
los algoritmos correspondientes.

Página 69
Capítulo 5: Preprocesado y extracción de características

5.2 Extracción de la región de interés en las imágenes

Gracias a la enorme diferencia de luminosidad entre la muñeca y el


fondo en las imágenes (completamente negro) y a que las muestras de cada
usuario son muy similares unas con otras gracias al sistema final de fijación, el
método propuesto para obtener la ROI en esta Tesis Doctoral es más sencillo
que el único encontrado en la documentación y mostrado en la figura 8.

Es importante destacar que hay una ligera variación entre la ROI de los
patrones obtenidos en el reclutamiento, y la ROI de las muestras obtenidas en
el proceso de reconocimiento. A continuación se detalla la extracción de la ROI
en ambos casos.

5.2.1 Extracción de la región de interés en los patrones del reclutamiento

El método para extraer la ROI de las muestras usadas para el


reclutamiento (llamadas patrones a partir de ahora) se va a explicar con ayuda
de un ejemplo. La figura 50 es la imagen de un patrón de la base de datos final
tomada para las pruebas.

Figura 50: Imagen de un patrón del reclutamiento

Página 70
Capítulo 5: Preprocesado y extracción de características

1. En primer lugar se hace una ampliación de histograma de la imagen


para aumentar al máximo la diferencia entre el fondo de la imagen y la
muñeca, seleccionando previamente los valores para los cuales el
contraste entre el fondo y la muñeca va a ser máximo. El resultado para
el ejemplo de la figura 50 se muestra en la figura 51.

Figura 51: Imagen del patrón tras la ampliación de histograma

2. A continuación se aplica una función de reconstrucción morfológica, en


este caso una función global de máximos/mínimos para discernir entre
las zonas de mayor o menor luminosidad (muñeca o fondo) en función
de un parámetro umbral heurístico adecuado según la iluminación de las
imágenes (parámetro EDGE_ROI del algoritmo). De esta manera se
convierte la imagen en escala de grises (256 valores) en una imagen
binaria con 0 para los valores de píxel inferiores al parámetro umbral
seleccionado y 1 para los valores de píxel superiores a dicho parámetro
umbral. El resultado para el ejemplo de la figura 51 se muestra en la
figura 52.

Página 71
Capítulo 5: Preprocesado y extracción de características

Figura 52: Imagen del patrón tras la reconstrucción morfológica

3. El tercer paso consiste en utilizar un algoritmo propio que elimina


aquellos píxeles que quedan dentro de la zona blanca (muñeca), para
evitar errores en los pasos siguientes. El algoritmo es el mostrado en el
diagrama de bloques de la figura 53:

Unión de los bordes de la imagen


con los píxeles negros del fondo

Identificación de todas las zonas negras


que tengan un contorno cerrado y
asignación de un número de zona (XN)

Contaje de los píxeles de cada zona negra XN y


asignación a las mismas del valor de contaje CN

Cálculo del valor máximo de contaje CN MAX

Cambio de valor binario de los píxeles de aquellas zonas XN cuyo


valor CN sea inferior al valor CN MAX

Figura 53: Diagrama de bloques del algoritmo de eliminación de píxeles interiores

Página 72
Capítulo 5: Preprocesado y extracción de características

La figura 54 muestra un detalle del resultado de aplicar a la figura 52 el


algoritmo mencionado en la figura 53.

Figura 54: Imagen del patrón tras la eliminación de píxeles interiores erróneos

4. El cuarto paso es calcular los valores x1 y x2 de los píxeles de


intersección entre una línea horizontal seleccionada por un parámetro
heurístico (parámetro ROW_ROI del algoritmo) y la imagen sin puntos
interiores erróneos calculada en el paso 3, para a continuación calcular
su diferencia dM patron (dM patron = x1 - x2).

5. El quinto paso es aplicar unos valores heurísticos (d1 y d2, de forma que
d1 = d2) que reduzcan la distancia dM patron y obtener el valor de lado dC
patron (dC patron = dM patron - d1 - d2) de la ROI cuadrada (dC patron x dC patron)
que asegure que toda la información contenida en la ROI cuadrada
quede dentro de la zona de la imagen de la muñeca evitando en lo
posible zonas de fondo.

6. Finalmente se recorta la imagen con estos valores para obtener la ROI y


guardarla en el PC, así como todos los valores calculados anteriormente

Página 73

x_min
Capítulo 5: Preprocesado y extracción de características

que van a ser necesarios más tarde en pasos posteriores. La figura 55


muestra el procedimiento completo descrito de forma gráfica.

dC patron ROI
480
pixeles

Fila ROW_ROI x1 x2

d1 d2
dC patron

dM patron

640 pixeles

Figura 55: Procedimiento para obtener la ROI de un patrón

5.2.2 Extracción de la región de interés en las muestras para el


reconocimiento

En el caso de obtener la ROI de una muestra que se utilice para el


reconocimiento (llamadas muestras a partir de ahora), el procedimiento es
básicamente el mismo, pero con dos modificaciones:

• La distancia de la ROI de las muestras debe tener el mismo tamaño que


la ROI de los patrones, para más tarde aplicar los métodos de
reconocimiento explicados en el capítulo 6. Por tanto, dC muestra = dC patron.

Página 74
Capítulo 5: Preprocesado y extracción de características

• Los valores d1 y d2 que reducen la distancia dM muestra para obtener una


ROI cuadrada (dC muestra x dC muestra) ya no son heurísticos sino que se
calculan de la siguiente manera:

d1 = d2 = (dM muestra - dC patron)/2

La figura 56 muestra el procedimiento descrito de forma gráfica, en el


que se ven las diferencias con el procedimiento descrito en la figura 55.

dC muestra ROI
480
pixeles

Fila ROW_ROI x1 x2

d1 dC muestra = dC patron d2

dM muestra

640 pixeles

Figura 56: Procedimiento para obtener la ROI de una muestra

5.2.3 Resultados obtenidos

La figura 57 muestra en su parte superior 12 imágenes originales de los


patrones obtenidos con el sistema de captura para realizar las pruebas finales
que se presentan en el capítulo 8, y en su parte inferior sus 12 ROI extraídas.

Página 75
Capítulo 5: Preprocesado y extracción de características

Imágenes originales

ROIs extraídas

Figura 57: Ejemplo de ROIs extraídas

Página 76
Capítulo 5: Preprocesado y extracción de características

5.3 Extracción de características de la ROI

Una vez que se tiene la ROI de muestras y patrones, el siguiente paso


mostrado en el diagrama de bloques de la figura 1 es la extracción de las
características de las venas. Esto consiste normalmente en la eliminación de la
imagen de todo lo que no sea venas y quedarse con su esqueleto. Para la
extracción de características, tal como se comenta en el punto 3.7, se ha
decidido no utilizar ningún método de los artículos propuestos para los
sistemas vasculares, y buscar uno utilizado para otros sistemas, realizando las
adaptaciones necesarias para su utilización en biometría vascular. A
continuación se detalla el método propuesto en esta Tesis Doctoral.

5.3.1 Función básica utilizada para la extracción

La fase de la extracción de características de la ROI parte del algoritmo


explicado detalladamente en [LFE04] para la extracción de las líneas de la
palma de mano, en la que se utiliza la función Gaussiana 1-D (G = 1/(σ*√2π) *
exp-(x2/2*σ2)), su primera derivada (G’ = -x/(σ3*√2π) * exp-(x2/2*σ2)) y su
segunda derivada (G’’ = (x2-σ2)/(σ5*√2π) * exp-(x2/2*σ2)) formadas a partir de
N1 puntos (para G) y N2 puntos (para G’ y G’’). El fundamento teórico se
resume brevemente, aunque en [LFE04] se puede consultar la descripción
completa:

Suponiendo que I(x,y) representa una imagen y Gσs es la función


Gaussiana 1-D con varianza σs, la diferencia entre las líneas y la carne se
puede acentuar multiplicando ambas, de forma que:

IS = I * Gσs ,
donde * es la operación de convolución

La primera y segunda derivada en la dirección vertical (I’ e I’’) se pueden


calcular mediante la convolución de IS con la primera derivada (G’σd) y segunda
derivada (G’’σd) de Gσs con varianza σd:

T T T 0
I’ = IS * (G’σd) = (I * Gσs) * (G’σd) = I * (Gσs * (G’σd) ) = I * H1
T T T 0
I’’ = IS * (G’’σd) = (I * Gσs) * (G’’σd) = I * (Gσs * (G’’σd) ) = I * H2 ,

Página 77
Capítulo 5: Preprocesado y extracción de características

donde H10 = Gσs * (G’σd)T, H20 = Gσs * (G’’σd)T, T es la operación transposición y


* la operación de convolución

H10 y H20 se denominan detectores de línea horizontal (detectores en la


dirección de 0º). Las líneas horizontales de la palma (y las venas) se pueden
obtener ahora buscando los puntos de paso por cero de I’ en la dirección
vertical (90º), mientras que su contraste son los valores de dichos puntos en I’’.
Matemáticamente se expresa de la siguiente manera:

1
L0 (x,y) = I’’ (x,y), si I’ (x,y) = 0 o bien I’ (x,y) x I’ (x+1,y) < 0
1
L0 (x,y) = 0 en cualquier otro caso

Además también se puede saber si cada punto es valle o pico viendo el


signo de L01 (x,y). Valores positivos indican valles y valores negativos indican
picos. Las líneas de las palmas (y de las venas) son valles, por lo que los
valores negativos se descartan, quedando finalmente la siguiente expresión:

2 1 1
L0 (x,y) = L0 (x,y), si L0 (x,y) > 0
2
L0 (x,y) = 0 en cualquier otro caso

Como las líneas de las palmas (y las venas) no tienen direcciones fijas,
hace faltan más detectores de línea en otras direcciones. Estos detectores de
línea en cualquier dirección θ se pueden obtener simplemente rotando H10 y
H20 el ángulo θ. Las líneas en la dirección θ se pueden obtener buscando los
puntos de paso por cero en la dirección θ+90.

Para obtener la imagen final en todas las direcciones simplemente hay


que superponer todas ellas con una operación OR, tal como se indica:

L(i,j) = OR Lθ(i,j),
donde OR es la operación OR de las imágenes parciales

Las direcciones propuestas para la extracción son 0º, 45º, 90º y 135º,
pero para la extracción de las venas se elimina la dirección de 0º, ya que tras
las primeras pruebas con venas se observa que no aportan ninguna
información adicional. El problema de adaptar este método a las imágenes de
las ROI mostradas en la figura 57 es que los valores de σs y σd propuestos en

Página 78
Capítulo 5: Preprocesado y extracción de características

el artículo [LFE04] dan unos resultados absolutamente defectuosos y absurdos,


por lo que hay que adaptarlos de manera heurística realizando pruebas en
campo con todas las imágenes. Los parámetros óptimos se explican con
detalle en el capítulo 7.

5.3.2 Funciones adicionales necesarias para su adaptación a sistemas


vasculares

Además, para extraer con precisión las líneas de las venas hace falta
implementar alguna función adicional a la función básica explicada en el punto
anterior, de forma que el algoritmo completo de extracción de características a
partir de la ROI se muestra en la figura 58 (para muestras y patrones).

ROI

Extracción de líneas en la dirección θ = 45º Extracción de líneas en la dirección θ = 90º


con la función explicada en 5.3.1 y obtención con la función explicada en 5.3.1 y obtención
45º 90º
de la matriz L0 de la matriz L0

45º
Binarización de la matriz Lo y para obtener Binarización de la matriz Lo
90º
para obtener la
45º
la matriz L0B y dilatación de Z pixels 90º
matriz L0B y dilatación de Z pixels

Extracción de líneas en la dirección θ = 135º


con la función explicada en 5.3.1 y obtención
135º
de la matriz L0

135º
Binarización de la matriz Lo para obtener
135º
la matriz L0B y dilatación de Z pixels

Obtención de la matriz total: L(i,j) = OR LOBθ

Aplicación de la función heurística de eliminación de líneas y puntos


erróneos obteniendo la matriz L(i,j)RedФ

Dilatación de la imagen final obtenida N pixels para obtener el Sólo para los
Ф patrones
patrón del usuario, obteniendo la matriz final Ln(i,j)Red

Figura 58: Principio de funcionamiento del proceso completo de extracción de características

Página 79
Capítulo 5: Preprocesado y extracción de características

A continuación se explican las funciones utilizadas en el proceso


completo, marcadas en verde dentro del diagrama de bloques de la figura 58.

• Binarización de la matriz LoФ:

Esta función es absolutamente trivial, y parte del hecho de que el


proceso explicado en el punto 5.3.1 da como resultado un valor 0 para los
píxeles de la carne (blanco) y un valor diferente de cero para los píxeles que
pertenecen a las venas, con lo que simplemente la función ajusta el valor 1
a estos píxeles según la siguiente fórmula.

L0B (x,y) Ф = 0 si L0 (x,y) Ф = 0


L0B (x,y) Ф = 1 en cualquier otro caso

La binarización es necesaria realizarla para luego aplicar el método de


comparación orientable explicado en el capítulo 6.

• Dilatación de Z píxeles antes de aplicar la operación OR y de N


píxeles para obtener finalmente la matriz Ln(i,j)RedФ:

La función de dilatación es también trivial y simplemente dilata las líneas


el parámetro Z/N que se le indique. Hay que dilatar Z píxeles después de
Ф
obtener la matriz L0B porque el método indicado en 5.3.1 obtiene las
líneas de las venas pero deja a veces varios píxeles entre medias de ellas.
Con esta dilatación se garantiza la continuidad de las líneas. Finalmente
hay que dilatar N píxeles la matriz L(i,j)RedФ para obtener la matriz final
Ln(i,j)RedФ y tener así el patrón con las líneas anchas de cada usuario. Este
último paso sólo es necesario para obtener las características de los
patrones, no para obtener las características de las muestras, tal como se
explicará en el capítulo 6. Los valores de N y Z se han probado de manera
heurística dado los mejores resultados con Z = 4 píxeles y N = 6 píxeles.

• Eliminación de líneas y puntos erróneos para obtener la matriz


L(i,j)RedФ:

Esta función es absolutamente necesaria, ya que el método explicado en

Página 80
Capítulo 5: Preprocesado y extracción de características

el punto 5.3.1, que los autores defienden que funciona muy bien con líneas
de la palma de la mano, no obtiene unos resultados tan buenos al aplicarlo
a imágenes con venas ya que aparecen muchos puntos y líneas pequeñas
incorrectas, a pesar de haber ajustado los parámetros σs y σd de manera
heurística para obtener imágenes bastante correctas (como se observa en
la figura 60). El principio de funcionamiento de esta función se muestra en la
figura 59.

. Identificación de todas las zonas de la


imagen que formen un contorno cerrado y
asignación de un número de zona (XC)

Contaje de los píxeles de cada zona cerrada XC y


asignación a las mismas del valor de contaje CN

Comparación del valor CN con el parámetro CN MAX


que indica el valor máximo admitido a partir del cual
se considera que la zona XC es línea correcta

Si CN >= CN MAX Si CN < CN MAX

Conservación de la Eliminación de la
zona XC en la zona XC en la
imagen imagen

Figura 59: Principio de funcionamiento de la función de eliminación de líneas y puntos erróneos

El mejor ajuste para el parámetro CN MAX a partir de la cual se eliminan


líneas se explica en el capítulo 8.

5.3.3 Resultados obtenidos

La figura 60 muestra un ejemplo del proceso completo de extracción de


características, según lo indicado en el diagrama de bloques de la figura 58,
para una de las imágenes obtenidas con el sistema de captura con las pruebas
finales que se presentan en el capítulo 8.

Página 81
Capítulo 5: Preprocesado y extracción de características

a) ROI extraída

90º
b) Matriz L0B y la aplicación de la dilatación Z = 4 píxeles

45º
c) Matriz L0B y la aplicación de la dilatación Z = 4 píxeles

Página 82
Capítulo 5: Preprocesado y extracción de características

135º
d) Matriz L0B y la aplicación de la dilatación Z = 4 píxeles

e) Matriz total L(i,j)

f) Aplicación de la función de eliminación de líneas y puntos erróneos y obtención de la


matriz L(i,j)RedФ

Página 83
Capítulo 5: Preprocesado y extracción de características

g) Matriz Ln(i,j)RedФ con dilatación N = 4 píxeles (sólo para patrones)

Figura 60: Proceso completo de extracción de características

La figura 61 muestra algunos ejemplos de patrones de características sin


dilatar, extraídos para algunas de las imágenes obtenidas con el sistema de
captura con las pruebas finales que se presentan en el capítulo 8, y la
superposición sobre sus ROI realizado por la plataforma de pruebas.

Figura 61: Ejemplo de patrones extraídos (todavía sin dilatar)

Página 84
Capítulo 5: Preprocesado y extracción de características

5.4 Conclusiones

En este capítulo se ha explicado el proceso seguido para ejecutar el


preprocesado y la extracción de características de las imágenes obtenidas por
el sistema de captura. El proceso de preprocesado y extracción de la ROI es
totalmente novedoso en sistemas vasculares y especialmente adecuado para
el sistema de esta Tesis Doctoral, ya que las imágenes obtenidas para
muestras y patrones son muy parecidas, con lo que las ROI lógicamente
también lo son.

La extracción de características se reduce a la extracción de las venas


de la ROI y el método se basa en un sistema ya utilizado para las palmas de
las manos [LFE04], pero por primera vez adaptado a imágenes de venas y
obteniendo resultados bastante buenos tal como se observa en la figura 61.

Sin embargo, los algoritmos utilizados en este capítulo tienen algunos


puntos susceptibles de mejora en investigaciones futuras.

1. Si se desarrolla un sistema con más grados de libertad, el sistema de


extracción de ROI sería igualmente válido, pero los algoritmos de
comparación del capítulo 6 ya no valdrían, por lo que habría que añadir
un paso adicional que buscase las zonas reducidas en la ROI de
máxima información vascular y luego aplicar los métodos de
comparación del capítulo 6 para dichas zonas reducidas.

2. Habría que realizar más pruebas con nuevos usuarios para ajustar los
parámetros de extracción de características mencionados en el punto
5.3, especialmente el parámetro CN MAX, que ha sido elegido
completamente de manera heurística y podría ajustarse con más detalle
en cada muestra, haciendo un análisis previo más exacto de la misma.

Una vez que se han explicado estos métodos, en el siguiente capítulo se


mostrarán los algoritmos de comparación propuestos para esta Tesis Doctoral.

Página 85
Capítulo 5: Preprocesado y extracción de características

Página 86
Capítulo 6:

Métodos de comparación para el


reconocimiento

6.1 Introducción
Una vez que se tienen las características de las muestras (en este caso,
la imagen de las venas extraídas según los procedimientos indicados en el
capítulo 5), el último paso del sistema biométrico vascular completo es realizar
la comparación para el reconocimiento. Tal como ya se ha explicado en el
punto 2.2, se puede realizar una autenticación (es decir, comprobar la muestra
de un usuario con su patrón guardado en el PC y decidir si el porcentaje de
coincidencia es adecuado para su validación – identificación 1:1), o bien
realizar una identificación (es decir, comprobar la muestra de un usuario con
todos los patrones guardados en el PC de todos los usuarios y decidir si el
porcentaje de coincidencia es adecuado para alguno de ellos – identificación
1:N).

En el punto 3.6 se presentaron los distintos algoritmos de comparación


utilizados en las distintas referencias bibliográficas existentes. Por la forma ya
explicada de extraer las ROI, por la dilatación realizada en las venas durante el
proceso de extracción de características para los patrones y habiendo
comprobado que los patrones de las venas de la muñeca no presentan muchos
puntos de intersección, el método más adecuado para el sistema propuesto en
esta Tesis Doctoral sería aquel que intente comparar de forma orientable
directamente las venas obtenidas de las muestras con las venas obtenidas de
los patrones.

Página 87
Capítulo 6: Métodos de comparación para el reconocimiento

Pero, aparte de este método y debido a que las muestras y patrones de


un mismo usuario son muy parecidas gracias al sistema final de fijación
explicado en el capítulo 4, también se implementa otro método adicional que
realiza la medición geométrica del ancho de la muñeca y que servirá de primer
método eliminatorio para una posible reducción de los tiempos de ejecución del
sistema biométrico vascular completo. En este capítulo se explican dichos
métodos desarrollados.

6.2 Método de comparación basado en el diferente ancho de la


muñeca
En este primer método simplemente se mide el ancho de la muñeca
(valor dM muestra de la figura 56) en cada una de las muestras durante la etapa
de preprocesado para la extracción de la ROI y se compara con el ancho de la
muñeca (valor dM patron de la figura 55) que se tiene guardado de cada patrón en
el reclutamiento, realizando finalmente su resta y obteniendo el valor R1 para el
reconocimiento.

R1 = dM muestra – dM patron

Se establece una cierta tolerancia en la variación de la anchura de las


muñecas (denominada MAX_WIDTH_DIFFERENCE en el algoritmo). El valor
de esa tolerancia se obtiene de manera heurística obtenida a través del análisis
de las imágenes de la base de datos. Si R1 > MAX_WIDTH_DIFFERENCE, se
ofrece directamente un resultado negativo de la comparación, evitando ejecutar
el siguiente método de comparación y ahorrando por tanto tiempo de ejecución.
Pero si R1 < MAX_WIDTH_DIFFERENCE, no se puede tomar ninguna decisión
y hay que ejecutar el segundo método de comparación para tomar la decisión.
En las pruebas presentadas en el capítulo 8, se ha comprobado que siempre
que el ancho es superior a 12 píxeles, la decisión (autenticación o
identificación) debe ser negativa y no hace falta seguir verificando, porque en
ningún proceso de autenticación se obtiene nunca un valor superior para las
distintas muestras de un mismo usuario de la base de datos completa obtenida.
Es importante volver a repetir que este método no es determinante para
establecer un reconocimiento positivo, simplemente se puede usar como
método de descarte.

Página 88
Capítulo 6: Métodos de comparación para el reconocimiento

6.2.1 Resultados obtenidos

La figura 62 muestra el ejemplo de una autenticación decidida como


usuario potencialmente correcto (muestra 3 del usuario 19 comparado con su
mismo patrón) y la figura 63 muestra un ejemplo de una autenticación decidida
como usuario erróneo (muestra 1 de usuario 5 comparado con el patrón del
usuario 19)

Ancho de la muestra 3 del usuario 19 = 421 píxeles


Ancho del patrón del mismo usuario 19 = 418 píxeles
Diferencia de anchos = 3 píxeles

Decisión: USUARIO POTENCIALMENTE CORRECTO

Figura 62: Decisión de aceptación potencial con el método de análisis basado en el diferente
ancho de la muñeca

Ancho de la muestra 1 del usuario 5 = 387 píxeles


Ancho del patrón del usuario 19 = 418 píxeles
Diferencia de anchos = 31 píxeles

Decisión: USUARIO ERRONEO

Figura 63: Decisión de rechazo con el método de análisis basado en el diferente ancho
de la muñeca

Página 89
Capítulo 6: Métodos de comparación para el reconocimiento

La tabla 2 muestra los resultados obtenidos al comparar 4 muestras de


20 usuarios todos entre sí (80 comparaciones de autenticación y 1.520
comparaciones de identificación). Los resultados gráficos completos con sus
curvas de distribución de probabilidad se pueden consultar con más detalle en
el capítulo 8.

Tabla 2: Ejemplo de anchos de muñeca para 1.520 identificaciones y 80 autenticaciones

Max. value in pixels for the first authentication method in case of the
10
identification of same users

Pixel distance Total


0-10 230
10-20 256
20-30 212
Max. value in pixels for the 30-40 159
first authentication method in 40-50 126
case of the identification of 50-60 150
different users 60-70 134
70-80 118
80-90 87
90-100 44
> 100 4

Como se ha comentado en la introducción del punto 6.2, se ha


comprobado que siempre que R1 es superior a 12 píxeles, la decisión
(autenticación o identificación) debe ser negativa, porque en ningún proceso de
autenticación se obtiene nunca un valor superior (en la figura se constata este
dato ya que el máximo valor R1 para las 80 muestras de autenticación es 10).
Para asegurarnos de que los resultados van a ser siempre correctos, se le
puede añadir la tolerancia que se desee (por ejemplo un 100% en este caso),
es decir, si se ajusta MAX_WIDTH_DIFFERENCE = 20, sólo habría que seguir
verificando 486 comparaciones de identificación (230+256) con el método
explicado en el punto 6.3, pero en las otras 1.034 comparaciones (1.520-486)
ya se podría decidir que los usuarios son erróneos (aprox. 70% de las
comparaciones) y así reducir los tiempos de ejecución totales.

6.3 Método de comparación basado en la comparación


orientable completa de imágenes

Este segundo método está basado en el mecanismo de reconocimiento


indicado en [TIS95], pero adaptado convenientemente al sistema vascular
diseñado, ampliándolo con la variante de rotaciones y traslaciones explicada a
continuación.

Página 90
Capítulo 6: Métodos de comparación para el reconocimiento

6.3.1 Descripción

El método es el mostrado en el diagrama de bloques de la figura 64. La


imagen vascular binaria obtenida de cada muestra con el método descrito en el
punto 5.3 se solapa directamente con la imagen dilatada de los patrones de los
usuarios guardados en el PC y se calcula el número de píxeles que coinciden.
Si este valor es superior a un valor ajustado, el usuario es aceptado, en caso
contrario se rechaza.

Lectura del patrón dilatado del usuario a


comparar LN(i,j)RedФ y obtención de la matriz AP

Lectura de la muestra binaria del usuario a


comparar L(i,j)RedФ y obtención de la matriz Am

Superposición de Amsobre Ap (RT = Am+ Ap)

Contaje de los píxeles que concuerdan entra ambas


matrices siguiendo el siguiente algoritmo:

Si RT(x,y) = 0 -> CT = CT +1
Si RT(x,y) = 1 -> CT = CT
Si RT(x,y) = 2 -> CT = CT

Si CT >= Si CT <
MIN_INSIDE_POINTS_PERCENTAGE MIN_INSIDE_POINTS_PERCENTAGE

Decisión -> Usuario Decisión -> Usuario


correcto incorrecto

Figura 64: Principio de funcionamiento del método de comparación orientable completa de


imágenes

El parámetro más importante a ajustar en este algoritmo es


MIN_INSIDE_POINTS_PERCENTAGE, ya que su ajuste va a determinar
claramente la calidad del sistema. Las pruebas mostradas en el capítulo 8,
muestran que si se elige MIN_INSIDE_POINTS_PERCENTAGE = 85, las
decisiones siempre serán las acertadas pudiendo conseguir valores de EER
próximos a cero. También es conveniente comentar que es muy importante

Página 91
Capítulo 6: Métodos de comparación para el reconocimiento

también el ajuste de los N píxeles dilatados para cada patrón (parámetro


RECRUIT_DIL del algoritmo), fundamental para el buen funcionamiento del
sistema. Hay que dilatar el patrón para permitir pequeñas rotaciones y
traslaciones en cada muestra tomada y que el sistema funcione correctamente,
ya que a pesar del sistema final de fijación es imposible tomar 2 muestras
exactamente iguales. Tal como se observa en el capítulo 8, si RECRUIT_DIL
se elige demasiado pequeño, los patrones son muy “estrechos” y EER sube
demasiado. Pero si es demasiado grande, EER llega a ser cero, pero hay
muchas posibilidades de que las curvas de distribución de probabilidad
intraclase e interclase se acerquen demasiado, haciendo al sistema demasiado
inestable ante pequeñas posibles variaciones. Los mejores resultados se han
comprobado que se obtienen ajustado RECRUIT_DIL = 6 (píxeles).

6.3.2 Resultados obtenidos

La figura 65 muestra el proceso completo de decisión de aceptación


para una de las autenticaciones de prueba realizadas en el capítulo 8.

a) ROI del usuario

b) Patrón LN(i,j)RedФ guardado del usuario y obtención de la matriz Ap

Página 92
Capítulo 6: Métodos de comparación para el reconocimiento

c) Muestra L(i,j)RedФ del mismo usuario y obtención de la matriz Am

d) Obtención de RT = Am+ Ap

Píxeles de línea de la muestra del usuario: 2.131


Píxeles de línea de la muestra del usuario que están dentro del patrón: 2.086
Porcentaje de coincidencia: 98%

Decisión: USUARIO CORRECTO

Figura 65: Decisión de aceptación para el método de análisis basado en la


comparación orientable completa de imágenes

La figura 66 muestra el proceso completo de decisión de rechazo para


una de las identificaciones de prueba realizadas para el capítulo 9.

Página 93
Capítulo 6: Métodos de comparación para el reconocimiento

a) ROI del usuario 3

b) Patrón LN(i,j)RedФ guardado del usuario 5 y obtención de la matriz Ap

c) ) Muestra L(i,j)RedФ del usuario 3 y obtención de la matriz Am

Página 94
Capítulo 6: Métodos de comparación para el reconocimiento

e) Obtención de RT = Am+ Ap

Píxeles de línea de la muestra del usuario 3: 1.512


Píxeles de línea de la muestra del usuario 3 que están dentro del patrón del usuario 5: 409
Porcentaje de coincidencia: 27%

Decisión: USUARIO ERRÓNEO

Figura 66: Decisión de rechazo para el método de análisis basado en la


comparación orientable completa de imágenes

La figura 67 muestra las curvas de distribución de probabilidad intraclase


e interclase resultante de verificar la “muestra 1” del usuario 21 frente a su
patrón y a todos los patrones guardados en el PC del resto de usuarios.

Curva de distribución de probabilidad para la verificación de la muestra 1 frente a


todos los usuarios de la base de datos

1,200

1,000 1,000

0,800

0,600

0,429
0,400

0,286
0,200
0,143 0,143

0,000 0,000
0,000 0,000 0,000 0,000 0,000 0,000
0,000 0,000
0,000 0,000
0,000 0,000 0,000
0,000
0-10 10-20 20-30 30-40 40-50 50-60 60-70 70-80 80-90 90-100

Umbral

Verificación con diferentes usuarios (identificación) Verificación con el mismo usuario (autenticación)

Figura 67: Curva de distribución de probabilidad de los resultados obtenidos con el método de
comparación orientable completa al comparar un usuario con los 22 usuarios de la base de
datos

Página 95
Capítulo 6: Métodos de comparación para el reconocimiento

Como se ha comentado en el punto 6.3.1, se ha comprobado que


siempre que CT es superior a 85%, la decisión (autenticación o identificación)
debe ser positiva, porque en ningún proceso de autenticación se obtiene nunca
un valor inferior (en la figura se constata este dato ya que la verificación del
usuario 21 con el usuario 21, o sea su autenticación, da un resultado de 89% –
> distribución de probabilidad = 1), mientras que en el resto de identificaciones
los valores son siempre inferiores al umbral del 85% –> distribución de
probabilidad máxima = 0,429).

6.3.3 Variante con traslaciones y rotaciones

Al realizar las pruebas descritas en el capítulo 8, se ve que aplicar este


método directamente sin más hace que los resultados de EER se aproximen a
cero, pero exige que las muestras sean muy parecidas. En el momento en que
se desvíen lo suficiente, el resultado de coincidencia puede bajar
drásticamente. La figura 68 muestra uno de estos casos posibles. En ella el
resultado de coincidencia es del 19%, con lo que la decisión de autenticación
sería de rechazo, a pesar de ser el mismo usuario. El problema está en la
desviación existente entre el patrón y la muestra al captar sus imágenes.

Figura 68: Decisión de rechazo errónea por desviación en las imágenes de muestra y patrón

Página 96
Capítulo 6: Métodos de comparación para el reconocimiento

Para resolver este problema, se ha añadido un paso adicional al


diagrama mostrado en la figura 64, consistente en un algoritmo de traslación y
rotación que traslada y rota la imagen de la muestra las veces que se ajuste en
unos nuevos parámetros del algoritmo de comparación, que se definen de la
siguiente manera (entre paréntesis su representación numérica para la figura
69):

• RC -> Pasos de rotación en la dirección horaria (1)

• RAC -> Pasos de rotación en la dirección antihoraria (2)

• GR -> Grados rotados en cada rotación

• TL -> Número de desplazamientos de traslación a la izquierda (3)

• TR -> Número de desplazamientos de traslación a la derecha (4)

• TU -> Número de desplazamientos de traslación hacia arriba (5)

• TD -> Número de desplazamientos de traslación hacia abajo (6)

• PT -> Píxeles trasladados en cada traslación

La figura 69 muestra gráficamente el procedimiento seguido en este


algoritmo de traslación y rotación.

3 2 4
1

Figura 69: Principio de funcionamiento gráfico de las traslaciones y rotaciones realizadas por la
variante del algoritmo

Página 97
Capítulo 6: Métodos de comparación para el reconocimiento

La secuencia que sigue el algoritmo es la siguiente:

1. Rotación GR grados a la izquierda (RC veces)

2. Rotación GR grados a la derecha (RAC veces), partiendo de la imagen


original L(i,j)RedФ

3. Traslación PT píxeles la izquierda (TL veces), ejecutando 1 y 2 en cada


traslación TL, partiendo de la imagen original L(i,j)RedФ

4. Traslación PT píxeles la derecha (TR veces), ejecutando 1 y 2 en cada


traslación TL, partiendo de la imagen original L(i,j)RedФ

5. 1-4 se repite TU veces desplazando PT píxeles hacia arriba

6. 1-4 se repite TD veces desplazando PT píxeles hacia abajo.

El número total de modificaciones en la imagen de la muestra serán por


tanto:

MT = (RC+RAC)*TL*TR*TU*TD+1

Esta secuencia se puede modificar si se desea y así eliminar


modificaciones innecesarias para reducir el tiempo de ejecución del
reconocimiento. Por ejemplo, con el sistema de posicionamiento final indicado
en el capítulo 4 se ha comprobado que no hace falta hacer rotaciones y los
desplazamientos de traslación se pueden limitar a 3-4. En otros sistemas de
posicionamiento estos parámetros habría que estudiarlos de manera heurística.

En cada uno de los pasos 1-6, es decir, con la imagen adecuadamente


orientada, se produce el solapamiento de cada una de ellas con el patrón a
comparar y el resultado se guarda en un vector de resultados. Cuando ya se
hayan hecho todas las rotaciones y traslaciones ajustadas, se elige el mayor
valor de este vector de resultados como resultado final para tomar la decisión,
ya que ese valor se corresponderá con la mejor posición de la muestra
respecto el patrón. La figura 70 muestra el principio de funcionamiento del
método de comparación orientable completa de imágenes mostrado en la figura
64, pero completado en verde con esta variante con traslaciones y rotaciones.

Página 98
Capítulo 6: Métodos de comparación para el reconocimiento

Lectura del patrón dilatado del usuario a


comparar LN(i,j)RedФ y obtención de la matriz AP

Lectura de la muestra binaria del usuario a


comparar L(i,j)RedФ y obtención de la matriz Am

Paso 1: Paso 2: Paso 3: Paso 4: Paso 5: Paso 2:


RC veces RAC veces TL veces TR veces TU veces TD veces

Superposición de Amsobre Ap (RT = Am+ Ap), MT veces

Contaje de los píxeles que concuerdan entra ambas


matrices siguiendo el siguiente algoritmo:

Si RT(x,y) = 0 -> CTi = CTi +1


Si RT(x,y) = 1 -> CTi = CTi
Si RT(x,y) = 2 -> CTi = CTi

Repetición MT veces, i Є (1, MT)

Creación del vector de resultados VRT con MT elementos

Obtención de CT = Max (VRT)

Si CT >= Si CT <
MIN_INSIDE_POINTS_PERCENTAGE MIN_INSIDE_POINTS_PERCENTAGE

Decisión -> Usuario Decisión -> Usuario


correcto incorrecto

Figura 70: Principio de funcionamiento del método de comparación orientable completa de


imágenes con la variante de traslaciones y rotaciones

Página 99
Capítulo 6: Métodos de comparación para el reconocimiento

Como ejemplo final, se muestra la figura 71 en la que se ve la curva de


distribución de probabilidad de la autenticación realizada para la misma
comparación mostrada en la figura 68 realizada por la plataforma de pruebas,
pero ahora añadiendo la variante de traslaciones y rotaciones (49 traslaciones
en total). Hay muchos resultados de comparación al realizar las 49
modificaciones de traslación (derecha, izquierda, arriba, abajo); entre 0 y 10%
(0,224 de distribución de probabilidad – 11 valores) y así sucesivamente hasta
llegar a entre 90 y 100% (0,061 de distribución de probabilidad – 3 valores) . El
máximo valor de estas 49 modificaciones es el valor 96% (uno de los 3 valores
entre 90 y 100%), que se toma como resultado CT para ejecutar la decisión final
y el usuario es aceptado. Es decir, la inclusión de esta variante hace que un
usuario, que inicialmente se había reconocido como erróneo (el primer
resultado de comparar la muestra sin modificaciones con el patrón era del
19%), sea finalmente reconocido como correcto. El inconveniente es que hay
que hacer MT comparaciones y por tanto se ralentiza el sistema completo.

Curva de distribución de probabilidad para los porcentajes de resultados obtenidos


con 49 comparaciones de la misma muestra con el mismo patró (sólo con traslaciones)

0,300

0,250
0,245
0,224
0,200

0,150
0,143

0,100 0,102

0,061 0,061 0,061


0,050
0,041 0,041
0,020
0,000
0-10 10-20 20-30 30-40 40-50 50-60 60-70 70-80 80-90 90-100

Umbral

Porcentaje obtenido en las 49 comparaciones

Figura 71: Curva de distribución de probabilidad de los resultados obtenidos al aplicar el


algoritmo de traslaciones y rotaciones

Página 100
Capítulo 6: Métodos de comparación para el reconocimiento

6.4 Conclusiones

En este capítulo se ha explicado el proceso seguido para ejecutar dos


algoritmos de comparación, el primero de ellos basado en el ancho de la
muñeca y el segundo basado en la comparación orientable completa de
imágenes de patrón y muestras. Tal como se ha indicado, el primero sólo
serviría como primer método para descartar usuarios seguros que son
erróneos, pero no puede aplicarse para aquellas decisiones en las que la
distancia de la muñeca sea pequeña. Sin embargo, el segundo sí que se puede
utilizar con todas los reconocimentos, planteándose como método a ejecutar
cuando el primer método no pueda discernir la veracidad del usuario.

Sin embargo, los algoritmos utilizados en este capítulo tienen algunos


puntos susceptibles de mejora en investigaciones futuras.

1. Si se desarrolla un sistema con más grados de libertad como se plantea


en las líneas de investigación del capítulo 4, que no exija un
posicionamiento tan estricto, las imágenes ya no van a ser tan similares
y habría que adaptar el sistema de reconocimiento de comparación
orientable completa.

2. Como la muestra ya no va a ser tan similar al patrón como en el sistema


propuesto en esta Tesis Doctoral, ya no se van a poder comparar de
manera completa como se describe en este capítulo, ni siquiera puede
que sea posible realizando muchas traslaciones y rotaciones, porque
además las muestras y patrones para realizar el método de
comparación orientable no tienen porqué tener el mismo tamaño. Por
ello, se propone hacer una comparación orientable parcial entre una
zona más pequeña de las muestras a comparar con el patrón del
reclutamiento. Para elegir la zona reducida de la muestra a comparar,
se propone realizar un análisis previo de dicha muestra para extraer la
zona con la máxima información vascular posible, por ejemplo, una
análisis de minucias (puntos de intersección o puntos finales) de la
imagen vascular binaria para elegir aquella zona con mayor cantidad de
minucias y a partir de ella comparar de manera orientable con el patrón

Página 101
Capítulo 6: Métodos de comparación para el reconocimiento

del reclutamiento, utilizando el algoritmo de traslaciones y rotaciones


propuesto en el punto 6.3.3.

Con este capítulo se termina la explicación de los algoritmos utilizados


en esta Tesis Doctoral para desarrollar el sistema biométrico vascular
completo, la parte HW y la parte SW. En los siguientes capítulos se explicarán
los parámetros más óptimos para todos los sistemas HW y algoritmos
explicados, así como todos los resultados que corroboran el buen
funcionamiento del sistema.

Página 102
Capítulo 7:

Optimización de la solución
propuesta

7.1 Introducción
En este capítulo se van a indicar los valores más óptimos para los
diferentes parámetros de los sistemas HW y algoritmos explicados en los
capítulos 4, 5 y 6. En primer lugar se van a analizar los parámetros del sistema
de captura de imágenes, a continuación los parámetros necesarios para el
preprocesamiento, en tercer lugar los parámetros necesarios para la extracción
de características y se finalizará con los parámetros necesarios para los
algoritmos de comparación.

7.2 Parámetros óptimos para el sistema de captura de


imágenes
En el sistema de captura de imágenes, los parámetros a ajustar son
escasos, ya que la cámara utilizada y su software asociado permiten la
configuración de muy pocas opciones. Éstas son las siguientes:

• Alimentación del sistema de iluminación DOM: Se puede ajustar entre 0


y 24V DC.

• Parámetros del software de la cámara: Se pueden ajustar los


parámetros GANANCIA, EXPOSICIÓN y GAMMA.

Para obtener las imágenes representadas en las figuras 48, 49 y 57, con
las que los algoritmos software dan buenos resultados, se ha utilizado la
siguiente configuración:

Página 103
Capítulo 7: Optimización de la solución propuesta

o Apertura del objetivo de la cámara: Mínimo

o Alimentación del sistema de iluminación: 11,5 V DC

o GANANCIA: 260 (mínima)

o EXPOSICIÓN: 1/30

o GAMMA: 50

Estos valores se han elegido de manera heurística tras realizar un


estudio previo en el que se ajustó la apertura del objetivo de la cámara y la
ganancia del software de la misma a sus valores mínimos, y luego se fueron
ajustando en este orden los parámetros de la alimentación, exposición y
gamma. Aunque la bondad de los valores seleccionados para los parámetros
se observan a simple vista, se realizó un estudio matemático utilizando las
medidas de calidad indicadas en el punto 4.7.1, para así decidir los mejores
valores de estos parámetros.

Los resultados de este estudio se muestran en detalle en la tabla 3, en la


que se analizaron y se eligieron los valores de los parámetros (resaltados en
verde), buscando la mejor combinación con el máximo en la primera medida de
calidad y los mínimos de las otras dos. Finalmente se realizaron pruebas
heurísticas intermedias de preprocesado, extracción de características y
comparación con los valores ajustados para constatar su validez.

Este primer ajuste es fundamental hacerlo lo mejor posible por lo


indicado en el capítulo 4, ya que si las imágenes tienen buena calidad, los
algoritmos software son luego más sencillos y ofrecen mejores resultados.

En la figura 72 se muestran diferentes imágenes del mismo usuario con


diferentes valores del parámetro de la alimentación de la cámara, en la figura
73 se muestran diferentes imágenes del mismo usuario con diferentes valores
del parámetro de la exposición del software de la cámara y en la figura 74 se
muestran diferentes imágenes del mismo usuario con diferentes valores del
parámetro gamma del software de la cámara.

Página 104
Capítulo 7: Optimización de la solución propuesta

Alimentación = 10,75 V DC Alimentación = 11 V DC

Alimentación = 11,25 V DC Alimentación = 11,5 V DC

Alimentación = 11,75 V DC Alimentación = 12 V DC

Alimentación = 12,25 V DC Alimentación = 12,5 V DC

Figura 72: Imágenes obtenidas con diferentes valores para el parámetro de la alimentación de
la cámara

Página 105
Capítulo 7: Optimización de la solución propuesta

Exposición = 1/10 Exposición = 1/20

Exposición = 1/30 Exposición = 1/40

Exposición = 1/50 Exposición = 1/60

Figura 73: Imágenes obtenidas con diferentes valores para el parámetro de la exposición del
software de la cámara

Página 106
Capítulo 7: Optimización de la solución propuesta

Gamma = 20 Gamma = 30

Gamma = 40 Gamma = 50

Gamma = 60 Gamma = 70

Gamma = 80 Gamma = 90

Figura 74: Imágenes obtenidas con diferentes valores para el parámetro Gamma del software
de la cámara

Página 107
Capítulo 7: Optimización de la solución propuesta

Tabla 3: Resultados del estudio de calidad para los parámetros del sistema de iluminación

Primera Segunda Tercera


Medidas de calidad medida de medida de medida de
calidad calidad calidad

Alimentación: 10,75 V DC 0,56 34,76 5.672


Alimentación: 11,00 V DC 3,67 56,32 5.892
Alimentación: 11,25 V DC 8,23 89,45 6.356
Ajuste del
Alimentación: 11,50 V DC 12,38 108,23 7.236
parámetro de la
Alimentación: 11,75 V DC 13,67 134,51 23.890
alimentación
Alimentación: 12,00 V DC 34,78 187,23 43.581
Alimentación: 12,25 V DC 156,89 234,13 6.783
Alimentación: 12,75 V DC 234,67 253,89 2.568
Exposición: 1/10 0,12 0,34 3.460
Ajuste del
Exposición: 1/20 10,45 153,78 23.489
parámetro de la
Exposición: 1/30 11,78 111,49 7.567
exposición (con la
Exposición: 1/40 2,56 56,10 5.190
alimentación
Exposición: 1/50 1,78 3,67 2.081
ajustada a 11,5V)
Exposición: 1/60 0,34 1,62 3.278
Gamma: 20 1,67 98,34 6.813
Gamma: 30 4,60 103,67 7.820
Ajuste del Gamma: 40 7,80 106,01 6.209
parámetro gamma Gamma: 50 12,91 109,23 7.105
(con la exposición Gamma: 60 10,26 105,02 6.092
ajustada a 1/30) Gamma: 70 4,78 106,09 7.307
Gamma: 80 3,01 93,78 8.340
Gamma: 90 2,93 97,65 7.802

7.3 Parámetros óptimos para el preprocesado de las imágenes

El algoritmo de preprocesado utiliza sólo 2 parámetros seleccionables


(ROW_ROI y EDGE_ROI), tal como se ha explicado en el punto 5.2.1. Los
ajustes óptimos son los siguientes:

• EDGE_ROI: Ajusta el valor que necesita la función de máximos/mínimos


para obtener el contorno exacto de la muñeca antes del cálculo de la
ROI. El ajuste óptimo para el sistema de esta Tesis Doctoral se ha
comprobado de manera heurística que es 220 y así obtener resultados
como los mostrados en la figura 52 (con medidas de calidad similares a
los mostrados en la tabla 3).

• ROW_ROI: Ajusta la línea de corte con la muñeca en la extracción de la


ROI. El ajuste óptimo para el sistema de esta Tesis Doctoral es de 430.
Se podría elegir otro valor para subir o bajar dicha línea de corte, pero
se ha comprobado de manera heurística que, al ser las imágenes
originales de 680 X 480 píxeles y con el ajuste de zoom elegido para la
cámara del sistema de captura, la selección de este valor hace que la

Página 108
Capítulo 7: Optimización de la solución propuesta

zona cuadrada de la ROI obtenida en la mayoría de los casos evite las


zonas externas a la muñeca y se obtenga la máxima información
posible. La representación gráfica de este ajuste se puede consultar en
las figuras 55 y 56.

7.4 Parámetros óptimos para la extracción de características

El algoritmo de extracción de características utiliza los parámetros N1_X,


N2_X, SS_X, SD_X, PL_X y RECRUIT_DIL para la parametrización de su
funcionamiento. Su significado y sus ajustes óptimos son los siguientes:

• N1_X: Ajusta los puntos que utiliza la función Gaussiana 1-D en la


extracción de líneas, como se ha explicado en el punto 5.3.1. X indica la
dirección en la que se utiliza la extracción: 45º, 90º ó 135º. El ajuste
óptimo para el sistema de esta Tesis Doctoral es de 20 para todas las
direcciones.

• N2_X: Ajusta los puntos que utiliza la primera y segunda derivada de la


función Gaussiana 1-D en la extracción de líneas, como se ha explicado
en el punto 5.3.1. X indica la dirección en la que se utiliza la extracción:
45º, 90º ó 135º. El ajuste óptimo para el sistema de esta Tesis Doctoral
es de 30 para todas las direcciones.

• SS_X: Ajusta la varianza que utiliza la función Gaussiana 1-D en la


extracción de líneas, como se ha explicado en el punto 5.3.1. X indica la
dirección en la que se utiliza la extracción: 45º, 90º ó 135º. El ajuste
óptimo para el sistema de esta Tesis Doctoral es de 6,8 para todas las
direcciones.

• SS_X: Ajusta la varianza que utiliza la primera y segunda derivada de la


función Gaussiana 1-D en la extracción de líneas, como se ha explicado
en el punto 5.3.1. X indica la dirección en la que se utiliza la extracción:
45º,90º ó 135º. El ajuste óptimo para el sistema de esta Tesis Doctoral
es de 4,5 para todas las direcciones.

Página 109
Capítulo 7: Optimización de la solución propuesta

Todos estos valores se han elegido heurísticamente al procesar las


primeras imágenes de la base de datos. Las siguientes figuras muestran
algunas de las pruebas realizadas para optimizar estos parámetros.
Inicialmente se intentaron aplicar los parámetros indicados en [LFE04] con
unos resultados muy malos, tal como se muestra en la figura 75, para irlos
ajustarlos poco a poco según el resto de parámetros del sistema y obtener
resultados aceptables, tal como se observa en algunos ejemplos del
procedimiento de ajuste mostrados en las figuras 76, 77 y 78.

Imagen ROI

Imagen I’

Resultado:

Figura 75: Ajustes para la extracción de características: N1=9; N2=5; SS=1,8; SD=0,5

Página 110
Capítulo 7: Optimización de la solución propuesta

Imagen ROI

Imagen I’

Resultado:

Figura 76: Ajustes para la extracción de características: N1=20; N2=30; SS=1,8; SD=0,5

Página 111
Capítulo 7: Optimización de la solución propuesta

Imagen ROI

Imagen I’

Resultado:

Figura 77: Ajustes para la extracción de características: N1=20; N2=30; SS=6,8; SD=3,5

Página 112
Capítulo 7: Optimización de la solución propuesta

Imagen ROI

Imagen I’

Resultado:

Figura 78: Ajustes para la extracción de características: N1=20; N2=30; SS=6,8; SD=4,5

• PL_X: Ajusta el límite de píxeles para eliminar las líneas y puntos


erróneos que procesa el algoritmo inicial de extracción de líneas. X
indica la dirección en la que se utiliza la extracción: 45º, 90º ó 135º. En
la figura 60 se muestra un ejemplo de la aplicación de esta función. Los
valores óptimos para este parámetro se han obtenido de nuevo de
manera heurística con las imágenes obtenidas. Los mejores resultados
se obtienen con PL_45 = 300, PL_90 = 200 y PL_135 = 300.

Página 113
Capítulo 7: Optimización de la solución propuesta

• RECRUIT_DIL: Ajusta el espesor, expresado en píxeles, con el que se


amplía la imagen vascular extraída para los patrones en el proceso de
reclutamiento. El ajuste óptimo para el sistema de esta Tesis Doctoral es
de 6. En la figura 79 se muestran los resultados de reclutar el mismo
patrón con diferentes valores del parámetro RECRUIT_DIL, los cuales
se utilizan más tarde en el capítulo 8 para demostrar que el mejor ajuste
es el indicado.

Imagen de la ROI

Patrón con RECRUIT_DIL = 3

Página 114
Capítulo 7: Optimización de la solución propuesta

Patrón con RECRUIT_DIL = 6

Patrón con RECRUIT_DIL = 9

Patrón con RECRUIT_DIL = 12

Página 115
Capítulo 7: Optimización de la solución propuesta

Patrón con RECRUIT_DIL = 15

Figura 79: Patrón con valores diferentes de RECRUIT_DIL

7.5 Parámetros óptimos para los métodos de comparación

En los métodos de comparación hay que ajustar 2 grupos de


parámetros. Primero los parámetros para el método de análisis basado en la
comparación orientable completa de imágenes, que ajustan el número de
traslaciones y rotaciones que se deben realizar y que han sido explicados en el
punto 6.3.3. Los valores óptimos comprobados para estos parámetros con el
sistema final de fijación de la muñeca y la plataforma de pruebas (mostrados en
el punto 8.3.3) son los siguientes, tendiendo en cuenta que cuanto más bajos
sean más rápido será el sistema completo:

• TL: Número máximo de traslaciones hacia la izquierda. El valor óptimo


para el sistema de esta Tesis Doctoral es 4.

• TR: Número máximo de traslaciones hacia la derecha. El valor óptimo


es 3.

• TU: Número máximo de traslaciones hacia arriba. El valor óptimo es 4.

• TD: Número máximo de traslaciones hacia abajo. El valor óptimo es 3.

• RC: Número máximo de rotaciones horarias. El valor óptimo es 0.

• RAC: Número máximo de rotaciones antihorarias. El valor óptimo es 0.

Página 116
Capítulo 7: Optimización de la solución propuesta

• PT: Número de píxeles utilizados en la translación. El valor óptimo es


10.

• GR: Número de grados utilizados en la rotación. El valor óptimo no


existe ya que no hacen falta las rotaciones.

Utilizando otro sistema de posicionamiento de muñeca con más grados


de libertad y que no fije tan exactamente la posición de la muñeca, habría que
seleccionar unos valores mayores en los parámetros para conseguir que el
sistema funcione correctamente, debido en este caso a la mayor diferencia de
muestras y patrón. En el punto 8.4 se muestran, como ejemplo, las pruebas
realizadas para el sistema primitivo de fijación y se observa que es necesario
introducir rotaciones y más traslaciones para obtener resultados
razonablemente buenos.

El segundo grupo de parámetros son es el que permite tomar la decisión


de reconocimiento y proporcionar el resultado de validación o rechazo para el
método de comparación orientable completa, tal como se muestra en los
diagramas de bloques de las figuras 64 y 70, y para el método basado en el
ancho de la muñeca, como se describe en el punto 6.2. Los valores indicados
se han obtenido de manera heurística con todas las pruebas realizadas para el
capítulo 8, donde se pueden corroborar.

• MAX_WIDTH_DIFFERENCE: Diferencia máxima admitida, expresada


en píxeles, para así rechazar de manera segura a un usuario utilizando
el método de reconocimiento basado en el ancho de la muñeca. El valor
heurístico obtenido es de 12 píxeles más la tolerancia que se le quiera
añadir (por ejemplo, un 70%), para dar un valor óptimo de 20..

• MIN_INSIDE_POINTS_PERCENTAGE: Mínimo porcentaje de


coincidencia admitido para validar a un usuario utilizando el método de
reconocimiento basado en la comparación orientable completa de
imágenes. El valor heurístico obtenido es de 85.

Página 117
Capítulo 7: Optimización de la solución propuesta

7.6 Conclusiones

En este capítulo se han explicado los procesos seguidos para optimizar


los parámetros más importantes de los algoritmos de todo el sistema y se han
indicado sus valores de manera fundamentada o heurística. Es obvio que estos
parámetros se podrían optimizar todavía más y su rediseño sería
imprescindible en los casos de modificación del sistema de captura,
especialmente en lo relativo a los grados de libertad que se le deja al usuario.
En el capítulo 9 se introducen algunas ideas sobre estas líneas futuras de
investigación.

Página 118
Capítulo 8:

Resultados obtenidos

8.1 Introducción
Finalmente, en este capítulo se van a presentar los resultados de las
pruebas realizadas para las diversas opciones ya explicadas. Se van a ir
mostrando las pruebas que se realizaron cronológicamente para confirmar
todas las conclusiones dadas en los capítulos 4, 5, 6 y 7 y el porqué de cada
decisión tomada a la hora de ir modificando el sistema de captura de imágenes
y los algoritmos software a la vista de los resultados obtenidos.

Indicar que todos los resultados que se van a exponer en este capítulo
han sido obtenidos con el cuarto sistema de captura de imágenes, lo cual
supone una base de datos completa de 131 usuarios con las siguientes
características (tomada paulatinamente de enero de 2009 a marzo de 2011,
según iban surgiendo las necesidades de prueba, en todas las estaciones del
año y con condiciones cambiantes de luminosidad, temperatura y humedad del
habitáculo de toma de muestras):

• Sexo: 72 hombres y 59 mujeres

• Edad: 26 usuarios de 13-14 años, 28 usuarios de 14-15 años, 31


usuarios de 15-16 años, 19 usuarios de 17-20 años, 8 usuarios de
20-30 años, 5 usuarios de 30-40 años, 6 usuarios de 40-50 años,
4 usuarios de 50-60 años y 4 usuarios de 60-75 años.

• Raza: 89 usuarios europeos de raza blanca, 24 usuarios


sudamericanos de raza mulata, 8 usuarios norteafricanos de raza
árabe, 4 usuarios asiáticos de raza amarilla y 6 usuarios africanos
de raza negra.

Página 119
Capítulo 8: Resultados obtenidos

Primero se muestran los resultados obtenidos para el sistema primitivo


de fijación (sin fijación exacta de la muñeca), sin utilizar el algoritmo de
rotaciones ni traslaciones y sólo probando el sistema de reconocimiento
basado en la comparación orientable completa de imágenes, y luego se
muestran las diferentes pruebas realizadas con el sistema final de fijación (con
fijación exacta de la muñeca), sin y con el algoritmo de rotaciones y
traslaciones y probando el sistema de reconocimiento basado en la
comparación orientable completa de imágenes y el sistema basado en el
diferente ancho de la muñeca.

A continuación se presentan las últimas pruebas realizadas con el


sistema primitivo de fijación, pero ahora utilizando el algoritmo de rotaciones y
traslaciones, y probando el sistema de reconocimiento basado en la
comparación orientable completa de imágenes y el sistema basado en el
diferente ancho de la muñeca.

Finalmente se indican los datos de tiempo de ejecución de cada prueba


con la plataforma HW utilizada y una tabla comparativa de todos los resultados
dados.

Los resultados se van a apoyar en algunas de las curvas biométricas


explicadas en el capítulo 2. Como, en realidad, todas ellas ofrecen la misma
información y para no mostrar cada prueba con las 4 curvas (EER, ROC, DET y
distribución de probabilidad) y así cargar en exceso el capítulo con la misma
información, cada prueba se va a justificar sólo con 2 de ellas.

Se ha elegido para ello la curva EER y así mostrar gráficamente el


parámetro EER de cada prueba, así como la curva de distribución de
probabilidad para ver la diferencia entre la distribución de probabilidad de las
comparaciones intraclase e interclase y ver lo alejadas o cercanas que están y
si presentan o no intersección.

Página 120
Capítulo 8: Resultados obtenidos

Las pruebas serán tanto mejores cuanto más bajo sea el punto EER en
las curvas EER, y más alejadas y menos intersección muestren las curvas de
distribución de probabilidad de las comparaciones intraclase e interclase.

Todos los resultados se han obtenido utilizando la plataforma de pruebas


explicada en el anexo.

8.2 Resultados con el sistema primitivo de fijación, sin


traslaciones ni rotaciones

Al principio de esta Tesis Doctoral, sólo se probó el sistema de


reconocimiento basado en la comparación orientable completa de imágenes y
no el del ancho de la muñeca, dando como resultado la necesidad del sistema
de posicionamiento final a pesar del inconveniente añadido de incomodidad
que supone para el usuario. Las condiciones de las pruebas fueron las
siguientes:

• Sistema de fijación: Primitivo

• Nº de usuarios: 22

• Nº de manos: 1 (derecha)

• Nº de muestras/usuario: 4 (1 como patrón, 3 como muestras)

• Nº de comparaciones intraclase: 66

• Nº de comparaciones interclase: 1.386

La figura 80 muestra las curva de distribución de probabilidad de las


comparaciones intraclase e interclase con los resultados obtenidos para esta
prueba mientras que la figura 81 muestra las curcas EER obtenidas a partir de
los mismos.

Página 121
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad FNMR-FMR

0,500

0,450
0,444

0,400

0,350

0,295
0,300
Distribución

0,250

0,212
0,200

0,150
0,138 0,136 0,136

0,100 0,106 0,106


0,092 0,091
0,061 0,061 0,061
0,050
0,030 0,024
0,000 0,000 0,004 0,002 0,000 0,000 0,001
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%
Umbral

FNMR FMR

Figura 80: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema primitivo de fijación, sin utilizar ni traslaciones ni rotaciones

Curva EER

120,0%

100,0% 100,0% 99,6% 100,0%

85,9%
80,0% 78,8%
72,7%
Porcentaje

60,0% 59,1%

50,0%
43,9%
40,0% 41,5%

30,3%
24,2%
20,0%
12,0%
13,6%

3,0% 2,7%
0,0% 0,0% 0,4% 0,1% 0,1% 0,1% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
Umbral

FNMR FMR

Figura 81: Curvas EER para los resultados con el sistema primitivo de fijación, sin
utilizar ni traslaciones ni rotaciones

Página 122
Capítulo 8: Resultados obtenidos

Tal como se observa en esta prueba, los resultados obtenidos son


bastante malos (EER = 27,57 % con un umbral del 34,9%) y las curvas de
distribución de probabilidad están juntas y muy superpuestas, debido a que el
parámetro RECRUIT_DIL no es capaz de compensar las desviaciones entre las
muestras y los patrones, y por tanto el método de comparación orientable
completa falla en muchas ocasiones. La figura 82 muestra ejemplos de
diferentes fallos para una muestra sobrepuesta sobre el patrón del mismo
usuario.

Figura 82: Fallos con el sistema primitivo de fijación, sin utilizar ni traslaciones ni rotaciones

Se observa que en casi todos los casos, los errores son debidos al
desplazamiento de las muestras respecto a los patrones. Para resolver este
problema se pensó en la idea del sistema final de fijación que limitaría los
grados de libertad del usuario en las capturas y haría que las muestras de un
mismo usuario fuesen muy parecidas, con lo que presumiblemente los
resultados utilizando el algoritmo de reconocimiento con comparación
orientable completa deberían ser mucho mejores. Todas las pruebas
presentadas a partir de ahora en el punto 8.3 están hechas con el sistema final
de fijación.

Página 123
Capítulo 8: Resultados obtenidos

8.3 Resultados con el sistema final de fijación

Se presentan varias pruebas realizadas que corroboran las soluciones


dadas a lo largo de los diferentes capítulos para resolver los problemas
encontrados en los resultados del punto 8.2.

8.3.1 Sin traslaciones ni rotaciones, prueba para ajustar el parámetro


RECRUIT_DIL

Las condiciones de las pruebas fueron las siguientes:

• Sistema de fijación: Final

• Nº de usuarios: 9

• Nº de manos: 2 (izquierda y derecha)

• Nº de muestras/usuario: 5 (1 como patrón, 4 como muestra)

• Nº de comparaciones intraclase: 72

• Nº de comparaciones interclase: 576

A) Con el parámetro RECRUIT_DIL = 3

La primera prueba se hizo para ver como funcionaba el sistema con el


sistema final de fijación y ver si las similitudes de las muestras de cada usuario
se podían compensar en principio con RECRUIT_DIL = 3, que se seleccionó de
manera heurística tras unas primeras pruebas parciales iniciales. Al igual que
en el punto 8.2, de momento sólo se prueba el sistema de reconocimiento
basado en la comparación orientable completa de imágenes. La figura 83
muestra las curva de distribución de probabilidad de las comparaciones
intraclase e interclase con los resultados obtenidos para esta prueba, mientras
que la figura 84 muestra las curcas EER obtenidas a partir de los mismos.

Página 124
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad FNMR-FMR

0,500

0,450 0,458

0,411
0,400
0,378
0,350

0,300
Distribución

0,250

0,200

0,150 0,153
0,115

0,100
0,089 0,083
0,069
0,050 0,056 0,056
0,042 0,042
0,014 0,028
0,000 0,000 0,007 0,000 0,000 0,000 0,000 0,000
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%

Umbral

FNMR FMR

Figura 83: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema final de fijación, sin utilizar ni traslaciones ni rotaciones y RECRUIT_DIL = 3

Curva EER

120,0%

100,0% 100,0% 100,0%

91,1%

80,0%
Porcentaje

60,0%
53,3% 54,2%

40,0% 38,9%
31,9%
27,8%

20,0% 19,4% 22,2%


18,1%
13,9% 12,2%
5,6% 0,7%
0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 84: Curvas EER para los resultados con el sistema final de fijación, sin utilizar ni
traslaciones ni rotaciones y RECRUIT_DIL = 3

Página 125
Capítulo 8: Resultados obtenidos

Tal como se observa en esta prueba, los resultados obtenidos son más
aceptables (EER = 18,4 % con un umbral del 28,7%), gracias al sistema final
de fijación y a la similitud de las muestras, pero son claramente mejorables y lo
primero que se intentó probar es modificar el parámetro RECRUIT_DIL y ver
cómo repercutía en el parámetro EER y en la distribución de probabilidad de
las comparaciones intraclase e interclase, para ver si se podía optimizar este
parámetro mejor a las muestras obtenidas.

B) Con el parámetro RECRUIT_DIL = 6, 9, 12 y 15

Las condiciones de prueba son las mismas que las mostradas en el


apartado A de este punto, pero modificando el parámetro RECRUIT_DIL en
cada una de ellas. Las figuras 85, 86, 87 y 88 muestran las curvas de
distribución de probabilidad de las comparaciones intraclase e interclase con
los resultados obtenidos para esta prueba, mientras que las figuras 89, 90, 91 y
92 muestran las curcas EER obtenidas a partir de los mismos.

Curva de distribución de probabilidad FNMR-FMR

0,800

0,700 0,708

0,600

0,500
Distribución

0,400
0,378 0,349

0,300

0,200

0,151
0,125
0,100 0,095

0,042 0,042
0,028 0,028
0,014 0,014 0,014 0,012
0,000 0,000 0,000 0,000 0,000 0,000 0,000
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%

Umbral

FNMR FMR

Figura 85: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema final de fijación, sin utilizar ni traslaciones ni rotaciones y RECRUIT_DIL = 6

Página 126
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad FNMR-FMR

1,000

0,900
0,861

0,800

0,700

0,600
Distribución

0,500

0,400
0,328

0,316
0,300

0,200
0,184

0,100 0,090
0,050 0,042 0,042
0,028 0,021 0,028
0,000 0,000 0,009
0,000 0,000 0,000 0,000 0,002 0,000 0,000
0% 0-10% 10-20% 20-30% 30-40% 0,000 50-60%
40-50% 60-70% 70-80% 80-90% 90-100%

Umbral

FNMR FMR

Figura 86: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema final de fijación, sin utilizar ni traslaciones ni rotaciones y RECRUIT_DIL = 9

Curva de distribuciónd de probabilidad FNMR-FMR

1,000

0,900
0,917

0,800

0,700

0,600
Distribución

0,500

0,400

0,300 0,248 0,306


0,264
0,200

0,082
0,100
0,057 0,042
0,024 0,028 0,019
0,014
0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%
Umbral

FNMR FMR

Figura 87: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema final de fijación, sin utilizar ni traslaciones ni rotaciones y RECRUIT_DIL = 12

Página 127
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad FNMR-FMR

1,200

1,000 1,000

0,800
Distribución

0,600

0,400

0,300
0,234 0,243
0,200
0,108
0,068

0,035
0,000 0,000 0,000 0,003
0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,009
0,000 0,000
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%

Umbral

FNMR FMR

Figura 88: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema final de fijación, sin utilizar ni traslaciones ni rotaciones y RECRUIT_DIL = 15

Curva EER

120,0%

100,0% 100,0% 98,6% 100,0%

83,5%
80,0%
Porcentaje

60,0%

45,7%
40,0%

29,2%

20,0%
10,8% 16,7% 16,7%
13,9%
9,7% 11,1%
8,3%
4,2%
0,0% 0,0% 0,0% 1,2% 0,0% 0,0% 0,0% 0,0% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 89: Curvas EER para los resultados con el sistema final de fijación, sin utilizar ni
traslaciones ni rotaciones y RECRUIT_DIL = 6

Página 128
Capítulo 8: Resultados obtenidos

Curva EER

120,0%

100,0% 100,0% 99,1% 100,0%


94,1%

80,0%
75,7%
Porcentaje

60,0%

42,9%

40,0%

20,0%
13,9%
11,3% 11,1%
6,9% 6,9%
2,8% 2,8% 2,3%
0,0% 0,0% 0,0% 0,0% 2,8% 0,2% 0,0% 0,0% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 90: Curvas EER para los resultados con el sistema final de fijación, sin utilizar ni
traslaciones ni rotaciones y RECRUIT_DIL = 9

Curva EER

120,0%

100,0% 100,0% 100,0% 100,0%


97,6%
91,8%

80,0%

67,0%
Porcentaje

60,0%

40,0%
36,5%

20,0%

10,1% 8,3%
1,9%
2,8% 4,2%
0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 91: Curvas EER para los resultados con el sistema final de fijación, sin utilizar ni
traslaciones ni rotaciones y RECRUIT_DIL = 12

Página 129
Capítulo 8: Resultados obtenidos

Curva EER

120,0%

100,0% 100,0% 100,0% 99,7% 100,0%


96,2%
85,4%

80,0%
Porcentaje

62,0%
60,0%

40,0%

31,9%

20,0%

7,6%
0,9%
0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 92: Curvas EER para los resultados con el sistema final de fijación, sin utilizar ni
traslaciones ni rotaciones y RECRUIT_DIL = 15

Tal como se observa en esta prueba, los resultados obtenidos para el


parámetro EER son cada vez mejores a medida que aumenta el valor del
parámetro RECRUIT_DIL:

• EER = 10,2 % con un umbral del 41,2% para RECRUIT_DIL = 6

• EER = 5,1 % con un umbral del 57,3% para RECRUIT_DIL = 9

• EER = 2,2 % con un umbral del 68,4% para RECRUIT_DIL = 12

• EER = 0 % con un umbral del 88,7% para RECRUIT_DIL = 15

Se observa incluso que se puede llegar a obtener un ERR = 0 con


RECRUIT_DIL = 15, pero tal como se explicó en el capítulo 2, el parámetro
EER no es el único que se debe tener en cuenta a la hora de tomar decisiones
sobre los sistemas biométricos. Dicho esto, también se observa que las curvas
de distribución de probabilidad de las comparaciones intraclase e interclase se
van aproximando cada vez más y lo deseable es tener EER bajos pero con

Página 130
Capítulo 8: Resultados obtenidos

dichas curvas los más separadas posible. Esto hace ponderar ambos aspectos
y tomar la decisión de elegir el parámetro RECRUIT_DIL = 6 para las pruebas
sucesivas. Con este valor ya se obtiene un EER relativamente bueno (10%
aproximadamente) y las curvas están más separadas que con DIL = 9, 12 ó 15.
Se descarta el valor DIL = 3 por tener un EER de un 20% aprox. y considerar
que quizá es demasiado restrictivo y exigiría imágenes de muestras y patrones
prácticamente idénticas para su buen funcionamiento.

8.3.2 Sin traslaciones ni rotaciones, pruebas adicionales

Para corroborar estos resultados y validarlos con más usuarios se hace


paulatinamente una captura posterior de 100 muestras de la mano derecha con
el sistema final de fijación y las mismas premisas que con las pruebas
anteriores del punto 8.3.1 (5 muestras para cada usuario: 1 utilizada como
patrón y 4 utilizadas como muestras). Además, en estas pruebas el sistema
también añade por primera vez el reconocimiento basado en la diferencia del
ancho de muñeca para ver su comportamiento. Las condiciones de prueba son
las siguientes:

• Sistema de fijación: Final

• Nº de usuarios: 100

• Nº de manos: 1 (derecha)

• Nº de muestras/usuario: 5 (1 como patrón, 4 como muestra)

• Nº de comparaciones intraclase: 400

• Nº de comparaciones interclase: 39.600

El resultado final se muestra en las figuras 93 y 94. La figura 93 muestra


las curva de distribución de probabilidad de las comparaciones intraclase e
interclase, mientras que la figura 94 muestra las curcas EER obtenidas a partir
de los mismos.

Página 131
Capítulo 8: Resultados obtenidos

Curva de disptribución de probabilidad FNMR-FMR

0,900

0,823
0,800

0,700

0,600
Distribución

0,500

0,400

0,326
0,300
0,263
0,203
0,200

0,100
0,088 0,084 0,033 0,083
0,025 0,015
0,000 0,000 0,003 0,008 0,005 0,008 0,013 0,010 0,008 0,002 0,000 0,000
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%

Umbral

FNMR FMR

Figura 93: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema final de fijación, sin utilizar ni traslaciones ni rotaciones, DIL = 6 y 100 usuarios

Curva EER

120,0%

100,0% 100,0% 100,0%

91,2%

80,0%
Porcentaje

64,9%
60,0%

40,0%

32,3%

20,0%
12,0% 17,7%
6,1%
3,6% 4,5% 9,3%

1,0% 1,5% 2,3% 3,5% 1,1%


0,0% 0,0% 0,3% 0,3% 0,1% 0,1% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 94: Curvas EER para los resultados con el sistema final de fijación, sin utilizar ni
traslaciones ni rotaciones, DIL = 6 y 100 usuarios

Página 132
Capítulo 8: Resultados obtenidos

Tal como se observa en esta prueba, los resultados obtenidos son


similares o incluso mejores a los obtenidos en el punto anterior con
RECRUIT_DIL = 6 (ERR = 3,55% al 51% de umbral frente al 10,2% del punto
anterior).

En cualquier caso, se demuestra que a pesar de la eliminación de


grados de libertad en el sistema de capturas y obtener imágenes de muestra
muy similares, el sistema no es capaz de bajar apenas del 3-4% de error para
el parámetro EER.

Por eso, en la siguiente prueba se añade el algoritmo de traslaciones y


rotaciones, lo que presumiblemente tendría que hacer bajar el EER a un valor
bastante inferior al indicado en este punto.

También se comprueba que el máximo valor de desviación de ancho de


muñeca para autenticaciones validadas con el método de comparación
orientable completa de imágenes es de 12 píxeles, al que se le puede sumar
un 70% de tolerancia, dando un valor de 20 que se puede estimar como umbral
heurístico de partida para eliminar aquellas identificaciones que den un valor
superior al este método de reconocimiento, tal como ya se comentó en el
capítulo 6.

Este valor se analiza y justifica con más detalle en las siguientes


pruebas, añadiendo los resultados de esta prueba (realizada sólo con
autenticaciones) a los resultados de las identificaciones.

8.3.3 Con traslaciones y rotaciones

En estas pruebas se utiliza el mismo grupo de pruebas que en el punto


8.3.2, pero añora se añade el algoritmo de traslaciones y rotaciones a la
plataforma de pruebas.

También se comprueban finalmente los valores de diferencia de ancho


de muñeca tanto para autenticaciones como para identificaciones, para ver si
se puede utilizar previamente como sistema de reconocimiento de descarte
preliminar como se pretendía en principio.

Página 133
Capítulo 8: Resultados obtenidos

El resultado final se muestra en las figuras 95, 96 y 97 (100 usuarios,


400 comparaciones de autenticación y 39.600 comparaciones de identificación
(49 rotaciones + traslaciones: rotaciones = 0, traslaciones en horizontal = 7 (4
izquierda + 3 derecha), traslaciones en vertical = 7 (4 izquierda + 3 derecha))).

La figura 95 muestra las curva de distribución de probabilidad con el


primer método de comparación (diferencia del ancho de la muñeca) sólo para
las autenticaciones (intraclase), mientras que la figura 96 muestra las mismas
curvas con el primer método de comparación, pero ahora para las
identificaciones (interclase) y añadiendo la curva del porcentaje acumulado.

La figura 97 muestra las curvas EER obtenidas para esta prueba.

Curva de distribución de probabilidad para el ancho de la muñeca (valor) con


autenticaciones

0,160

0,140
0,135

0,120 0,119

0,100
0,096

0,080 0,083
0,077 0,079

0,060

0,048
0,044
0,040
0,033

0,020
0,023
0,017

0,004 0,004
0,000 0,000
0 1 2 3 4 5 6 7 8 9 10 11 12 >12

Pixels

Pixel distance

Figura 95: Curvas de distribución de probabilidad para los resultados con el sistema final de
fijación, utilizando traslaciones y rotaciones, DIL = 6 y 100 usuarios, para el primer método de
comparación y autenticaciones

Página 134
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad para el ancho de la muñeca (valor + porcentaje


acumulado) con identificaciones

6000

5127
5306
5187
5000
4709

4249
4000
Valor
3432
3166
3000

2200

2000
2267 1923

1000 Porcentje acumulado 1242

40,25 52,38 63,33 72,18 86,18


26,88 80,33 91,13 100,00
13,21 94,33

0
0-10 10-20 20-30 30-40 40-50 50-60 60-70 70-80 80-90 90-100 > 100

Pixels

Pixel distance Porcentaje acumulado

Figura 96: Curvas de distribución de probabilidad para los resultados con el sistema final de
fijación, utilizando traslaciones y rotaciones, DIL = 6 y 100 usuarios, para el primer método de
comparación, autenticaciones e identificaciones

Curva EER

120,0%

100,0% 99,9%
100,0% 100,0%
97,2%

83,0%
80,0%
Porcentaje

60,0% 54,1%

40,0%

25,4%

20,0%

9,3%
7,3%
2,8%
0,5% 0,7%
0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,1% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 97: Curvas EER para los resultados con el sistema final de fijación, utilizando
traslaciones ni rotaciones, DIL = 6 y 100 usuarios, para el segundo método de comparación

Página 135
Capítulo 8: Resultados obtenidos

Tal como se observa en esta prueba, los resultados obtenidos son muy
buenos con RECRUIT_DIL = 6, incluso sin necesidad de realizar rotaciones,
gracias a que el parámetro RECRUIT_DIL es capaz de absorber las posibles
desviaciones de rotación (ERR = 0,55% al 81,3% de umbral frente al 4-10% de
los resultados obtenidos con el mismo sistema sin rotaciones ni traslaciones).

Se demuestra con un número elevado de usuarios la fiabilidad del


sistema presentado en esta Tesis Doctoral. Además se observa que si se elige
un umbral de 20 para el primer método con el ancho de la muñeca (12 + 8
píxeles (70% más de tolerancia)), sólo serían necesarias realizar 10.433
comparaciones (aproximadamente un 26% del total) con el método de la
comparación orientable completa, el resto ya se podrían descartar y se
ahorraría tiempo de ejecución en el sistema completo.

A pesar de estos resultados, que corroboran la fiabilidad del sistema


total, se hizo una última prueba con el sistema primitivo de fijación aplicando el
algoritmo de traslaciones y rotaciones para las muestras del grupo de usuarios
utilizados en las pruebas del punto 8.2. Esta prueba habría que completarla con
más usuarios para dar resultados más fiables, tal como se comenta en el punto
de líneas de investigación futuras, pero serviría como primera evidencia sobre
la viabilidad de la idea de esta Tesis Doctoral con sistemas que no fijen tan
exactamente la posición de la muñeca. Las hipótesis de partida es que se
necesitarán más comparaciones para el segundo sistema de comparación que
las usadas en las pruebas realizadas en este punto para obtener resultados
parecidos, al tener que realizar posiblemente más traslaciones y la necesidad
de incluir rotaciones respecto a las pruebas de este punto.

8.4 Resultados con el sistema primitivo de fijación, con


traslaciones y rotaciones

Se utilizan las mismas muestras del grupo presentado en el punto 8.2


que dieron un resultado EER = 27,57%. Las condiciones completas de esta
prueba son las siguientes:

Página 136
Capítulo 8: Resultados obtenidos

• Sistema de fijación: Primitivo

• Nº de usuarios: 22

• Nº de manos: 1 (derecha)

• Nº de muestras/usuario: 4 (1 como patrón, 3 como muestras)

• Nº de comparaciones intraclase: 66

• Nº de comparaciones interclase: 1.386

• Rotaciones: 2 (1 en el sentido horario + 1 en el sentido


antihorario)

• Traslaciones en horizontal: 9 (5 izquierda + 4 derecha)

• Traslaciones en vertical: 9 (5 izquierda + 4 derecha)

• Número de comparaciones totales para el segundo método


de comparación: 244

La figura 98 muestra las curvas de distribución de probabilidad con el


primer método de comparación (diferencia del ancho de la muñeca) aplicada a
las autenticaciones (intraclase), mientras que la figura 99 muestra las mismas
curvas pero para las identificaciones (interclase) y mostrando el porcentaje
acumulado. La figura 100 muestra las curvas de distribución de probabilidad de
las comparaciones intraclase e interclase para el segundo método de
comparación (comparación orientable completa), mientras que la figura 101
muestra las curvas EER obtenidas a partir de los mismos.

Página 137
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad para el ancho de la muñeca (valor) con


autenticaciones

0,030

0,025 0,025

0,021
0,020

0,017

0,015 0,015

0,013

0,010
0,010 0,010

0,006 0,006
0,005
0,004

0,000 0,000
0-3 4-6 7-9 10-12 13-15 16-18 22-24 25-27 28-30 30-32 >32

Pixels

Pixel distance

Figura 98: Curvas de distribución de probabilidad para los resultados con el sistema primitivo
de fijación, utilizando traslaciones y rotaciones, para el primer método de comparación y
autenticaciones

Curva de distribución de probabilidad para el ancho de la muñeca (valor + porcentaje


acumulado) con identificaciones

200

176
180

160 162
153 151
140 130
137

120
123
116
Valor 100,00

100 85,86 90,62


79,15 93
73,45
80 65,08
56,20
79
60 45,31
66
35,43
40
24,39 Porcentje acumulado
12,70
20

0
0-10 10-20 20-30 30-40 40-50 50-60 60-70 70-80 80-90 90-100 > 100

Pixels

Pixel distance Porcentaje acumulado

Figura 99: Curvas de distribución de probabilidad para los resultados con el sistema primitivo
de fijación, utilizando traslaciones y rotaciones, para el primer método de comparación,
autenticaciones e identificaciones

Página 138
Capítulo 8: Resultados obtenidos

Curva de distribución de probabilidad FNMR-FMR para la comparación orientable


completa

0,900

0,800 0,803

0,700

0,600
Distribución

0,500

0,418
0,400

0,300 0,308

0,200
0,118 0,167
0,130
0,100

0,030
0,019
0,000 0,000 0,000 0,000 0,002
0,000 0,000 0,000 0,000 0,000 0,001 0,004
0% 0-10% 10-20% 20-30% 30-40% 40-50% 50-60% 60-70% 70-80% 80-90% 90-100%

Umbral

FNMR FMR

Figura 100: Curvas de distribución de probabilidad de las comparaciones intraclase e interclase


con el sistema primitivo de fijación, utilizando traslaciones y rotaciones, para el segundo
método de comparación

Curva EER

120,0%

100,0% 100,0% 100,0% 100,0% 99,8%


98,5%
88,0%

80,0%
Porcentaje

60,0%

46,2%

40,0%

20,0% 19,7%
15,4%

3,0%
2,5%
0,6% 0,1%
0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0% 0,0%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

Umbral

FNMR FMR

Figura 101: Curvas EER para los resultados con el sistema primitivo de fijación, utilizando
traslaciones y rotaciones, para el segundo método de comparación

Página 139
Capítulo 8: Resultados obtenidos

Tal como se observa en esta prueba, los resultados obtenidos son


parecidos a los obtenidos en el punto 8.3.3 (EER = 1,53% con un umbral del
75,1% y un máximo de ancho de muñeca para descartes con el primer método
de reconocimiento de 50 píxeles (32 (máximo en autenticaciones en este caso)
+ 18 (55% de tolerancia)), lo que significa que sólo sería necesario realizar el
56% de verificaciones aproximadamente con el método de comparación
orientable completa (779 por debajo de 50 píxeles en el ancho de la muñeca),
descartando la segunda comparación con todos aquellos valores que fuesen
superiores.

La ventaja de este sistema con el sistema primitivo de fijación es que se


mejora la comodidad del usuario a la hora de captar las imágenes, haciendo
que las muestras del mismo usuario no sean tan semejantes.

Uno de los inconvenientes es que el umbral para el primer método de


comparación (ancho de la muñeca) sube de 20 a 50 por el hecho de que ahora
las imágenes no van a ser tan semejantes y eso hace que este primer método
de comparación no sea tan restrictivo con lo que hay que hacer más
comparaciones con el segundo método de comparación (comparación
orientable completa).

Otro inconveniente es que el algoritmo de traslaciones y rotaciones es


más intensivo en cálculo, al provocar que haya que hacer ahora 244
comparaciones totales frente a las 49 del punto 8.3.3, para obtener resultados
parecidos, y por tanto aumente mucho el tiempo de ejecución del sistema.

Finalmente, otro problema es que las curvas EER y de distribución de


probabilidad se acercan más que en el caso anterior, lo cual no es deseable.

8.5 Resultados temporales

Para terminar el capítulo de pruebas, se van a indicar los resultados de


tiempo de ejecución de cada una de las pruebas, con las diferentes partes de
cada algoritmo explicado, para tener una idea sobre la rapidez de la solución
propuesta.

Página 140
Capítulo 8: Resultados obtenidos

Lógicamente estos tiempos de ejecución dependen de la lógica de


programación de la plataforma de pruebas (cuyo diagrama de bloques se
muestra en la figura 102 del anexo) y de la plataforma HW y SW del PC
utilizado. Ambos aspectos son susceptibles de cambio y mejora en
investigaciones y estudios futuros.

Las características HW y SW del PC utilizado para ejecutar la plataforma


de pruebas y obtener los resultados mostrados en este capítulo son las
siguientes:

• Procesador Intel Pentium M 725 (1,6 GHz, 400 MHz FSB, 2 MB L2


Caché)

• Memoria RAM de 2 GB DDR2 (Support Dual-Channel)


• Disco Duro de 100 GB
• Sistema operativo Microsoft Windows Profesional 2002 + SP3
• MATLAB R2007b V7.5.0.342 como lenguaje de programación para el
desarrollo de la plataforma de pruebas

Sobre los tiempos de ejecución obtenidos al ejecutar las acciones de la


plataforma de pruebas indicadas en el punto A.3.3 del anexo, indicar que lo que
se expone son los tiempos medios obtenidos tras aplicar la medida a varios
usuarios aleatorios de la base de datos. También hay que mencionar que el
tiempo de reclutamiento, de preprocesado, de extracción de características y
del primer método de comparación van a ser de media los mismos en todas las
pruebas, ya que estos procesos son independientes del sistema de fijación de
la muñeca y del algoritmo de traslaciones y rotaciones. Además sólo se indica
el tiempo de autenticación (una comparación de una muestra con su patrón), ya
que el tiempo de las identificaciones sería el mismo pero multiplicado por el
número de usuarios de la base de datos con los que se compara.

Los tiempos de ejecución obtenidos con la plataforma HW y SW utilizada


se muestran en la tabla 4. Se han realizado 5 pruebas de cada tipo con
usuarios elegidos aleatoriamente para finalmente obtener los valores medios.
Los tiempos medios se ofrecen en segundos y entre paréntesis se muestran los
valores máximo y mínimo.

Página 141
Capítulo 8: Resultados obtenidos

Tabla 4: Tiempos de ejecución para los algoritmos con cada prueba

Propiedad de la prueba / Apartado de este capítulo 8.2 8.3.1 8.3.2 8.3.3 8.4

Sistema de fijación para la muñeca Primitivo Final Final Final Primitivo

Utilización del 1º método de comparación NO NO SI SI SI

Traslaciones para el 2º método de comparación NO NO NO 7(4+3) 9(5+4)

Rotaciones para el 2º método de comparación NO NO NO 0 2

Nº de comparaciones para el 2º método de


1 1 1 49 244
comparación

PREPROCESADO: ROI
Ampliación de histograma +
Reconstrucción morfológica 0,3 (0,29 – 0,31)
RECLUTAMIENTO

Eliminación de puntos interiores + 0,9 (0,77 – 1,24)


Recorte final de ROI

EXTRACCIÓN DE CARACTERÍSTICAS:
Obtención de las líneas + Dilatación
1,6 (1,33 – 1,96)
Binarización + Eliminación de líneas
0,2 (0,16 – 0,23)
erróneas + Dilatación final

TIEMPO TOTAL DE RECLUTAMIENTO 3,0 (2,55 - 3,74)

PREPROCESADO: ROI
Ampliación de histograma + 0,3 (0,28 – 0,33)
Reconstrucción morfológica
0,9 (0,75 – 1,27)
Eliminación de puntos interiores +
Recorte final de ROI
VERIFICACIÓN

EXTRACCIÓN DE CARACTERÍSTICAS:
1,6 (1,31 – 1,99)
Obtención de las líneas + Dilatación
0,2 (0,15 – 0,25)
Binarización + Eliminación de líneas
erróneas

1º MÉTODO DE COMPARACION:
0 0 0,005(0,0043-0,0056)
ANCHO DE LA MUÑECA

0,89 4,46
2º MÉTODO DE COMPARACIÓN:
0,012 (0,009-0,015) (0,75- (4,23-
COMPARACION ORIENTABLE
1,04) 4,84)

3,02 3,90 7,46


TIEMPO TOTAL DE VERIFICACIÓN 3,01 (2,51 - 3,72) (2,52 - (3,24 - (6,72 -
3,73) 4,77) 8,68)

8.6 Conclusiones

La tabla 5 muestra como conclusión un resumen comparativo de todos


los resultados mostrados y comentados en este capítulo, considerando todas

Página 142
Capítulo 8: Resultados obtenidos

las variantes utilizadas. Esta tabla va a servir más tarde como parte de las
conclusiones generales y líneas de investigación futuras de esta Tesis Doctoral
mostrados en el capitulo siguiente.

Tabla 5: Comparativa final de resultados para el sistema biométrico completo

Propiedad de la
prueba / Apartado de 8.2 8.3.1 8.3.2 8.3.3 8.4
este capítulo

Sistema de fijación
Primitivo Final Final Final Primitivo
de la muñeca

Comodidad para el
Alta Baja Baja Baja Alta
usuario

Nº de imágenes por
usuario (patrón + 4(1+3) 5(1+4) 5(1+4) 5(1+4) 4(1+3)
muestras)

Nº de usuarios
22 9 100 100 22
utilizados

Nº de muñecas
1 2 1 1 1
utilizadas

Comparaciones
66 72 400 400 66
intraclase

Comparaciones
1.386 576 39.600 39.600 1.386
interclase

Traslaciones para el
2º método de NO NO NO 7(4+3) 9(5+4)
comparación

Rotaciones para el 2º
método de NO NO NO 0 2
comparación

Nº de comparaciones
para el 2º método de 1 1 1 1 1 1 1 49 244
comparación

Parámetro
6 3 6 9 12 15 6 6 6
RECRUIT_DIL

Umbral en píxeles
para el 1º método de NO NO NO NO NO NO 20 20 50
comparación

EER 27,57 18,4 10,2 5,1 2,2 0 3,55 0,55 1,53

Tiempo de ejecución
medio para 3,01 3,01 3,02 3,90 7,46
autenticación (seg.)

Página 143
Capítulo 8: Resultados obtenidos

Página 144
Capítulo 9:

Conclusiones y líneas de
investigación futuras

9.1 Conclusiones generales

A la vista de los resultados obtenidos en el capítulo 4 sobre el sistema


de captura de imágenes y en el capítulo 8 sobre el sistema biométrico
completo, las principales conclusiones que se desprenden son las siguientes:

1 El sistema de captura de imágenes obtiene imágenes de las venas de la


muñeca con muy buena calidad y suficiente diferencia entre vena y carne
para que sus características puedan ser extraídas (esqueleto en forma de
imagen binaria y dilatada) y se produzca su reconocimiento posterior con
algoritmos software.

2 El algoritmo de extracción de características obtiene muy buenos


resultados, independientemente de las características de usuario (edad,
raza y sexo) y del entorno (humedad y temperatura).

3 Los algoritmos de reconocimiento, si bien son bastante sencillos, obtienen


unos resultados excelentes en la plataforma de pruebas con las muestras,
corroborando la buena calidad del sistema de imágenes y del algoritmo de
extracción de características.

4 El sistema completo desarrollado cumple con los objetivos propuestos al


principio de esta Tesis Doctoral (obtención de un primer sistema completo
biométrico vascular con una plataforma de pruebas abierta para probar
cualquier algoritmo de extracción de características y reconocimiento) con
unos tiempos de ejecución bajos gracias a su sencillez.

Página 145
Capítulo 9: Conclusiones y líneas de investigación futuras

9.2 Líneas de investigación futuras

Sin embargo, el sistema tiene algunos puntos susceptibles de mejora


que deben ser tratados en investigaciones futuras (algunas de las cuales ya
están siendo actualmente desarrolladas en el Grupo de Investigación GUTI) y
que se comentan a continuación, agrupando las conclusiones parciales que se
han indicado en cada capítulo del documento.

1. En el sistema completo implementado habría que desarrollar un método


de posicionamiento de la muñeca más comercial y mas cómodo para el
usuario, basándose en la idea indicada en el capítulo 4, ya que un punto
fundamental del sistema actual es la necesidad de limitar lo más posible
los grados de libertad del usuario, para así garantizar la similitud de las
muestras con los patrones en el algoritmo de reconocimiento basado en
la comparación orientable completa, lo que provoca una cierta
incomodidad para el usuario a la hora de la adquisición. Como objetivo
final se plantea que se pudiera obtener un sistema que capture
imágenes con la mano en el aire y en movimiento (“acquisition on the
move”).

2. Si se desarrolla un sistema con más grados de libertad y que no exija


un posicionamiento tan estricto de la muñeca, que sería un punto a
mejorar en el futuro, las imágenes ya no van a ser tan similares y habría
que adaptar todos los algoritmos desarrollados y expuestos en los
capítulos 5 y 6.

3. Habría que realizar más pruebas con nuevos usuarios para validar los
resultados y ajustar, si es necesario, los parámetros de extracción de
características mencionados en el capítulo 5, especialmente el
parámetro CN MAX para establecer el límite de las líneas erróneas y las
líneas correctas, que ha sido elegido completamente de manera
heurística y podría ajustarse con más detalle en cada muestra,
haciendo un análisis previo más exacto de la misma.

4. Para la adaptación de los distintos algoritmos a un sistema con más


grados de libertad, se propone lo siguiente:

Página 146
Capítulo 9: Conclusiones y líneas de investigación futuras

• Habría que cambiar el preprocesamiento para obtener una ROI de


manera dinámica, es decir, no utilizar una línea horizontal fija
(parámetro ROW_ROI del algoritmo de esta Tesis Doctoral) para
extraer una ROI cuadrada ajustada siempre a 50 píxeles del borde
inferior. Por ejemplo, se podría seleccionar una ROI que obtenga la
máxima zona rectangular con información de la muñeca.

• Como las imágenes de cada usuario ya no va a ser tan similares


como en el sistema propuesto en esta Tesis Doctoral, no se van a
poder comparar de manera completa con los patrones guardados,
debido a que las muestras y patrones para realizar el método de
comparación orientable completa no tendrán porqué tener el mismo
tamaño. Por ello, se propone hacer una comparación orientable
parcial entre una zona reducida de las muestras y el patrón completo
del reclutamiento.

• Para elegir esta zona reducida de la muestra a comparar con el


patrón completo, se propone realizar un análisis previo de dicha
muestra para extraer la zona con la máxima información vascular
posible, por ejemplo, un análisis de minucias (puntos de intersección
o puntos finales) de la imagen vascular binaria y así elegir aquella
zona con mayor cantidad de minucias, para a partir de ella comparar
de manera orientable con el patrón del reclutamiento mediante el
algoritmo de traslaciones y rotaciones propuesto en el punto 6.3.3.

5. Otro punto importante sería el de corroborar todos estos resultados con


más usuarios. Habría que seguir investigando y tomar más muestras y
patrones a más usuarios, especialmente para confirmar los resultados
mostrados en el punto 8.4, tal como se comentó. Aunque el sistema con
el sistema de posicionamiento final se haya probado con 100 usuarios
diferentes y en diferentes condiciones de edad, sexo y raza, habría que
llegar a hacer pruebas con una cifra muy superior para validarlos
completamente, utilizando para ello la plataforma de pruebas explicada
en el anexo, con unas simples adaptaciones fáciles de implementar.

Página 147
Capítulo 9: Conclusiones y líneas de investigación futuras

6. En concordancia con este último punto, la plataforma de pruebas se ha


desarrollado con Matlab, pero el sistema completo se podría adaptar a
plataformas software con lenguajes de programación más eficaces y
rápidos, que puedan funcionar más a nivel de máquina y evitar las
múltiples capas de abstracción de Matlab. Una solución en este sentido
podría ser la exportación de los algoritmos al lenguaje C o C# si se
quiere seguir manteniendo la idea de una solución software, o incluso a
lenguaje VHDL para implementar el sistema a nivel hardware.

Finalmente, reseñar que las líneas de investigación futuras propuestas


en los puntos 2 y 4 tendrían la desventaja de aumentar el tiempo de ejecución
al complicar claramente los algoritmos a desarrollar, pero reduciría la
complejidad del sistema de fijación exacto de la muñeca propuesto en esta
Tesis y aumentaría la comodidad del usuario en la captura de imágenes.
Habría que llegar a un compromiso entre velocidad de cálculo y comodidad
para obtener un sistema comercial.

Página 148
Capítulo 10:

Refererencias bibliográficas

[AIS04] Negoita, Mircea; Howlett, Robert; Jain, Lakhmi; Shimooka,


Toshiyuki; Shimizu, Koichi. “Artificial Immune System for Personal
Identification with Finger Vein Pattern”, Knowledge-Based
Intelligent Information and Engineering Systems, Lecture Notes in
Computer Science 2004, Springer Berlin / Heidelberg, pp. 511-
518, vol. 3214. doi: 10.1007/978-3-540-30133-2_67

[BAH04] Tanaka, T.; Kubo, N. “Biometric authentication by hand vein


patterns,” SICE 2004 Annual Conference on, vol. 1, pp.249-253
vol. 1, 4-6 Aug. 2004

[BPI99] Jain, A.; Bolle, R.; Pankanti. Biometrics: Personal Identification In


Networked Society, Kluwer Academic Publishers, 1999. 407p.
ISBN 0-7923—8345-1

[BPI02] Mansfield, A. J.; Wayman, J. L. Best practices in testing and


reporting performance of biometric devices. Technical report,
National Physical Laboratory Report, xxiii, pp. 16,18, 35

[B+W08] Schneider Optics


Disponible en World Wide Web: “Schneider Optics”,
http://www.schneideroptics.com/ecommerce/catalogsubcategorydi
splay.aspx?cid=57
[Consulta: 13 de octubre de 2008]

[BVU04] Chih-Lung Lin; Kuo-Chin Fan. "Biometric verification using thermal


images of palm-dorsa vein patterns", Circuits and Systems for
Video Technology, IEEE Transactions on, vol.14, no.2, pp. 199-
213, Feb. 2004. doi: 10.1109/TCSVT.2003.821975

[CHW10] Suarez Pascual, J.E.; Uriarte-Antonio, J.; Sanchez-Reillo, R.;


Lorenz, M.G. "Capturing Hand or Wrist Vein Images for Biometric
Authentication Using Low-Cost Devices", Intelligent Information
Hiding and Multimedia Signal Processing (IIH-MSP), 2010 Sixth
International Conference on, vol. 1, pp.318-322, 15-17 Oct. 2010.
doi: 10.1109/IIHMSP.2010.85

Página 149
Capítulo 10: Referencias bibliográficas

[CVB98] D. G. Joshi; Y. V. Rao; S. Kar; Valli Kumar; R. Kumar. “Computer-


vision-based approach to personal identification using finger
crease pattern”, Pattern Recognition, vol. 31, issue 1, January
1998, pp. 15-22. doi: 10.1016/S0031-3203(97)00034-4

[DCM08] DCM Sistemes.


Disponible en World Wide Web: “DCM Sistemes”,
http://www.dcmsistemes.com
[Consulta: 13 de agosto de 2009]
[DMS99] Jain, A.K.; Duta, N. "Deformable matching of hand shapes for user
verification," Image Processing, 1999. ICIP 99. Proceedings. 1999
International Conference on, vol.2, pp.857-861, 24-28 Oct. 1999.
doi: 10.1109/ICIP.1999.823019

[EAS09] Cortés Martínez, Francisco. Estado del arte de sistemas


biométricos de reconocimiento mediante la identificación de
patrones de las venas de la mano. Informe técnico. Leganés, 5 de
agosto 2008, 32 p. Informe técnico, Universidad Carlos III de
Madrid

[EHV08] Shi Zhao; Yiding Wang; Yunhong Wang. "Extracting Hand Vein
Patterns from Low-Quality Images: A New Biometric Technique
Using Low-Cost Devices," Image and Graphics, 2007. ICIG 2007.
Fourth International Conference on, vol. 1, pp. 667-671, 22-24
Aug. 2007. doi: 10.1109/ICIG.2007.97

[EYS08] EYSEO.
Disponible en World Wide Web: “Eyseo IP / Film & Live Pictures /
Service & Downloads / International - ABUS Security-Center”,
http://www.abus-sc.co.uk/International/Service-Downloads/Film-
Live-Pictures/Eyseo-IP
[Consulta: 8 de octubre de 2008]

[FEH06] Zhong Bo Zhang; Dan Yang Wu; Si Liang Ma; Jie Ma. "Feature
Extraction of Hand-Vein Patterns Based on Ridgelet Transform
and Local Interconnection Structure Neural Network", Lecture
Notes in Control and Information Sciences, 2006. International
Conference on, vol. 345, pp. 870-875, 13-15 Oct. doi:
10.1007/978-3-540-37258-5_106

[FLF09] Jian-Gang Wang; Wei-Yun Yau; Suwandy, A. "Feature-level fusion


of palmprint and palm vein for person identification based on a
“Junction Point” representation," Image Processing, 2008. ICIP
2008. 15th IEEE International Conference on, vol. 1, pp. 253-256,
12-15 Oct. 2008. doi: 10.1109/ICIP.2008.4711739

Página 150
Capítulo 10: Referencias bibliográficas

[FPP09] Jian-Gang Wang; Wei-Yun Yau; Suwandy, A.; Sung, E. "Fusion of


Palmprint and Palm Vein Images for Person Recognition Based on
"Laplacianpalm" Feature," Computer Vision and Pattern
Recognition, 2007. CVPR '07. IEEE Conference on, vol. 1, pp. 1-8,
17-22 June 2007. doi: 10.1109/CVPR.2007.383386

[FUJI06] Fujitsu Ltd.


Disponible en World Wide Web: “Biometrics: PalmSecure : Fujitsu
Europe, Middle East and Africa”,
http://www.fujitsu.com/emea/products/biometrics/
[Consulta: 20 de noviembre de 2008]

[GSS06] Lingyu Wang; Leedham, G. "Gray-Scale Skeletonization of


Thermal Vein Patterns Using the Watershed Algorithm in Vein
Pattern Biometrics", Computational Intelligence and Security, 2006
International Conference on , vol.2, pp.1597-1602, 3-6 Nov. 2006.
doi: 10.1109/ICCIAS.2006.295332

[HITA06] Hitachi Ltd.


Disponible en World Wide Web: “Biometrics Reader:Hitachi
Information & Control Solutions, Ltd”,
http://www.hitachi-ics.co.jp/product/english/products/bio01.htm
[Consulta: 13 de septiembre de 2008]

[HIU00] H. J. Lin, H. H. Guo, F.W. Yang, C. L. Chen. “Handprint


identification using fuzzy inference”, In Proc. 13th IPPR Conf.
Computer Vision Graphics and Image Processing (CVGIP 2000),
Taipei, Taiwan, vol. 2, pp. 164-168, 20- 22 August 2000

[HOB02] Tuchin, Valery V. Handbook of Optical Biomedical Diagnostics.


SPIE Press Monograph, vol. PM107, 1096 p., 2002

[HPI02] Jane You; Wenxin Li; Zhang, David. “Hierarchical palmprint


identification via multiple feature extraction,” Pattern Recognition,
vol. 35, pp. 847–859, 2002. doi: 10.1016/S0031-3203(01)00100-5

[IBG10] International Biometric Group, “Comparative Biometric Testing.


Round 6 Public Report”, September 2006.
Disponible en World Wide Web: “http://www.nws-
sa.com/biometrics/CBT6_public_report.pdf”,
http://www.nws-sa.com/biometrics/CBT6_public_report.pdf

[IMS08] The Imaging Source GmbH.


Disponible en World Wide Web: “The Imaging Source - Industrial
Cameras, Frame Grabbers, Video Converters & Software”,
http://www.theimagingsource.com
[Consulta: 7 de noviembre de 2008]

Página 151
Capítulo 10: Referencias bibliográficas

[IVP00] Sang-Kyun Im; Hyung-Man Park; Soo-Won Kim; Chang-Kyung


Chung; Hwan-Soo Choi. “Improved vein pattern extracting
algorithm and its implementation”, Consumer Electronics, 2000.
ICCE. 2000 Digest of Technical Papers. nternacional Conference
on, vol. 1, pp.2-3, 2000. doi: 10.1109/ICCE.2000.854470

[IVT05] Toh, Kar-Ann; Eng, How-Lung; Choo, Yuen-Siong; Cha, Yoon-


Leon; Yau, Wei-Yun; Low, Kay-Soon. “Identity verification through
palm vein pattern and crease texture”, Advances in Biometrics,
chapter 73, pp. 546-553, vol. 3832, 2005. doi:
10.1007/11608288\_73

[LPR04] Jin Ok Kim; Woongjae Lee; Jun Hwang; Kyong Seok Baik; Chin
nt nter. “Lip print recognition for security systems by multi-
resolution architecture”, Journal Future Generation Computer
Systems, vol. 20, issue 2, pp. 295-301, Feb. 2004. doi:
10.1016/S0167-739X(03)00145-6

[LFE04] David D. Zhan. Palmprint authentication, International series on


biometrycs, Kluwer, vol. 3, 2004, 252 p., chapter 8, pp.99-102.
ISBN: 1-4020-8096-4, E-book: 1-4020-8097-2

[MFE06a] Zhongbo Zhang; Siliang Ma; Xiao Han. "Multiscale Feature


Extraction of Finger-Vein Patterns Based on Curvelets and Local
Interconnection Structure Neural Network", Pattern Recognition,
2006. ICPR 2006. 18th International Conference on, vol. 4,
pp.145-148, doi: 10.1109/ICPR.2006.848

[MFE06b] Zhong Bo Zhang; Dan Yang Wu; Si Liang Ma; Jie Ma. "Multiscale
Feature Extraction of Finger-Vein Patterns Based on Wavelet and
Local Interconnection Structure Neural Network", Neural Networks
and Brain, 2005. ICNN&B '05. International Conference on, vol. 2,
pp.1081-1084, 13-15 Oct. 2005. doi:
10.1109/ICNNB.2005.1614805

[NAB09] Chiang, J.Y. "A new approach for binary line image vectorization,"
Systems, Man and Cybernetics, 1995 Intelligent Systems for the
21st Century, IEEE International Conference on, vol. 2, pp.1489-
1494 vol.2, 22-25 Oct. 1995. doi: 10.1109/ICSMC.1995.537983

[NFI06] Lingyu Wang; Leedham, G. “Near- and Far- Infrared Imaging for
Vein Pattern Biometrics”, Video and Signal Based Surveillance,
2006. AVSS ‘06. IEEE International Conference on, vol. 1,pp.52,
Nov. 2006. doi: 10.1109/AVSS.2006.80

[NFV09] Xiang Yu; Wenming Yang; Qingmin Liao; Fei Zhou. "A Novel
Finger Vein Pattern Extraction Approach for Near-Infrared Image,"
Image and Signal Processing, 2009. CISP '09. 2nd International
Congress, vol. 1, pp. 1-5, 17-19 Oct. 2009. doi:
10.1109/CISP.2009.5304440

Página 152
Capítulo 10: Referencias bibliográficas

[NMS06] Milner, David and Raz, Shmuel and Hel-Or, Hagit and Keren,
Daniel and Nevo, Eviatar. “A new measure of symmetry and its
application to classification of bifurcating structures”, Pattern
Recognition, vol. 40, issue 8, August 2007, issn 0031-3203, pp.
2237--2250. doi: 10.1016/j.patcog.2006.12.008

[OSR08a] OSRAM Opto Semiconductors GmbH


Disponible en World Wide Web: “OSRAM Opto
Semiconductors|index”,
http://www.osram-os.com
[Consulta: 2 de septiembre de 2008]
[OSR08b] Datasheet SFH 4450 IR LED
Disponible en World Wide Web: “OSRAM OSRAM Opto
Semiconductors - Product Catalog”,
http://catalog.osram-
os.com/catalogue/catalogue.do?favOid=0000000200000190001c0
023&act=showBookmark
[Consulta: 5 de octubre de 2008]

[PAU03] Chin-chuan Han; Hsu-liang Cheng; Chih-lung Lin. “Personal


authentication using palmprint features”, Pattern Recognition, vol.
36, no. 2, pp.371–381, 2003. doi: 10.1016/S0031-3203(02)00037-
7
[PAU09] Kumar, A.; Prathyusha, K.V.; "Personal Authentication Using Hand
Vein Triangulation and Knuckle Shape," Image Processing, IEEE
Transactions on, vol. 18, no. 9, pp. 2127-2136, Sept. 2009. doi:
10.1109/TIP.2009.2023153

[PIU00] C. C. Han, P. C. Chang, C. C. Hsu. “Personal identification using


hand geometry and palm-print”, In Proc. 4th Asian Conf. Computer
Vision (ACCV 2000), Taipei, Taiwan, vol. 1, pp. 747–752, 2000

[REI00] Sanchez-Reillo, R.; Sanchez-Avila, C.; Gonzalez-Marcos, A.


"Biometric identification through hand geometry measurements,"
Pattern Analysis and Machine Intelligence, IEEE Transactions on,
vol. 22, no. 10, pp. 1168-1171, Oct 2000.
doi: 10.1109/34.879796

[REI06a] Sánchez-Reíllo, Raúl. Tema 5: Identificación Biométrica. [Material


gráfico proyectable]. Leganés 2006. 26 dispositivas. Master de
Sistemas Electrónicos Avanzados, Universidad Carlos III de
Madrid.

[REI06b] Sánchez-Reíllo, Raúl. Tema 5c: Técnicas biométricas. [Material


gráfico proyectable]. Leganés 2006. 52 dispositivas. Master de
Sistemas Electrónicos Avanzados, Universidad Carlos III de
Madrid

Página 153
Capítulo 10: Referencias bibliográficas

[SUS97] Smith, S.M.; Brady, J.M. “SUSAN - a new approach to low level
image processing”, International Journal of Computer Vision, vol.
23(1), pp.45--78, 1997

[TEC07] TechSphere Co. Ltd.


Disponible en World Wide Web: “TechSphere Co. Ltd.”,
http://tech-sphere.com/en/tech/?p_url=tech_c
[Consulta: 16 de mayo de 2008]

[THV05] Lingyu Wang; Leedham, Graham. “A thermal hand vein pattern


verification system ”, ICAPR (2), Lecture Notes in Computer
Science 2005, Springer Berlin / Heidelberg, pp. 58-65, vol. 3687.
doi: 10.1007/11552499_7
[TIS95] Cross, J.M.; Smith, C.L. "Thermographic imaging of the
subcutaneous vascular network of the back of the hand for
biometric identification", Security Technology, 1995. Proceedings.
Institute of Electrical and Electronics Engineers 29th Annual 1995
International Carnahan Conference on, vol. 1, pp.20-35, 18-20 Oct
1995. doi: 10.1109/CCST.1995.524729

[TNC99] Dapeng Zhang; Wei Shu. “Two novel characteristics in palmprint


verification: Datum point invariance and line feature matching”,
Pattern Recognition, vol. 32, issue 4, April 1999, pp. 691-702. doi:
10.1016/S0031-3203(98)00117-4.

[UTI04] Kuo-Chin Fan; Chih-Lung Lin. “The use of thermal images of palm-
dorsa vein-patterns for biometric verification”, Pattern Recognition,
2004. ICPR 2004. Proceedings of the 17th International
Conference on, vol. 4, pp. 450- 453 Vol.4, 23-26 Aug. 2004. doi:
10.1109/ICPR.2004.1333799

[VBS07] Sanchez-Reillo, R.; Fernandez-Saavedra, B.; Liu-Jimenez, J.;


Sanchez-Avila, C. "Vascular Biometric Systems And Their Security
Evaluation," Security Technology, 2007 41st Annual IEEE
International Carnahan Conference on, vol. 1, pp. 44-51, 8-11 Oct.
2007. doi: 10.1109/CCST.2007.4373466

[VSI94] Miller, B. “Vital sign of identify”, IEEE Spectrum, vol 31, pp. 22–30,
Feb 1994

Página 154
Anexo:

Plataforma de pruebas

A.1 Introducción
Esta Tesis Doctoral tiene dos grandes bloques de investigación, el
sistema de captura de imágenes y los algoritmos de preprocesado, extracción
de características y comparación. Sin embargo, para poder validar dicha
investigación ha sido necesario diseñar y desarrollar una plataforma de
pruebas. Al no haber encontrado ninguna parecida en las referencias
bibliográficas consultadas, la plataforma de pruebas se ha diseñado desde
cero, por lo que se ofrece como otra novedad adicional de este trabajo para su
utilización por otros investigadores.

Esta plataforma ha tenido muchas versiones en su desarrollo y se ha ido


adaptando según iban surgiendo las necesidades de investigación. Inicialmente
se diseñó para tener un interfaz de control gráfico, pero finalmente se descartó
esta idea, porque no aportaba información adicional, y sí que proporcionaba
posibles fuentes de error y retrasos en la ejecución.

Desde el principio se ha diseñado de forma parametrizable y reutilizable


para otros investigadores, lo cual puede conseguirse con unas sencillas
adaptaciones que se explicarán convenientemente en este capítulo. Se puede
utilizar para probar cualquier sistema biométrico que tenga distintas partes del
cuerpo para un mismo individuo, por ejemplo parte “izquierda” y “derecha”
como ocurre con el iris, la biometría vascular o la geometría de la mano.
Además proporciona todas las imágenes necesarias para la evaluación de
resultados, mensajes de consola, así como archivos de texto y hojas de cálculo
(en formato Excel) con los parámetros, resultados y curvas indicadas en el
punto 2.4.

Página 155
Anexo: Plataforma de pruebas

La plataforma de pruebas se ha desarrollado en Matlab R2007b, por su


versatilidad y potencia matemática, ya que permite trabajar con fuentes
abiertas.

Además los bloques de programación de la plataforma de pruebas


disponen de ayuda sobre su código con comentarios en inglés, que posibilitan
una comprensión clara de los mismos y su posterior adaptación a las futuras
necesidades de cada investigador.

El sistema es totalmente portable a otros PCs de desarrollo gracias a


sus parámetros de configuración. Este capítulo está destinado a describir esta
plataforma en detalle.

A.2 Estructura y convenciones a adoptar

La estructura de la plataforma de pruebas es muy sencilla, creándose un


sistema de carpetas para cada uno de los bloques indicados en la figura 1 y así
poder archivar la documentación de resultados necesaria de manera ordenada,
y una lógica de programación con bloques generales para cualquier algoritmo y
bloques específicos de cada investigador.

A.2.1 Sistema de carpetas

Las carpetas que hay que mantener para cualquier sistema biométrico a
desarrollar con la plataforma de pruebas son las siguientes:

• work -> Carpeta raíz donde se guardan el resto de carpetas del sistema
y los bloques de programación desarrollados.

• 1_original_images -> Carpeta donde hay que guardar las imágenes de


las muestras y patrones obtenidos por la cámara (tanto las imágenes
para el reclutamiento, como las imágenes para el reconocimiento).
También se almacenará aquí la base de datos de usuarios necesaria,
con todos ellos registrados (archivo llamado “Users_List.TXT”).

• 2_step_roi_selection -> Carpeta donde hay que guardar las imágenes


obtenidas tras el preprocesado de las muestras del reclutamiento (ROI).

Página 156
Anexo: Plataforma de pruebas

En la plataforma desarrollada también se guarda una copia de su


muestra original para la comprobación del resultado, pero es ajustable.

• 3_step_recruitment -> Carpeta donde hay que guardar las imágenes


obtenidas tras la extracción de características de una imagen para
reclutamiento, a partir de su ROI. En la plataforma desarrollada se
guarda el patrón binario, el patrón dilatado, una copia de su ROI, la
superposición del patrón binario y la ROI, y las imágenes parciales
obtenidas en 45º, 90º y 135º para la comprobación de resultados, pero
es ajustable.

• 4a_step_autentication -> Carpeta donde hay que guardar las imágenes


obtenidas tras la extracción de características de una imagen utilizada
para el reconocimiento y el resultado de hacer una autenticación con
ella. En la plataforma desarrollada también se guarda el patrón binario
del usuario, el patrón dilatado, una copia de la imagen original de la
muestra, una copia de su ROI, la superposición de la imagen binaria de
la muestra y el patrón, así como las imágenes parciales obtenidas de la
muestra en 45º, 90º y 135º para la comprobación de resultados, pero es
ajustable.

• 4b_step_identification -> Carpeta donde hay que guardar las imágenes


superpuestas obtenidas tras la identificación de una imagen de la
muestra con el resto de imágenes de los patrones de todos los usuarios
registrados en la base de datos de usuarios. En la plataforma
desarrollada también se guarda una copia de la imagen original de la
muestra, pero es ajustable.

• 5_results_TXT_XLS -> Carpeta donde hay que guardar todos los


archivos TXT y XLS con los resultados de todos los pasos ejecutados
(extracción de la ROI, autenticación e identificación).

Aparte de estas carpetas generales, el sistema de esta Tesis Doctoral


tiene algunas carpetas específicas para realizar pruebas con los algoritmos
desarrollados, que no serían necesarias para otros sistemas, todas ellas
directamente guardadas en la carpeta “work”. Se podrían añadir más carpetas.

Página 157
Anexo: Plataforma de pruebas

A.2.2 Convenios generales a adoptar con la plataforma de pruebas

Hay una serie de convenios generales que debe cumplir cualquier


investigador que quiera utilizar la plataforma de pruebas desarrollada.

Base de datos de usuarios:

Cada usuario debe estar registrado en la base de datos de usuarios


(archivo “Users_Lists.txt” en la carpeta “1_original_images”) manteniendo la
convención siguiente:

User_N_W

N -> Número de usuario en 5 dígitos


W -> Muñeca: L (izquierda) o R (derecha)

Cada usuario debe estar registrado con ambas muñecas/manos (aunque


sólo se hagan pruebas con una de ellas) y debe tener su nombre real o
pseudónimo en la segunda línea con una flecha y un espacio en blanco
delante. A continuación se muestra un ejemplo para un usuario:

User_00001_L
User_00001_R -> Jose Enrique Suarez Pascual

El número máximo de usuarios para el que está preparada la plataforma


de pruebas es de 99.999.

Imágenes originales:

Cada usuario puede disponer de 1.000 imágenes originales en la


carpeta “1_original_images”, 1 imagen como patrón y 999 como muestras.

Nombres para los archivos:

Los nombres de los archivos de cada carpeta deben ser los siguientes
para garantizar el funcionamiento de la plataforma y la salida de resultados en
la carpeta “5_results_TXT_XLS”:

Página 158
Anexo: Plataforma de pruebas

“1_original_images” -> User_N_W_ZZZ

N -> Número de usuario: 00001 – 99999


W -> Muñeca: L / R
ZZZ -> Tipo de imagen: 00M -> para patrones (imagen para reclutamiento)
001-999 -> para muestras (imágenes para
reconocimiento)

“2_step_ROI_selection” -> User_N_W_ZZZ_ROI

N -> Número de usuario: 00001 – 99999


W -> Muñeca: L / R
ZZZ -> Patrón: 00M

“3_step_recruitment” -> User_N_W_ZZM_RECRUITMENT_(T)

N -> Número de usuario: 00001 – 99999


W -> Muñeca: L / R
ZZZ -> Patrón: 00M
T -> Imagen adicional: BIN_45º -> para las imágenes binarias en 45º
BIN_90º -> para las imágenes binarias en 90º
BIN_135º -> para las imágenes binarias en 135º
BIN_TOTAL -> para la imagen binaria total
TOGETHER -> para las superposición de la imagen
binaria total de un patrón y su ROI

“4a_step_authentication” -> User_N_W_AUTHENTICATION_(T)

N -> Número de usuario: 00001 – 99999


W -> Muñeca: L / R
T -> Imagen adicional: BIN_45º -> para las imágenes binarias en 45º
BIN_90º -> para las imágenes binarias en 90º
BIN_135º -> para las imágenes binarias en 135º
BIN_TOTAL -> para la imagen binaria total
TOGETHER -> para las superposición de la imagen
binaria total de la muestra y su ROI

Página 159
Anexo: Plataforma de pruebas

“4b_step_identification” -> User_N_W_ZZZ_IDENTIFICATION_


AGAINST_USER_T

N -> Número de usuario: 00001 – 99999


W -> Muñeca: L / R
ZZZ -> Número de muestra: 000-999
T -> Número de usuario con el que se compara la muestra: 1 – 9.999

Archivos de resultados en Excel:

Los archivos de resultados en Excel de la carpeta “5_results_TXT_XLS”


se pueden adaptar internamente por el investigador, pero hay que mantener la
convención de nombres para los archivos y las hojas utilizadas en la plataforma
de pruebas de esta Tesis Doctoral:

Results_ROI.xls -> Archivo para guardar los resultados de la extracción de


la ROI en cada fase

Hoja ROI_Data_Recruitment -> Para guardar los datos de la extracción de


la ROI de los patrones para el
reclutamiento

Hoja ROI_Data_Authentication -> Para guardar los datos de la extracción


de la ROI de las muestras
para la autenticación

Hoja ROI_Data_Identification -> Para guardar los datos de la extracción


de la ROI de las muestras para
la identificación

Página 160
Anexo: Plataforma de pruebas

Results_Authentication -> Archivo para guardar los resultados del


reconocimiento de autenticación

Hojas User_X_Left -> Para guardar los resultados de autenticación con


cada una de las muestras del usuario X, muñeca
izquierda

Hojas User_X_Right -> Para guardar los resultados de autenticación con


cada una de las muestras del usuario X, muñeca
derecha

Results_Identification -> Archivo para guardar los resultados del


reconocimiento de identificación

Hoja Results_Identification -> Para guardar los resultados de identificación


de cada una de las muestras de todos los
usuarios con el resto de usuario en la base
de datos de usuarios

Hoja Results_Overview -> Para guardar los parámetros biométricos


calculados por la plataforma de pruebas
y sus curvas

Interacción con el usuario:

La plataforma de pruebas presenta 3 bloques diferentes de interacción


con el usuario, tal como se observa en la figura 102:

• La carpeta “1_original_images” donde el investigador debe guardar las


imágenes originales (patrones y muestras) y registrar a los usuarios
como se ha descrito en la base de datos de usuarios.

• La carpeta “work” con los bloques de Matlab desarrollados, con 2 partes


diferenciadas: Los bloques generales reutilizables y los bloques

Página 161
Anexo: Plataforma de pruebas

específicos de cada algoritmo a comprobar. El usuario tiene que realizar


en dichos bloques las adaptaciones necesarias para sus algoritmos.

• La carpeta “5_results_TXT_XLS” donde el investigador debe adaptar los


archivos de resultados en Excel a sus necesidades.

Modo de trabajo con la plataforma de pruebas:

• Lo primero es tomar las imágenes necesarias con el sistema de captura,


con un máximo de 1000 (en las pruebas de esta Tesis Doctoral se han
tomado 4 ó 5 imágenes para cada usuario, 1 patrón y 3 ó 4 muestras).
Es importante resaltar que para que el sistema funcione correctamente,
todos los usuarios deben tener el mismo número de imágenes en la
carpeta “1_original_images”.

• A continuación se debe realizar el reclutamiento de dichas imágenes. Se


puede realizar individualmente o en grupo, para finalmente crear las
imágenes ROI en la carpeta “2_step_ROI_selection” y las imágenes del
patrón dilatado en la carpeta “3_step_recruitment”.

• Ahora hay que ajustar los parámetros del archivo


“configuration_variables.m” de la plataforma de pruebas, algunos de
ellos indicados en el capítulo 7, para adaptarlos al sistema biométrico a
comprobar (rutas de archivo, parámetros para los resultados, etc.).

• Finalmente, cuando se tengan las imágenes de los patrones y las


imágenes de las muestras, se puede realizar el reconocimiento de las
mismas. Hay 2 posibilidades: Realizar la autenticación de un usuario
frente a su patrón (reconocimiento 1:1) o la realizar identificación de un
usuario frente a todos los demás patrones de cada usuario
(reconocimiento 1:N).

A.2.3 Diagrama de bloques

El diagrama de bloques completo de la plataforma de pruebas es el


mostrado en la figura 102.

Página 162
Anexo: Plataforma de pruebas

Parte reutilizable de la error_handling


main configuration_variables
plataforma de pruebas Carpeta: “5_results_TXT_XLS”
startup
Documentación y resultados en
results_graphics_x el disco duro del PC
recruitment_single recruitment_all
authentication identification
Documentación BMP (imágenes
BMP de los resultados de cada
results_overlap_bin paso)
recruitment_single_OWN_USER
traslation_image
authentication_OWN_USER
ROI_selection Documentación TXT (datos de
results_overlap_image las ROI, datos de los resultados
ROI_Intermediate de autenticación, datos de los
resultados de identificación)
lines_extraction second_authentication_method
rotation_image

Parte Documentación XLS (datos de


específica extraction_90_grad extraction_135_grad las ROI, datos de los resultados
extraction_45_grad
de la de autenticación, datos de los
plataforma resultados de identificación,
de pruebas curvas EER, curvas de
gaussina gaussinaPrima gaussinaPrima2 little_areas_erase distribución de probabilidad)

Carpeta: “work” -> Aplicación de MATLAB


Consola de MATLAB (avisos OK
y de error, datos de los resultados
Carpeta: “1_original_Images” de autenticación, datos de los
Software externo de resultados de identificación,
adquisición de USUARIO curvas EER y curvas DET/ROC)
imágenes, por Imágenes de los patrones
y muestras (archivos BMP) Base de daos de usuarios
ejemplo, IC (archivo TXT)
CAPTURE

Figura 102: Diagrama de bloques de la plataforma de pruebas

Página 163
Anexo: Plataforma de pruebas

A.3 Parte general reutilizable de la aplicación Matlab

Los bloques generales y reutilizables de la aplicación son los mostrados


en el cuadro rojo de la figura 102. Todos ellos disponen de una descripción de
ayuda que se puede activar mediante el comando “help” de Matlab (por
ejemplo, help main).

A.3.1 Descripción de los bloques generales

“startup.m” -> Archivo ejecutado por Matlab al arrancar la aplicación.

“main.m” -> Archivo principal de la aplicación.

“configuration_variables.m” -> Archivo donde se ajustan todas las


variables de configuración válidas para el sistema.

“recruitment_single.m” -> Archivo que realiza la parte general del


reclutamiento de un patrón”.

“recruitment_all.m” -> Archivo que realiza el reclutamiento de todos los


patrones de todos los usuarios utilizando la función “recruitment single”.

“autentication.m” -> Archivo que ejecuta la parte general de la


autenticación de una muestra.

“identification.m” -> Archivo que ejecuta la identificación de una muestra


utilizando la función “authentication”.

“results_graphics_(all, left, right).m” -> Archivos que realizan la


evaluación de resultados generando los parámetros y curvas biométricas a
evaluar para todas las muestras, sólo las muestras derechas o sólo las
muestras izquierdas.

“error_handling.m” -> Archivo que maneja los errores aparecidos en la


aplicación para la consola de Matlab.

Página 164
Anexo: Plataforma de pruebas

A.3.2 Ajustes a realizar en la parte general por el investigador

Hay que cumplir con la siguiente secuencia de ajustes para utilizar la


plataforma de pruebas con los algoritmos de otros investigadores.

Archivos “main”, “recruitment_single.m”, “recruitment_all.m”,


“autentication.m”, “identification.m”, “error_handling.m” -> No hace
falta modificar nada, pero se puede ampliar con más funcionalidades de las
ya contenidas.

Archivo “configuration_variables.m” -> El investigador debe adaptar las


variables generales que utiliza la plataforma de pruebas, así como definir y
asignar valores iniciales a las variables globales necesarias para sus
algoritmos. Los ajustes óptimos para los parámetros generales utilizados en
esta Tesis Doctoral están indicados en el capítulo 7.

Archivo “results_graphics.m” -> El investigador debe eliminar las partes


específicas de cálculo de los algoritmos de esta Tesis Doctoral y añadir los
suyos propios.

A.3.3 Acciones a realizar en la parte general por el investigador

Para utilizar la plataforma de pruebas, simplemente hay que llamar al


archivo “main.m” en la consola de Matlab con las opciones que se indican a
continuación. Si se indica algún valor no permitido en sus parámetros de
entrada, la plataforma de pruebas muestra el error en la consola de MATLAB e
interrumpe la ejecución de la acción. La función main es la función raíz de todo
el sistema y donde el usuario debe indicar la acción a realizar

* Llamada de la función: main(ACTION, USER, WRIST, SAMPLE)

* Valor de los parámetros de entrada: Todos los parámetros de entrada se


deben indicar en forma de caracteres.

ACTION -> Acción deseada para realizar con la plataforma de pruebas

Página 165
Anexo: Plataforma de pruebas

'recruitment single' -> Para obtener los patrones de reclutamiento


del usuario especificado

'recruitment all' -> Para obtener los patrones de reclutamiento


de todos los usuarios de la base de datos
de usuarios

'authentication' -> Para autenticar una muestra de


un usuario con su patrón de reclutamiento
guardado

'authentication user'->Para autenticar todas las muestras de un


usuario con su patrón de reclutamiento
guardado (todas, derechas o izquierdas)

'authentication all' -> Para autenticar todas muestras de todos los


usuarios con sus patrones de reclutamiento
respectivos guardados. No hace falta ningún
parámetro de entrada adicional

'authentication all left' -> Como “authentication all”, pero sólo para
las muestras izquierdas

'authentication all right -> Como “authentication all”, pero sólo


para las muestras derechas

'identification' -> Para identificar una muestra de un usuario con


los patrones de reclutamiento guardados de
todos los usuarios

'identification all' -> Para identificar todas las muestras de


todos los usuarios con los patrones de
reclutamiento guardados de todos los
usuarios y generar los resultados
completos en el archivo de Excel
“Results_Identification”. No hace falta
ningún parámetro de entrada adicional

Página 166
Anexo: Plataforma de pruebas

'identification all left' -> Como “identification all”, pero sólo para
las muestras izquierdas

'identification all right -> Como “identification all”, pero sólo


para las muestras derechas

USER -> -> Número de usuario a analizar

'A' -> Sólo con “recruitment all”, para obtener las imágenes de
reclutamiento de todos los patrones, derechos e
izquierdos

'L' -> Sólo con “recruitment all”, para obtener las imágenes de
reclutamiento de todos los patrones izquierdos

'R' -> Sólo con “recruitment all”, para obtener las imágenes de
reclutamiento de todos los patrones derechos

'00001-99999'-> Con “recruitment single”, “authentication”,


autentication user” e “identification”, para indicar el
usuario a analizar

WRIST -> -> Tipo de muñeca a analizar

'A' -> Sólo con “recruitment all”, para obtener las imágenes de
reclutamiento de todos los patrones, derechos e izquierdos

'L' -> Con “recruitment single”, “recruitment all”,


“authentication”, autentication user” e “identification”
para seleccionar sólo la muñeca izquierda

'R' -> Con “recruitment single”, “recruitment all”,


“authentication”, autentication user” e “identification”
para seleccionar sólo la muñeca derecha

SAMPLE -> -> Número de muestra a analizar

'M' -> Con “recruitment single” y “recruitment all”, para


obtener los patrones de reclutamiento de las
imágenes seleccionadas

Página 167
Anexo: Plataforma de pruebas

'1-999'-> Con “authentication” e “identification”, para indicar


la muestra a analizar

* Ejemplos de acciones típicas con la plataforma de pruebas: Todos los


parámetros de entrada se deben indicar en forma de caracteres.

• Reclutamiento del patrón derecho para el usuario 3:

main('recruitment single', '00003', 'R', 'M')

• Reclutamiento de todos los patrones de todos los usuarios:

main('recruitment all, 'A', 'A', 'M')

• Reclutamiento de todos los patrones izquierdos de todos los usuarios:

main('recruitment all, 'A', 'L', 'M')

• Autenticación de la muestra 2 izquierda del usuario 3:

main('authentication', '00003', 'L', '2')

• Autenticación de todas las muestras izquierdas del usuario 3:

main('authentication user', '00003', 'L')

• Autenticación de todas las muestras de todos los usuarios:

main('authentication all ')

• Autenticación de todas las muestras derechas de todos los usuarios:

main('authentication all right')

• Identificación de la muestra 3 derecha del usuario 4:

main('identificaction', '00004', 'R', '3')

• Identificación de todas las muestras de todos los usuarios:

main('identification all ')

• Autenticación de todas las muestras izquierdas de todos los usuarios:

main('identification all right')

Página 168
Anexo: Plataforma de pruebas

A.4 Parte específica de cada investigador de la aplicación


Matlab

Los bloques específicos de la aplicación de esta Tesis Doctoral son los


mostrados en el cuadro azul de la figura 102. Todos ellos disponen de una
descripción de ayuda que se puede activar mediante el comando help de
Matlab (por ejemplo, help rotation_image). Sin embargo, los bloques
específicos deben ser desarrollados por cada investigador, tendiendo en
cuenta los parámetros de entrada de la función MAIN. Se comentan
brevemente los utilizados para los algoritmos de esta Tesis Doctoral.

“recruitment_single_OWN_USER.m” -> Archivo que realiza el


reclutamiento específico de un patrón con los algoritmos de esta Tesis”.

“ROI_selection.m” -> Archivo que obtiene la ROI de cada imagen

“ROI_intermediate.m” -> Archivo que realiza la eliminación de los puntos


interiores al borde de la muñeca necesaria para la selección de las ROI de
cada imagen.

“authentication_OWN_USER.m” -> Archivo que realiza la autenticación


específica de una muestra con los algoritmos de esta Tesis.

“lines_extraction.m” -> Archivo que realiza la extracción de líneas de una


muestra o un patrón.

“extraction_45_grad.m” -> Archivo que realiza la extracción parcial de


líneas de una muestra o un patrón en la dirección de 45º.

“extraction_90_grad.m” -> Archivo que realiza la extracción parcial de


líneas de una muestra o un patrón en la dirección de 90º.

“extraction_135_grad.m” -> Archivo que realiza la extracción parcial de


líneas de una muestra o un patrón en la dirección de 135º.

“gaussiana.m” -> Archivo que implementa la función Gaussiana 1-D.

“gaussianaPrima.m” -> Archivo que implementa la primera derivada de


función gaussiana 1-D.

Página 169
Anexo: Plataforma de pruebas

“gaussianaPrima2.m” -> Archivo que implementa la segunda derivada de


función gaussiana 1-D.

“little_areas_erase.m” -> Archivo que realiza la eliminación de líneas o


puntos considerados erróneas.

“second_authentication_method.m” -> Archivo que implementa el


método de reconocimiento basado en la comparación orientable completa
de imágenes.

“rotation_image.m” -> Archivo que implementa la rotación de las


imágenes.

“traslation_image.m” -> Archivo que implementa la traslación de las


imágenes.

“results_overlap_image.m” -> Archivo que realiza la superposición de un


patrón con las líneas extraídas de una muestra para comprobar la
autenticación o identificación.

“results_overlap_bin.m” -> Archivo que realiza la superposición de una


ROI con las líneas extraídas de una muestra o un patrón para comprobar la
autenticación o el reclutamiento.

Estos archivos se pueden aprovechar en su totalidad por otros


investigadores o seleccionar algunas de sus funciones en el código, por
ejemplo:

• Lectura y escritura de archivos BMP

• Lectura y escritura de archivos TXT

• Lectura y escritura de archivos XLS

• Solapamiento de imágenes de muestra

• Cálculo de valores FNMR y FMR

• Creación de gráfica EER y DET en Matlab

Página 170
Anexo: Plataforma de pruebas

A.5 Bloque de resultados generados por la plataforma de


pruebas

Los resultados generados por la plataforma de pruebas son los


mostrados en el cuadro verde de la figura 102. Cada investigador debe decidir
qué documentación genera y adaptar en consecuencia los parámetros
previstos para la documentación en Excel en el archivo
“configuration_variables.m”, los archivos Excel de resultados y el archivo
“results_graphics.m”

A.5.1 Documentación generada por la plataforma de pruebas

A modo de ejemplo se indica a continuación la documentación completa


generada para cada una de las acciones del sistema de pruebas indicadas en
el punto A.3.3, pero se puede añadir o eliminar información.

Para el reclutamiento:

• 1 archivo de imagen BMP de la ROI del patrón, guardado en la carpeta


“2_step_roi_selection”.

• 1 archivo de texto TXT con los datos principales de la ROI del patrón,
guardado en la carpeta “5_results_TXT_XLS”.

• Inclusión de los mismos datos que en el archivo TXT en la hoja


“ROI_Data_Recruitment” del archivo de Excel “Results_ROI.xls”,
guardado en la carpeta “5_results_TXT_XLS”.

• 4 archivos de imagen BMP con las imágenes dilatadas del patrón


(total, 45º, 90º y 135º), guardados en la carpeta “3_step_recruitment”.

• 1 archivo de imagen BMP del solapamiento de la ROI del patrón con


la imagen binaria obtenida de la misma, guardado en la carpeta
“3_step_recruitment”.

• Señalización en la consola de MATLAB del desarrollo del proceso


completo.

Página 171
Anexo: Plataforma de pruebas

Para la autenticación:

• 1 archivo de imagen BMP de la ROI de la muestra, guardada en la


carpeta “4a_step_authentication”.

• Inclusión de los datos principales de la ROI de la muestra en la hoja


“ROI_Data_Authentication” del archivo de Excel “Results_ROI.xls”,
guardado en la carpeta “5_results_TXT_XLS”.

• 1 archivo de texto TXT con los datos obtenidos en la autenticación,


guardado en la carpeta “5_results_TXT_XLS”.

• Inclusión de los mismos datos que en el archivo TXT en la hoja


“User_X_Left” o “User_X_Left” del archivo de Excel
“Results_Authentication.xls”, guardado en la carpeta
“5_results_TXT_XLS”.

• 4 archivos de imagen BMP con las imágenes dilatadas de la muestra


(total, 45º, 90º y 135º), guardados en la carpeta
“4a_step_authentication”.

• 1 archivo de imagen BMP del solapamiento de la ROI de la muestra


con la imagen binaria obtenida de la misma, guardado en la carpeta
“4a_step_authentication”.

• 1 archivo de imagen BMP del solapamiento de la ROI del patrón con


la imagen binaria obtenida de la muestra, guardado en la carpeta
“4a_step_authentication”.

• Señalización en la consola de MATLAB del desarrollo del proceso


completo.

Página 172
Anexo: Plataforma de pruebas

Para la identificación:

• Inclusión de los datos principales de la ROI de la muestra en la hoja


“ROI_Data_Identification” del archivo de Excel “Results_ROI.xls”,
guardado en la carpeta “5_results_TXT_XLS”.

• N archivos de texto TXT con los datos obtenidos en la identificación


con los N usuarios, guardados en la carpeta “5_results_TXT_XLS”.

• Inclusión de los datos de resultados del método de reconocimiento


basado en el ancho de la muñeca y del método de reconocimiento
basado en la comparación orientable completa de muestras en la hoja
“Results_Identification del archivo de Excel
“Results_Identificationn.xls”, guardado en la carpeta
“5_results_TXT_XLS”.

• N archivos de imagen BMP del solapamiento de la ROI del patrón


con la imagen binaria obtenida de la muestra, guardados en la carpeta
“4b_step_identification”.

• Señalización en la consola de MATLAB del desarrollo del proceso


completo.

Toda esta documentación se puede mostrar u ocultar en función de unos


parámetros ajustables en el archivo de configuración
“configuration_variables.m”. Se puede evitar parte de la documentación
ajustando el valor 0 en alguno de estos parámetros.

A.5.2 Ejemplos de la documentación generada por la plataforma de


pruebas

Por último, se muestran diferentes ejemplos de los resultados indicados


en el punto A.5.1.

1. Documentación BMP

-> Carpeta "2_step_ROI_selection":

Página 173
Anexo: Plataforma de pruebas

Figura 103: Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_ROI.bmp”

-> Carpeta "3_step_recruitment":

Figura 104: Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT.bmp”

Figura 105: Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_45.bmp”

Página 174
Anexo: Plataforma de pruebas

Figura 106: Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_90.bmp”

Figura 107: Ejemplo de documentación BMP -Archivo


“User_00013_R_00M_RECRUITMENT_BIN_135.bmp”

Figura 108: Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_BIN_TOTAL.bmp”

Página 175
Anexo: Plataforma de pruebas

Figura 109: Ejemplo de documentación BMP - Archivo


“User_00013_R_00M_RECRUITMENT_TOGETHER.bmp”

-> Carpeta "4a_step_authentication":

Figura 110: Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION.bmp”

Figura 111: Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_BIN_45.bmp”

Página 176
Anexo: Plataforma de pruebas

Figura 112: Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_BIN_90.bmp”

Figura 113: Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_BIN_135.bmp”

Figura 114: Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_TOTAL.bmp”

Página 177
Anexo: Plataforma de pruebas

Figura 115: Ejemplo de documentación BMP - Archivo


“User_00013_R_004_AUTHENTICATION_TOGETHER.bmp”

-> Carpeta "4b_step_identification":

Figura 116: Ejemplo de documentación BMP - Archivos


“User_00013_R_004_IDENTIFICATION_AGAINST_USER_X.bmp”

Página 178
Anexo: Plataforma de pruebas

2. Documentación TXT

-> Carpeta "5_results_TXTstep_authentication":

Figura 117: Ejemplo de documentación TXT - Archivo “User_00013_L_00M_ROI.txt”

Figura 118: Ejemplo de documentación TXT - Archivo “User_00013_L_004_ROI.txt”

Figura 119: Ejemplo de documentación TXT - Archivo


“User_00013_L_004_AUTHENTICATION.txt”

Página 179
Anexo: Plataforma de pruebas

Figura 120: Ejemplo de documentación TXT - Archivo


“User_00013_L_004_IDENTIFICATION_AGAINST_USER_00010.txt”

3. Documentación XLS

Figura 121: Ejemplo de documentación XLS - Archivo


“Results_ROI.xls” -> Hoja “ROI_Data_Recruitment”

Página 180
Anexo: Plataforma de pruebas

Figura 122: Ejemplo de documentación XLS - Archivo


“Results_ROI.xls” -> Hoja “ROI_Data_Authentication”

Figura 123: Ejemplo de documentación XLS - Archivo


“Results_ROI.xls” -> Hoja “ROI_Data_Identification”

Página 181
Anexo: Plataforma de pruebas

Figura 124: Ejemplo de documentación XLS - Archivo


“Results_Authentication” -> Hoja “User_13_Right”

Figura 125: Ejemplo de documentación XLS - Archivo


“Results_Identificaction” -> Hoja “Results_Identification”

Página 182
Anexo: Plataforma de pruebas

Figura 126: Ejemplo de documentación XLS - Archivo


“Results_Identificaction” -> Hoja “Results_Overview”

4. Documentación en la consola de Matlab

Figura 127: Ejemplo de documentación en consola de MATLAB - Con el reclutamiento


individual, por ejemplo, de la muestra derecha del usuario 00001

Página 183
Anexo: Plataforma de pruebas

Figura 128: Ejemplo de documentación en consola de MATLAB - Con el reclutamiento múltiple,


por ejemplo, de los 3 usuarios de la base de datos de usuarios

Página 184
Anexo: Plataforma de pruebas

I MATLAB 75 O (R2007b) LJ~~


E'" ~dIt D<lzo.>:¡ D$W od Q<>ktop I'!'ndo '~ ~

'D ~ .w. . . . . .., ('o *" E:tI I!l @ 1'lo:\J05E\03Doctorado\5 Proyecto v........ M.roo\] m.I 5y>t.,.,,\work viO .,
fu t"./:, ~ ~ '~ to AOCI ~ WMt', ro. '~

'CommandWíndaw-------------------------------------------------------------------------------------.-, rn-.->(
» mai n ( ' a uth ~ ntic a ti o n ' , ' 0000 3 ' , ' L ' , ' 4 ' .

; ; J. uth ~ nt ic a t i o n t or u ~~ r 00003 , vr i ~ t L, ~ ampl ~ 4, ~ t a rt ~ nov .


; ; J. uth ~ nt ic a t i o n t or u ~~ r 0000 3, vri ~ t L, ~ ampl ~ 4, h a~ ti n i ~ h ~ d ~ u cc ~ ~ t u ll l'

; ; J. uth ~ nt ic a t i o n ima ¡¡~~ a nd r ~~ ult ~ i n TXT til ~~ ~av ~ d in dir ~ ct o rl' D : \ J o ~ ~ \ 03 D o ct o r a d o \ 5 _ Pr o l' ~ ct o _V~ n a~ _ lI a n o \? _ fin a l _ S l'~ t ~ n
; ; J. uth ~ nt ic a t i o n r ~~ ult ~ i n XLS til ~~ ~av ~ d in dir ~ c t o r l' D \ J o~ ~ \ 03 _ Do c t o r a d o \ 5 _ Pr ol'~ c t o _ V~ n a ~ _ lla n o \? _ fin a l _ Sl'~ t ~ m \ v o r k \ 5 _ r ~ ,

J.UTHr NTlC J.TlCfl DJ.TJ.

U~ ~ r n urrt> ~ r: 00003

\l ri~ t (L - L~tt , p, - P, i ¡¡h tf :

Sampl ~ n urrt> ~ r: 4

Sampl ~ til ~ n """,, : U ~~ r 00003 L 004

C omp ar ~ d r ~ c ruit """ nt til ~ U ~~ r 00003 L 00 11

• U~ ~ r n """,,: { l ) -

N orrtl r ~3 J. p ~ llid o3

• C omp ar ~ d u~ ~ r n """,, : { 1 ) -

N orrtl r ~ 3 J. p ~ llid o 3

p,r S ULTS Dr CISI CfiS

U~ ~ r a uth ~ nt i ca ti o n tir ~ t t ~~ t : P, IGHT


U~ ~ r a uth ~ nt i ca t i o n ~~ c o n d t ~~ t : P, IGHT

p,r SULTS DJ.TJ.

flP,S T TES T - Width di ~ t a n c ~ ditt ~ r ~ n c ~ :

\/idth di~ t a n c ~ ditt ~ r ~ n c ~ : 2


\/i d th ditt ~ r ~ n c ~ <- lIa x imal p ~ r m it t ~ d va l u~ ( 15 )

SrCCfJD TES T - To t a l li n ~ ~ pi x ~ l ~ c o i n cid ~ n c ~

L i n~ pi x ~ l ~ in th ~ ~ ampl ~ li n ~ ~ ima ¡¡ ~ : n 8

L i n~ pi x ~ l~ i n ~ id ~ th ~ r ~ cr u it """ nt ima ¡¡ ~ :i4 ?

C o i n cid ~ n c ~ p o i nt ~ p ~ rc ~ nt a¡¡ ~ :89

[x ~ c ut ~ d Loo p " t or ri ¡¡ht a uth ~ n tic a t i o n :99

C o i n cid ~ n c ~ p o i nt ~ p ~ rc ~ nt a¡¡ ~ v ~ ct o r:35 35 31 80 35 f8 3i 10 29 O 29 ? 20 15 11 2i 33 8i 3i 84 38


C o i n cid ~ n c ~ p o i nt ~ p ~ rc ~ nt a¡¡ ~ >- lIi n imal p ~ r m it t ~ d v a l u ~ ( B5 )

>

Figura 129: Ejemplo de documentación en consola de MATLAB - Con la autenticación


individual, por ejemplo, de la muestra 4 izquierda del usuario 00003

Página 185
Anexo: Plataforma de pruebas

……………………

……………………

Figura 130: Ejemplo de documentación en consola de MATLAB - Con la autenticación múltiple,


por ejemplo, de las 4 muestras izquierdas del usuario 00001

Página 186
Anexo: Plataforma de pruebas

……………………

……………………

Figura 131: Ejemplo de documentación en consola de MATLAB - Con la identificación individual


o múltiple, por ejemplo, de las 4 muestras izquierdas del usuario 00002 frente a los 3 usuarios
de la base de datos de usuarios

Página 187
Anexo: Plataforma de pruebas

Página 188
Anexo: Plataforma de pruebas

Página 190

También podría gustarte