hamitouche_salmi

167
Ministère de l’enseignement supérieur et de la recherche scientifique Ecole nationale Supérieure d’Informatique (ESI) Oued-Smar, Alger Mémoire de fin d’études Pour l’obtention du diplôme d’ingénieur d’état en informatique Option : Systèmes d’information Systèmes Informatiques Thème Système d’identification biométrique de personnes par reconnaissance de l’iris Réalisé par : Encadré par : M. Nassim HAMITOUCHE M. Abdenour SEHAD M. Zakaria SALMI M me Naima BESSAH Promotion : 2008/2009

Upload: yacine

Post on 01-Jul-2015

857 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: HAMITOUCHE_SALMI

Ministère de l’enseignement supérieur et de la recherche

scientifique Ecole nationale Supérieure d’Informatique (ESI)

Oued-Smar, Alger

Mémoire de fin d’études Pour l’obtention du diplôme d’ingénieur

d’état en informatique

Option : Systèmes d’information Systèmes Informatiques

Thème Système d’identification biométrique de personnes par reconnaissance de l’iris

Réalisé par : Encadré par : M. Nassim HAMITOUCHE M. Abdenour SEHAD M. Zakaria SALMI Mme Naima BESSAH

Promotion : 2008/2009

Page 2: HAMITOUCHE_SALMI

Ecole national Supérieure d’Informatique (ESI)

Système d’identification biométrique de personnes par reconnaissance de l’iris

Nassim HAMITOUCHE Zakaria SALMI

ESI

MEMOIRE PRÉSENTÉ EN VUE DE L'OBTENTION DU DIPLÔME D’INGENIEUR D’ETAT EN INFORMATIQUE

SYSTEMES D’INFORMATION SYSTEMES INFORMATIQUES

SEPTEMBRE 2009

© Nassim HAMITOUCHE, Zakaria SALMI, 2009. 

Page 3: HAMITOUCHE_SALMI

III  

Dédicaces

Je manquerai terriblement d’originalité en commençant par dédier ce

travail à mes parents, mais j’ai une bonne excuse à cela : sans eux, mon

existence n’aurait pas grand sens. Les mots me manquent pour les remercier

comme il se doit. Qu’ils sachent juste que je leur serai éternellement

reconnaissant d’avoir été les meilleurs parents que l’on puisse espérer. Je leur

dois tout. Merci.

A mes frères et sœurs dont le soutien sans failles m’a aidé à surmonter

toutes les difficultés.

A ma grande famille, à mes amis et à tous mes enseignants.

Nassim HAMITOUCHE

A mes chers parents, qui sont la cause de mon existence dans cette vie,

pour leur soutient, leur patience et leur amour.

A mes frères et sœurs.

A mes amis d’enfance et à tous ceux qui me connaissent.

Zakaria Salmi

Page 4: HAMITOUCHE_SALMI

IV  

Remerciements

Voilà. C’est fini. Et déjà, au doux sentiment d’accomplissement se mêlent

les premiers élans de mélancolie. Afin de conjurer la nostalgie qui menace, nous

déposons aux pieds de toutes celles et de toux ceux qui ont croisé notre route à

l’ESI (pour le meilleur et pour le meilleur) un hommage en bonheur massif.

Nous tenons en premier lieu à remercier Monsieur Abdennour SEHAD et

Madame Naima BESSAH qui ont encadré avec disponibilité et rigueur ce

travail. Ils ont su nous apporter un soutien constant, et leur compétence a été

d’une aide précieuse pour la concrétisation de ce travail.

Nous remercions vivement Monsieur Mohammed BOULAKRADECHE de

nous avoir fait l’honneur de présider le jury de soutenance de ce mémoire.

Nous adressons également nos remerciements à Monsieur Abdennour

SEHAD, Mademoiselle Rima BELGUECHI et Madame Chafia YAHIAOUI

pour avoir consacré une partie de leur temps afin de juger notre travail.

Enfin, un grand merci pour ceux que nous n’avons pu désignés et qui nous

ont aidé de près ou de loin à parcourir ce chemin.

Nassim HAMITOUCHE & Zakaria Salmi

Page 5: HAMITOUCHE_SALMI

V  

Résumé Un système biométrique permet l’identification automatique d’un individu basée sur une représentation unique des caractéristiques possédées par l’individu. La reconnaissance par iris est considérée comme le système d’identification biométrique le plus fiable et le plus efficace qui soit disponible. La plupart des systèmes commerciaux de reconnaissance par iris utilisent l’algorithme breveté de Daugman. Cet algorithme est capable de donner des taux de reconnaissance parfaits. Cependant, les résultats publiés ont souvent été obtenus sous des conditions de capture favorables, et il n’y a jamais eu pour cette technologie des tests indépendants. Le travail présenté dans ce mémoire implique le développement d’un système de reconnaissance par iris dans le but de vérifier en même temps l’unicité de l’iris humain et ses performances en tant que technologie biométrique. Il vise également à tester de nouvelles techniques de codage basées sur la texture. Afin de déterminer les taux de reconnaissance de notre système, deux bases d’images d’iris prises sous lumière proche infrarouge ont été utilisées. Le système de reconnaissance par iris consiste en un système de segmentation automatique basé sur la transformée de Hough, il est capable de localiser les régions de l’iris et de la pupille tout en évitant les cils, les paupières et les reflets. La région de l’iris ainsi extraite est ensuite normalisée en un bloc rectangulaire dont les dimensions sont constantes, prenant ainsi en compte les inconvénients de capture d’images. Enfin, l’iris normalisé subira des opérations de filtrage grâce aux filtres de Log-Gabor 1D (la deuxième technique de codage) afin d’en extraire des paramètres statistiques et d’en faire un gabarit biométrique. La distance de Mahalanobis ainsi qu’une nouvelle distance "D" ont été utilisées pour l’affectation des gabarits biométriques. Les performances en identification du système sur la base CASIA V1.0 de 108 individus (7 images par individu) et la base CASIA-IrisV3-Interval de 249 individus sont respectivement 94% et 91%. Les performances en vérification sont respectivement FAR=1.29% , FRR=7,75% et FAR=3.80%, FRR=12.27. Ces résultats sont bien évidemment loin d’être parfaits, mais restent très bons et satisfaisants. Cela explique d’abord l’engouement et l’intérêt des entreprises commerciales œuvrant dans le domaine de la biométrie pour cette technologie. Ils montrent également le bien fondé du recours des chercheurs à l’utilisation des approches basées sur la texture pour la résolution de problèmes récents tels que ceux de la reconnaissance des formes pour la classification ou la segmentation d’objets. Mots clés : biométrie, iris, identification, vérification, reconnaissance des formes.

Page 6: HAMITOUCHE_SALMI

VI  

Abstract A biometric system provides automatic identification of an individual based on a unique feature or characteristic possessed by the individual. Iris recognition is regarded as the most reliable and accurate biometric identification system available. Most commercial iris recognition systems use patented algorithm developed by Daugman. This algorithm is able to produce perfect recognition rates. However, published results have usually been produced under favourable conditions, and there have been no independent trials of the technology. The work presented in this memoir involved developing an iris recognition system in order to verify both the uniqueness of the human iris and also its performance as a biometric. It also aims to test new techniques of coding based texture. For determining the recognition performances of the system, two databases of digitised grey scale eye images were used. The iris recognition system consists of an automatic segmentation system that is based on the Hough transform, and it is able to localise the circular iris and pupil region, occluding eyelids and eyelashes, and reflections. The extracted iris region was then normalised into a rectangular block with constant dimensions to account for imaging inconsistencies. Finally, the texture data filtered by 1D Log-Gabor filter was extracted and quantised by statistical parameters to encode the unique pattern of the iris into a biometric template. The Mahalanobis and new distance "D" were employed for classification of iris templates. The identification system performance on base CASIA V1.0 with 108 individuals and base CASIA-IrisV3-Interval with 249 individuals are respectively 94% et 91%. The verification system performance are respectively FAR=1.29% , FRR=7.75% and FAR=3.80%, FRR=12.27%. These results are of course far from to be perfect, but they are good and satisfactory. That explains first, the infatuation and the interest of the commercial companies working on biometric domain for this technology. They also show the reasons of the recourse of researchers to use methods based texture for resolution of recent problems such as those of patterns recognition for classification or objects segmentation. Keywords : biometric, iris, identification, verification, patterns recognition. 

 

Page 7: HAMITOUCHE_SALMI

VII  

Table des matières INTRODUCTION………………………………………………………………………….....1 CHAPITRE I : INTRODUCTION A LA BIOMETRIE Introduction.................................................................................................................................1 1. La biométrie………………………………………………………………………………………4 1.1 Définition…………………………………………………………..……….…………………4 1.2 Le marché mondial de la biométrie…………………………………………..……………...4 1.3 Les parts de marché par technologie…………………………..…………………………….5 1.4 Les modes opératoires d’un système biométrique……………….…………………………6 1.5 Les différentes techniques biométriques……………………………………...……………..6 1.5.1 L’analyse morphologique……………………………………………………………...6 1.5.2 L’analyse comportementale………………………………………………………..….6 1.6 Présentation des techniques biométriques……………………………………………….6 1.6.1 L’empreinte digitale……………………………………………………………….6 1.6.2 L’iris…………………………………………………………………………………….7 1.6.3 La géométrie de la main…………………………………………………………...7 1.6.4 Le visage………………………………………………………………………………..8 1.6.5 La rétine………………………………………………………………………………...8 1.6.6 Les veines de la main…………………………………………………………….........9 1.6.7 La reconnaissance vocale………………………………………………………….9 1.6.8 La dynamique de frappe au clavier ....................................................................... 10 1.6.9 La dynamique du tracé de la signature ...................................................................... 10 1.6.10 L’analyse de la démarche .................................................................................... 10 1.7 Applications de la biométrie ................................................................................................... 10 1.7.1 Service public…………………………………………………………………………10 1.7.2 Application de la loi .............................................................................................. 11 1.7.3 Transaction commerciale et bancaire ......................................................................... 11 1.7.4 Accès physique et logique ........................................................................................... 11 2. Architecture d’un système biométrique ........................................................................... 11 2.1 Module d’apprentissage……………………………………………………………………..11 2.2 Module de reconnaissance ............................................................................................. 12 2.3 Module d’adaptation ...................................................................................................... 13 3. Evaluation d’un système biométrique…………………………...…………………………..13 3.1 Evaluation de l’identification ......................................................................................... 13 3.2 Evaluation de la vérification…………………………………………………………... 14 4. Comparaison des différentes techniques biométriques .................................................. 16 5. La multi modalité dans la biométrie…………………………………………………………18 5.1 Systèmes multiples biométriques……………...…………………………………………...18

Page 8: HAMITOUCHE_SALMI

VIII  

5.2 Systèmes multiples d’acquisition ................................................................................... 18 5.3 Mesures multiples d’une même unité biométrique………….……………………………18 5.4 Instances multiples d’une même mesure…………………………………..……………...18 5.5 Algorithmes précis ......................................................................................................... 18 Conclusion ................................................................................................................................ 18 CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE Introduction .............................................................................................................................. 20 1. Analyse de texture……………………………………………………………………………..20 1.1 Définition ....................................................................................................................... 20 1.2 Besoin d’analyse de texture ............................................................................................ 21 2. Méthodes d’analyse de texture .......................................................................................... 22 2.1 Méthodes statistiques ..................................................................................................... 22 2.1.1 Méthode de premier ordre ..................................................................................... 22 2.1.2 Méthode de second ordre ...................................................................................... 23 2.1.2.1 Méthode de matrice de cooccurrence ........................................................ 23 2.1.2.2 Méthode des différences des niveaux de gris ............................................ 26 2.1.2.3 Méthode des matrices de caractéristiques statistiques .............................. 26 2.1.2.4 Méthode des gradients ............................................................................... 26 2.1.3 Méthodes d’ordre supérieur ................................................................................. 26 2.2 Méthodes structurelles……………………………………………………………………...28 2.3 Méthodes basées sur les modèles……………………………..…………………………...28 2.4 Méthodes basées sur le traitement du signal .................................................................. 28 Conclusion ................................................................................................................................ 28 CHAPITRE III : RECONNAISSANCE PAR IRIS 1. L’iris .................................................................................................................................... 30 1.1 Rappel anatomique ...................................................................................................... 30 1.2 Avantages .................................................................................................................... 31 1.3 Inconvénients .............................................................................................................. 31 1.4 Historique .................................................................................................................... 31 1.5 Schéma général ........................................................................................................... 32 1.5.1 Système d’acquisition ........................................................................................ 33 1.5.2 Traitement des données : état de l’art ................................................................. 34 2. Techniques de reconnaissance par iris ............................................................................. 34 2.1 Techniques basées sur l’apparence ............................................................................. 35 2.2 Techniques basées sur la texture ................................................................................. 35 2.3 Techniques basées sur les caractéristiques .................................................................. 36 3. Quelques méthodes connues de reconnaissance par iris ................................................. 36 3.1 Méthode de John Daugman ........................................................................................ 36 3.2 Méthode de Wildes ...................................................................................................... 37 3.3 Méthode de Boles ........................................................................................................ 37

Page 9: HAMITOUCHE_SALMI

IX  

3.4 Méthode de Sanchez-Reillo & Al ................................................................................ 38 3.5 Méthode de Y. Wang & Al ........................................................................................... 38 3.6 Méthode de S. Lim & Al .............................................................................................. 38 4. Standards ............................................................................................................................ 39 5. Chalenges dans les systèmes de reconnaissance par iris ................................................. 40 Conclusion ................................................................................................................................ 41 CHAPITRE IV : ONDELETTES Introduction .............................................................................................................................. 42 1. Historique du traitement du signal et de l’image ............................................................ 42 1.1 Transformée de Fourier ............................................................................................. 42 1.2 Transformée de Fourier rapide ................................................................................... 43 1.3 Transformée de Fourier à fenêtre ............................................................................... 43 1.4 Ondelettes et analyse multi-résolution ........................................................................ 44 2. Introduction à la transformée en ondelettes et à l’analyse multi-résolution ................ 45 2.1 Transformée en ondelettes continue ............................................................................ 45 2.2 Transformée en ondelettes discrète ............................................................................. 46 2.3 Analyse multi-résolution ............................................................................................. 46 3. Ondelettes orthogonales ..................................................................................................... 47 4. Avantages de la transformée en ondelettes ...................................................................... 48 4.1 Généralités ................................................................................................................... 48 4.2 Intérêt en traitement d’image ...................................................................................... 48 4.2.1 Compression ............................................................................................................. 48 4.2.2 Détection de contours ............................................................................................... 48 4.2.3 Détection / reconnaissance de texture ...................................................................... 49 5. Filtrage des signaux ............................................................................................................ 49 6. Transformée en ondelettes : analyse multi-résolution et bancs de filtres ..................... 49 Conclusion……………………………………………………………….…………………………50 CHAPITRE V : CONCEPTION DU SYSTEME Introduction .............................................................................................................................. 51 1. Conception globale du système ......................................................................................... 51 2. Fonctionnement du système .............................................................................................. 52 2.1 Processus d’identification .............................................................................................. 52 2.1.1 Phase d’apprentissage ........................................................................................... 52 2.1.2 Phase d’identification ............................................................................................ 55 2.2 Processus de vérification ................................................................................................ 56 2.2.1 Phase d’apprentissage ........................................................................................... 56 2.2.2 Phase de vérification ............................................................................................. 57 3. Structure modulaire du système ....................................................................................... 57 3.1 Modules du processus d’apprentissage .......................................................................... 58 3.1.1 Module d’acquisition des images d’iris ................................................................ 58 3.1.2 Module de prétraitement des images ..................................................................... 58

Page 10: HAMITOUCHE_SALMI

X  

3.1.3 Modules de détection des coordonnées de la pupille et de l’iris............................. 58 3.1.3.1 Module de détection de la pupille ............................................................. 58 3.1.3.2 Module de détection de l’iris .......................................................................... 59 3.1.4 Module de normalisation de l’iris………………………………………..……...…..59 3.1.5 Module d’extraction des caractéristiques...............................................................61 3.1.6 Module de calcul du modèle de chaque classe………………………………….. 67 3.1.6.1 Modèle moyen…………………………………………..……………….......67 3.1.6.2 Modèle intégral ......................................................................................... 67 3.2 Modules du processus d’identification ........................................................................... 67 3.2.1 Module de calcul des distances ............................................................................ 67 3.2.2 Module d’identification ......................................................................................... 68 3.3 Modules du processus de vérification…………………………………………………..…68 3.3.1 Module de détermination du seuil de décision optimal ......................................... 68 3.3.2 Module de prise de décision .................................................................................. 69 3.3.3 Module de test ....................................................................................................... 69 4. Performances du système en identification ...................................................................... 70 5. Performances du système en vérification ......................................................................... 72 Conclusion ................................................................................................................................ 74 CHAPITRE VI : IMPLEMENTATION ET REALISATION Introduction .............................................................................................................................. 75 1. Outils de développement .................................................................................................... 75 1.1 Microsoft Visual Studio 2005 ........................................................................................... 75 1.2 Matlab 7.0.0.19920 (R14) ................................................................................................. 75 2. Structure de données et implémentation .......................................................................... 76 2.1 Classe Normalisation ......................................................................................................... 76 2.2 Classe ClasseId ................................................................................................................... 81 2.3 Classe ClasseVe ................................................................................................................ 84 2.4 Classe ClasseTo .................................................................................................................. 85 3. Présentation de l’application ............................................................................................. 86 3.1 Interface Présentation………………………………………………………………….86 3.2 Interface Chargement et Normalisation ......................................................................... 90 3.3 Interface Identification ................................................................................................... 91 3.4 Interface Vérification ..................................................................................................... 92 3.5 Interface Statistiques ...................................................................................................... 94 3.6 Interface Taux d’identification ....................................................................................... 96 4. Avantages et inconvénients du système ............................................................................... 97 Conclusion ................................................................................................................................ 98 CHAPITRE VII : TESTS ET RESULTATS Introduction .............................................................................................................................. 99 1. Présentation des bases d’images ....................................................................................... 99

Page 11: HAMITOUCHE_SALMI

XI  

1.1 Base de données CASIA V1.0 ………………………………………………………..99 1.2 Base de données CASIA-IrisV3-Interval ....................................................................... 99 2. Tests……………………………………………………………………………………………100 2.1 Paramètres pertinents du système…………………………………………………….100 2.2 Taux d’identification (performances en identification)………………………………102 2.2.1 Evolution du taux d’identification suivant Napp et Tapp utilisés……………...103 2.2.2 Evolution du taux d’identification suivant les catégories d’individus…………104 2.2.3 Evolution du taux d’identification suivant le niveau de segmentation………...105 2.2.4 Evolution du taux d’identification suivant la distance utilisée…………............108 2.2.5 Evolution du taux d’identification suivant le type de modèle utilisé…………..108 2.3 Distributions des distances intra classes et interclasses………………………………109 2.4 Taux FAR et FRR (Performances en vérification)…………………………………..112 2.5 Temps d’exécution…………………………………………………………...…………...113 2.5.1 Estimation du temps d’exécution en fonction du zoom de la phase de segmentation et de normalisation………………………….………………………113 2.5.2 Estimation du temps d’exécution de la phase de filtrage et celle d’extraction des Caractéristiques………………………………………………...…………………...113 2.5.3 Estimation du temps d’exécution de la phase de vérification………..………….113 2.5.4 Estimation du temps d’exécution de la phase d’identification………..………...114 CONCLUSION GENERALE………………………………….…………………………….115 BIBLIOGRAPHIE………………………………………………………………………...116 ANNEXE A : Reconnaissance des formes………………………………………………....125 ANNEXE B : Bases des images d’iris standards…………………………………………..134 ANNEXE C : Utilisation des fonctions Matlab dans C#......................................................139 ANNEXE D : Taux FAR et FRR individuels………………………………...……………140

Page 12: HAMITOUCHE_SALMI

XII  

Liste des tableaux

CHAPITRE I : INTRODUCTION A LA BIOMETRIE Tableau I.1 : Comparaison de technologies biométriques …………………………………..17 Tableau I.2 : Comparaison des 4 grandes techniques morphologiques en usage …………...17 CHAPITRE V : CONCEPTION DU SYSTEME Tableau V.1 : Distances calculées lors de l’identification des individus 2 et 12……………..71 Tableau V.2 : Distances calculées lors de l’opération de calcul du seuil optimal …………. 73 Tableau V.3 : Distances calculées lors de l’opération de calcul des taux FAR et FRR de l’individu 1 ………………….………………………………………………………………..74 CHAPITRE VI : IMPLEMENTATION ET REALISATION DU SYSTEME Tableau VI.1 : Les différentes classes composant le système IrisSystem Tool …………….76 CHAPITRE VII : TESTS ET RESULTATS Tableau VII.1 : Statistiques de CASIA V1.0 et CASIA-IrisV3-Interval ………………….100 Tableau VII.2 : Valeurs par défaut des paramètres pertinents du système ………………..102 Tableau VII.3 : Taux d’identification des deux techniques de codage ……………………102 Tableau VII.4 : Evolution du taux d’identification suivant le nombre d’images (Napp) utilisées (CASIA V1.0)…..………………………………………………..103 Tableau VII.5 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp) utilisé (CASIA-IrisV3-Interval) .………………………………………….103 Tableau VII.6 : Evolution du taux d’identification suivant les catégories d’individus .…..104 Tableau VII.7 : Evolution du taux d’identification suivant le niveau de segmentation (CASIA V1.0) …………………………………………………………….106 Tableau VII.8 : Evolution du taux d’identification suivant le niveau de segmentation (CASIA-IrisV3-Interval) ………………………………………………….107 Tableau VII.9 : Evolution du taux d’identification suivant la distance utilisée CASIA V1.0) …………………………………………………………..…..108 Tableau VII.10 : Evolution du taux d’identification suivant la distance utilisée (CASIA-IrisV3-Interval)……………………………………………...…108 Tableau VII.11 : Evolution du taux d’identification suivant le type de modèle utilisé…....108 Tableau VII.12 : Evolution du taux d’identification suivant le type de modèle utilisé…....108 Tableau VII.13 : Taux FAR et FRR du système…….……………………………………..112 Tableau VII.14 : Taux FAR et FRR avec des taux d’apprentissage et de test différents (CASIA V1.0) ………………………………………………….……….112 Tableau VII.15 : Temps d’exécution en fonction du zoom de la phase de segmentation et de

Page 13: HAMITOUCHE_SALMI

XIII  

normalisation……………………………………………………….…….113 Tableau VII.16 : Temps d’exécution de la phase de filtrage et celle d’extraction des caractéristiques …………………………………………………….…….113 Tableau VII.17 : Temps d’exécution de la phase de vérification …………………….…....113 Tableau VII.18 : Temps d’exécution de la phase d’identification ……………………...…114 ANNEXE B : BASES DES IMAGES D’IRIS STANDARDS Tableau B.1 : Vue d’ensemble des facteurs de bruit des bases de données standards .........139 Tableau B.2 : Quantité moyenne des pixels affectés par le bruit dans les régions d’iris des images de bases de données …..…………………………………………….139 ANNEXE D : TAUX FAR ET FRR INDIVIDUELS Tableau D.1 : Taux FAR et FRR individuels (CASIA V1.0) ……………………...………141 Tableau D.2 : Taux FAR et FRR individuels (CASIA-IrisV3-Interval)……………...……...144

Page 14: HAMITOUCHE_SALMI

XIV  

Liste des figures

CHAPITRE I : INTRODUCTION A LA BIOMETRIE ET A L’IRIS Figure I.1 : Evolution du marché international de la biométrie……….………………………5 Figure I.2 : Parts de marché des différentes méthodes biométriques…….……………………...5 Figure I.3 : Capture de l’image d’une empreinte digitale…….…………………………….....7 Figure I.4 : Capture de l’image d’un iris…………………………………………………………...7 Figure I.5 : Scan de la forme de la main....................................................................................8 Figure I.6 : Capture de l’image d’un visage…………………………...…………………………..8 Figure I.7 : Rétine de l’œil …………………………………………………………………....9 Figure I.8 : Scan des veines de la main…….……………………………………………………....9 Figure I.9 : Capture de la voix….……………………………………………………………..9 Figure I.10 : Capture d’une signature……….……………………………………………….10 Figure I.11 : Architecture d’un système de reconnaissance biométrique.…………………...12 Figure I.12 : Distributions des taux de vraisemblance des utilisateurs légitimes et des imposteurs d’un système biométrique……………………………...……………………………...14 Figure I.13 : Courbe ROC…….……………………………….…………………………………..15 CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE Figure II.1 : Exemples de textures périodiques……….……………………………………..21 Figure II.2 : Exemples de textures aléatoires……….……………………………………….21 CHAPITRE III : RECONNAISSANCE PAR IRIS Figure III.1 : Structure d’un œil humain…….…………………………...………………………30 Figure III.2 : Images de 4 différents types de texture d’iris…….……………………………...31 Figure III.3 : FRR = (FAR) de différents systèmes…………………………………..……….32 Figure III.4 : Schéma général d’un système de reconnaissance par iris…………………….33 Figure III.5 : Image d’un iris capturé (a) dans le visible, (b) dans le proche infrarouge…....34 Figure III.6 : Illustration du relief de l’iris…….…………………………………………….35 CHAPITRE IV : ONDELETTES Figure IV.1 : La transformée en ondelettes agit comme un zoom mathématique …………..44 Figure IV.2 : Ondelette Chapeau Mexicain pour plusieurs facteurs d’échelle ……………...45 Figure IV.3 : (a) Transformée de Fourier et (b) Transformée en ondelettes …………….…48 Figure IV.4 : Décomposition 1D à l’aide de bancs de filtres ……………………………….50 CHAPITRE V : CONCEPTION DU SYSTEME

Page 15: HAMITOUCHE_SALMI

XV  

Figure V.1 : Phase d’apprentissage ……………………………………………………….…54 Figure V.2 : Phase d’identification ……………………………………………………….…56 Figure V.3 : Phase de vérification ……………………………………………………….…..57 Figure V.4 : Transformation en niveaux de gris ………………………………………….…58 Figure V.5 : Détection des coordonnées de l’iris et de la pupille ………………………..….59 Figure V.6 : Modèle de transformation polaire rectangulaire de John Daugman ……….….60 Figure V.7 : Résultat du processus de normalisation de l’iris avec une résolution angulaire de 40 pixels et une résolution radiale de 10 pixels….……………….………...………61 Figure V.8 : Illustration du procédé de normalisation de l’image d’un iris après localisation de l’iris et de la pupille….………………………………………………………….…………61 Figure V.9 : Illustration du principe de l’approche basée sur la texture ………….…………62 Figure V.10 : Iris normalisé et son masque de bruit ……………………………….………..62 Figure V.11 : Matrice de cooccurrence d’une portion d’image …………………….……….63 Figure V.12 : Matrice de LPNG d’une portion d’image …………………………….……...64 Figure V.13 : Réponse fréquentielle du filtre de Log-Gabor avec une FFT de 121 points....66 Figure V.14 : FFT de 1000 points de la moyenne des signaux angulaires (anneaux circulaires) de l’iris.……….………………………………………….……….66 Figure V.15 : FFT de la moyenne de l’iris normalisé ……………………………….………67 Figure V.16 : Division de la base pour le calcul du taux d’identification …………….…….70 Figure V.17 : Division de la base pour le calcul des taux FAR et FRR …………………….72 CHAPITRE VI : IMPLEMENTATION ET REALISATION DU SYSTEME Figure VI.1 : Aperçu de l’interconnexion entre les sous modules de segmentation et de normalisation .………………………………………………………………...80 Figure VI.2 : Aperçu de l’interconnexion entre les sous modules de IdentificationIndividu.84 Figure VI.3 : Aperçu de l’interconnexion entre les sous modules de VérificationIndividu...85 Figure VI.4 : Aperçu de l’interconnexion entre les sous modules de TauxIndividu ……….86 Figure VI.5 : Interface Présentation ………………………………………………………...87 Figure VI.6 : Interface Chargement et Normalisation ……………………………………....90 Figure VI.7 : Interface Identification ………………………………………………………..91 Figure VI.8 : Interface Vérification ……………………………………………………….. .92 Figure VI.9 : Interface Statistiques ………………………………………………………….94 Figure VI.10 : Interface Taux d’identification ……………………………………………...96 CHAPITRE VII : TESTS ET RESULTATS Figure VII.1 : Exemples d’images d’iris de la base de données CASIA …………………...99 Figure VII.2 : Evolution du taux d’identification suivant le nombre d’images (Napp) utilisées ……………………………………………………………………………………...103 Figure VII.3 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp) utilisé ………………………………………………………………………………………..104 Figure VII.4 : Evolution du taux d’identification suivant les catégories d’individus (CASIA IrisV3-Interval) ……………………………………………………………………105

Page 16: HAMITOUCHE_SALMI

XVI  

Figure VII.5 : Evolution du taux d’identification suivant le niveau de segmentation (CASIA V1.0) ……………………………………………………………………….……...106 Figure VII.6 : Evolution du taux d’identification suivant le niveau de segmentation (CASIA IrisV3-Interval) ……………………………………………………………...…….107 Figure VII.7 : Distributions des distances intra classes et interclasses de la base CASIA V1.0 en utilisant la méthode de filtrage ………………………………………..…………………110 Figure VII.8 : Distributions des distances intra classes et interclasses de la base CASIA V1.0 en utilisant la méthode directe …………………………………………………………...…110 Figure VII.9 : Distributions des distances intra classes et interclasses de la base CASIA IrisV3-Interval en utilisant la méthode de filtrage ………………………………………….111 Figure VII.10 : Distributions des distances intra classes et interclasses de la base CASIA IrisV3-Interval en utilisant la méthode directe ………………………………………….…111 ANNEXE A : RECONNAISSANCE DES FORMES Figure A.1 : Représentation d’un objet dans l’espace de dimension d …………………….125 Figure A.2 : Notions de classes en reconnaissance des formes ……………………………126 Figure A.3 : Cheminement pour le calcul des paramètres constituant le vecteur forme …..127 Figure A.4 : Représentation d’un arbre de décision ……………………………………….131 Figure A.5 : Schéma du principe d’un système par RDF ………………………………….133 ANNEXE B : BASES DES IMAGES D’IRIS STANDARDS Figure B.1 : Exemples d’images d’iris de la base de données BATH…….……..…………..136 Figure B.2 : Exemples d’images d’iris de la base de données ICE….……………...…….….136 Figure B.3 : Exemples d’images d’iris de la base de données MMU….……………...….….137 Figure B.4 : Exemples d’images d’iris de la base de données UPOL….……...……….....….137 Figure B.5 : Exemples d’images d’iris de la base de données WVU….…...………………...138 Figure B.6 : Exemples d’images d’iris de la base de données UBIRIS….………………......138

Page 17: HAMITOUCHE_SALMI

XVII  

Liste des sigles et abréviations ACI : Analyse en Composantes Indépendantes ACP : Analyse en Composantes Principales ADN : Acide DésoxyriboNucléique AFIS : Automatic Fingerprint Identification System AlGaAs : Aluminium Gallium Arsenide BATH : University of Bath Iris Image Database CASIA : Institute of Automation Chinese Academy of Sciences Iris Image Database CCD : Charge-Coupled Device Camera CMOS : Complementary Metal-Oxide Semiconductor DLL : Dynamic Link Library EEG : ElectroEncéphaloGramme EER : Equal Error Rate FA : Fausse Acceptation (False Acceptance) FAR : False Acceptance Rate FFT : Fast Fourier Transform FR : Faux Rejet (False Rejection) FRR : False Rejection Rate GMM : Gaussian Mixture Models HCM : Hard C-Means HTER : Half Total Error Rate IBG :International Biometric Group ICE : Iris Challenge Evaluation Iris Database Image ID : Identification INCITS : InterNational Committee for Information Technology Standards IRIS : Iris Recognition Immigration System IRM : Imagerie par Résonance Magnétique ISO : International Standards Organization JPEG : Joint Photographic Expert Group LVQ : Learning Vector Quantization LDA : Linear Discriminant Analysis LED: Light Emitting Diodes LPNG : Méthode des Longueurs de Plages de Niveaux de Gris MMU : Multimedia University Iris Image Database MRF : Markov Random Fields NEO : Iris Noisy Factor (eyelids obstruction) NLO : Iris Noisy Factor (eyelash obstruction) NLR : Iris Noisy Factor (lighting reflections) NMB : Iris Noisy Factor (motion blurred) NOA : Iris Noisy Factor (off-angle)

Page 18: HAMITOUCHE_SALMI

XVIII  

NOI : Iris Noisy Factor (out-of-iris) NPF : Iris Noisy Factor (poor focused) NPS : Iris Noisy Factor (inaccurate segmentation of inner iris border) NPI: Iris Noisy Factor (partial iris) NSS : Iris Noisy factor (inaccurate segmentation of inner iris border) NSR : Iris Noisy Factor (specular reflections) PC : Personal Computer PIN : Personal Identification Number RDF : Reconnaissance Des Formes ROC : Receiver Operating Characteristics ROI : Region Of Interest SVM : Support Vector Machines TER : Total Error Rate UBIRIS : University of Beira Interior Iris Image Database UPOL : University of Palacki. Olomuc Iris Image Database UV : UltraViolet VGA : Video Graphics Array WVU : West Virginia University Iris Image Database  

Page 19: HAMITOUCHE_SALMI

INTRODUCTION GENERALE   

1  

Tous les systèmes de reconnaissance biométrique existants reposent sur l’étude des différences aléatoires de certaines formes entre des personnes distinctes. La précision des résultats biométriques est d’autant plus grande que cette dimension aléatoire présente dans les domaines analysés est importante. Toutefois, l’aléa nécessairement présent dans l’analyse biométrique engendre un problème de taille : les formes biométriques étudiées dans les systèmes de reconnaissance d’identité doivent garantir des signatures "quasiment" identiques pour une même personne quelles que soient les conditions physiques extérieures lors du test. Prenons par exemple la reconnaissance faciale. Les visages sont des objets en trois dimensions très dynamiques : leurs images de projection sur des plans peuvent varier en fonction de l’angle de vue, de l’éclairage, de l’âge, etc. Les expressions du visage sont susceptibles de modifier considérablement les signatures biométriques d’une même personne. Pour des images prises à une année d’intervalle, on a constaté que les meilleurs algorithmes de reconnaissance faciale présentent des taux d’erreurs élevés. De même, la reconnaissance vocale, souvent utilisée en recherche criminelle, ne semble pas encore constituer un moyen fiable de reconnaissance biométrique. C’est pourquoi la recherche scientifique en reconnaissance vocale se concentre surtout sur la compréhension et l’interprétation de la parole, souvent utilisées dans les différents services téléphoniques automatiques. Au contraire, l’étude de l’iris semble être une alternative de reconnaissance des personnes très performante et sûre à des distances de l’ordre du mètre. En effet, même s’il est petit (10 mm) et par conséquent parfois difficile à photographier, l’iris a l’avantage de présenter une très grande marge de profils possibles (un grand nombre de degrés de libertés), dont la variation entre les personnes est très importante. De plus, étant un organe interne de l’œil, l’iris est très bien protégé du milieu extérieur et sa modification chirurgicale présente de très grands risques. Grâce à sa forme circulaire et surtout planaire, la signature reste insensible à un changement d’angle d’éclairage et une variation de l’angle de vue entraîne seulement une transformation affine de la signature. De plus, la facilité de trouver l’œil dans le visage et la forme particulièrement annulaire de l’iris améliore grandement la précision des résultats. Mais plus spectaculairement, l’iris, contrairement aux autres organes de l’œil tels que la rétine, ne change pas avec l’âge. En effet, l’iris se forme définitivement dès le troisième mois de la gestation et les structures constituant son profil sont achevées au huitième mois (même si la pigmentation peut parfois continuer jusqu’à la première année post-natale). Le profil d’un iris contient beaucoup de ligaments courbés, de sillons, de stries, d’auréoles, de tâches, etc. Des études biologiques ont montré que la diversité de ces traits garantit l’unicité d’un iris humain : les deux iris (droit et gauche) d’une même personne ne sont jamais identiques, de même que les iris de jumeaux. Un système de reconnaissance utilisant l’iris peut difficilement être trompé à partir d'une photo ou d'une lentille de contact reproduisant l'iris de la personne dont on souhaite usurper l'identité car la résolution demandée est très importante (distance iris / caméra faible,

Page 20: HAMITOUCHE_SALMI

INTRODUCTION GENERALE   

2  

évolution rapide de la technologie des capteurs). De plus il est possible de repérer, par filtrage, si l'iris présenté est constitué d'une suite régulière de points et non d'un motif varié. Enfin, il existe de nombreuses techniques qui permettent de s'assurer que l'iris présenté est humain (ou très ressemblant) : si l'on fait varier l'éclairage, le diamètre de la pupille varie. Les temps de latence et vitesse de variation sont mesurables (il est possible d'éclairer à l'infrarouge et d'observer les images obtenues). L'œil est opaque dans l'infrarouge lointain (proche du thermique) ainsi qu'aux ultraviolets (UV). Les premières traces d’une proposition d’utilisation du motif de l’iris comme moyen de reconnaissance des individus remontent à un manuel d’ophtalmologie écrit par James Doggarts datant de 1949. On dit même que l’ophtalmologiste Frank Burch en avait émis l’idée dès 1936. Durant les années 80, l’idée reparut dans le cinéma, mais elle restait du domaine de la science fiction. Ce n’est donc qu’en 1986 que deux ophtalmologistes (Aran Safir et Leonard Flom) déposèrent un brevet sur cette idée et demandèrent à John Daugman (enseignant à cette époque à l’université de Harvard et inventeur de la reconnaissance biométrique par iris) d’essayer de trouver un algorithme d’identification basé sur le motif de l’iris. Cet algorithme a été breveté en 1994. Il est la base de tous les systèmes de reconnaissance d’iris actuels. Les systèmes de reconnaissances sont devenus très rapidement indispensables à notre société moderne qui est en recherche permanente de solutions efficaces aux problèmes de sécurité. C’est pourquoi beaucoup de systèmes de reconnaissance par l’iris ont été développés depuis quelques décennies et sont actuellement utilisés. Aujourd’hui, leurs applications sont nombreuses : remplacer progressivement les passeports et les cartes d’identités lors de l’accès aux aéroports, contrôler l’accès à des zones restreintes ou sécurisées et même aux maisons, contrôler l’immigration (en Grande Bretagne par exemple, le programme I.R.I.S. (Iris Recognition Immigration System) contrôlant l’accès des immigrés sans papiers aux principaux aéroports du pays a été mis en place en 2004), l’accès aux bases de données, etc. Nous présentons dans ce mémoire, un système d’identification biométrique de personnes par reconnaissance de l’iris que nous baptisons Iris System Tool. Ce système permet d’illustrer le processus d’identification (reconnaissance des individus) et celui de vérification (contrôle d’accès). Lors de la phase d’identification, un individu possédant un modèle dans la base de données peut s’identifier grâce aux images prises par un capteur, qui comparées à tous les modèles de la base, détermineront son identité. Lors de la phase de vérification, à défaut d’une carte à puce, un individu possédant un modèle dans la base de données peut effectuer un test de vérification grâce aux seuils individuels sauvegardés dans la base, permettant ainsi au système de se prononcer sur la véracité de son identité. Nous avons choisi comme méthode l’analyse du contenu spatial des images d’iris (technique basée sur la texture). Cette méthode est largement utilisée dans l’imagerie médicale et dans d’autres domaines de l’imagerie telle que la reconnaissance automatique de texture (segmentation des objets). Nous avons également testé cette méthode sur le contenu spatial filtré d’une image d’iris. Le mémoire s’organise de la manière suivante :

Page 21: HAMITOUCHE_SALMI

INTRODUCTION GENERALE   

3  

Dans le chapitre I, nous commencerons par faire un état de l’art des principales techniques biométriques physiologiques et comportementales, et donner un aperçu sur l’apparition et le développement de nouvelles technologies. Nous présenterons ensuite quelques exemples d’application de la biométrie dans la vie courante, ainsi que l’architecture d’un système biométrique. Enfin, les critères d’évaluation des performances d’un système biométrique seront introduits, et une comparaison des différentes technologies sera proposée. Dans le chapitre II, nous présenterons l’analyse de texture. Nous commencerons par introduire la notion de texture. Nous verrons ensuite le besoin d’analyse de texture. Enfin, nous décrirons les méthodes d’analyse de texture en se basant sur les méthodes statistiques. Le chapitre III sera consacré aux algorithmes de reconnaissance d’iris. Nous exposerons les contraintes liées à l’acquisition d’une image d’iris par un système vidéo. Nous verrons ensuite les différentes techniques de reconnaissance d’iris trouvées dans la littérature, et présenterons quelques méthodes connues de reconnaissance d’iris. Nous conclurons ce chapitre par une présentation des standards et les chalenges dans les systèmes de reconnaissance d’iris. Dans le chapitre IV, nous ferons une rapide introduction sur le traitement du signal et l’apparition de la transformée en ondelettes comme outil présentant de nombreux avantages et qui tend à s’imposer en remplacement de la transformée de Fourier et de ses dérivées. Nous décrirons ensuite plus précisément les bases théoriques de la transformée en ondelettes et introduirons les notions d’ondelettes orthogonales. Nous verrons également l’analyse multi-résolution qui permet le traitement des signaux à différentes échelles (ou niveaux de résolution) et qui, alliée à la transformée en ondelettes, constitue une méthode puissante d’analyse du signal, et notamment des images. Nous conclurons ce chapitre par la comparaison entre la transformée de Fourier et la transformée en ondelettes, et insisterons sur les avantages de cette dernière en terme de représentation de l’information. Dans le chapitre V, nous présenterons la conception globale du système Iris System Tool. Nous étudierons le fonctionnement de ce système à savoir le processus d’identification et celui de vérification. Nous verrons ensuite la structure modulaire du système. Enfin, nous présenterons les performances du système en identification et en vérification. Le chapitre VI sera consacré à l’implémentation et réalisation du système, Nous présenterons les outils de développement. Nous verrons ensuite la structure de données et l’implémentation. Nous conclurons ce chapitre par la présentation de l’application à savoir ses différentes interfaces. Dans le dernier chapitre, nous commencerons par une présentation des deux bases de données sur lesquelles nous avons effectué nos tests. Nous décrirons ensuite les paramètres pertinents du système. Nous conclurons ce chapitre par les différents tests et résultats obtenus sur ces deux bases.  

Page 22: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

4  

Introduction : Depuis quelques décennies, l’explosion de l’informatique et des réseaux de communication a fait augmenter de manière significative le besoin d’identification des personnes. Jusqu’à présent les méthodes usuelles d’identification sont basées sur ce que l’on possède (carte d’identité, carte à puce, badge magnétique…) ou sur ce que l’on sait (mot de passe, code PIN…) mais ces méthodes posent de gros problèmes de fiabilités (falsification de document, oubli de son code, décryptage du mot de passe via des logiciels spécifiques…). Une identification fiable des personnes est devenue un problème majeur pour des raisons de sécurité (contrôle aux frontières, accès aux lieus publiques, transport…). Tous ces problèmes ont ainsi provoqué un développement accru des techniques biométriques d’identification [1] [2]. Dans ce chapitre, nous commençons par présenter la biométrie de manière générale ainsi que les diverses applications qui en découlent, en insistant plus particulièrement sur l’utilisation de l’iris pour la reconnaissance d’individus. 1. La biométrie : 1.1 Définition : Le mot anglais « Biometric », utilisé pour définir « La mesure des éléments morphologiques des humains », est fréquemment traduit en français par « Biométrie ». La définition de « Biométrie » donnée par le Petit Robert est une « science qui étudie à l'aide de mathématiques (statistiques, probabilités) les variations biologiques à l'intérieur d'un groupe déterminé ». La biométrie consiste en l’analyse mathématique des caractéristiques biologiques d’une personne et a pour objectif de déterminer son identité de manière irréfutable. Contrairement à ce que l’on sait ou ce que l’on possède la biométrie est basée sur ce que l’on est et permet ainsi d’éviter la duplication, le vol, l’oubli ou la perte. Les caractéristiques utilisées doivent être universelles (c'est-à-dire communes à tous les individus), uniques (pour pouvoir différencier deux individus) et permanentes (c'est-à-dire invariantes dans le temps pour chaque individu). 1.2 Le marché mondial de la biométrie : Régulièrement, un rapport sur le marché de la biométrie est édité par IBG (International Biometric Group). Cette étude est une analyse complète des chiffres d'affaires, des tendances de croissance, et des développements industriels pour le marché de la biométrie actuel et futur. La lecture de ce rapport est essentielle pour des établissements déployant la technologie biométrique, les investisseurs dans les entreprises biométriques, ou les développeurs de solutions biométriques. Le chiffre d'affaires de l'industrie biométrique incluant les applications judiciaires et celles du secteur public, se développe rapidement. Une grande partie de la croissance sera attribuable au contrôle d'accès aux systèmes d'information (ordinateur / réseau) et au commerce électronique, bien que les applications du secteur public continuent à être une partie essentielle de l'industrie.

Page 23: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

5  

On prévoit que le chiffre d'affaires des marchés émergents (accès aux systèmes d'information, commerce électronique et téléphonie, accès physique, et surveillance) dépasse le chiffre d'affaires des secteurs plus matures (identification criminelle et identification des citoyens).

 

Figure I.1 : Evolution du marché international de la biométrie [3]. 1.3 Les parts de marché par technologie : Les empreintes digitales continuent à être la principale technologie biométrique en termes de part de marché, près de 50% du chiffre d’affaires total (hors applications judiciaires). La reconnaissance du visage, avec 12% du marché (hors applications judiciaires), dépasse la reconnaissance de la main, qui avait avant la deuxième place en termes de source de revenus après les empreintes digitales.

Figure I.2 : Parts de marché des différentes méthodes biométriques [3].

Page 24: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

6  

1.4 Les modes opératoires d’un système biométrique : Un système biométrique peut avoir deux modes opératoires [4] : la vérification et l’identification. La vérification, également appelée authentification, consiste à confirmer ou infirmer l’identité d’une personne (suis-je celui que je prétends être ?). Il s’agit d’une comparaison du type un contre un ; les caractéristiques de l’individu sont comparées à celles présentes dans un enregistrement de référence. Quant à l’identification, elle permet d’établir l’identité d’une personne (qui suis-je ?) à partir d’une base de données, il s’agit d’une comparaison du type un contre plusieurs. 1.5 Les techniques biométriques : Parmi les différentes techniques biométriques existantes, on distingue deux grandes catégories : 1.5.1 L’analyse morphologique (physiologique) : Elle est basée sur l'identification de traits physiques particuliers qui, pour toute personne, sont uniques et permanents. Cette catégorie regroupe les empreintes digitales, l’iris de l’œil, la forme de la main, les traits du visage, le réseau veineux de la rétine, les veines de la main, etc. 1.5.2 L’analyse comportementale : Elle se base sur l'analyse de certains comportements d'une personne. Cette catégorie regroupe la reconnaissance vocale, la dynamique de frappe au clavier, la dynamique de la signature, l’analyse de la démarche, etc. Il existe, par ailleurs, une autre catégorie qui est l’étude des traces biologiques telles que : l’ADN, le sang, la salive, l’urine, l’odeur, etc. 1.6 Présentation des techniques biométriques : 1.6.1 L’empreinte digitale [5] : Une empreinte digitale est constituée d’un ensemble de lignes localement parallèles formant un motif unique pour chaque individu. On distingue les stries (ou crêtes, ce sont les lignes en contact avec une surface au toucher) et les sillons (ce sont les creux entre deux stries). Les stries contiennent en leur centre un ensemble de pores régulièrement espacés. Chaque empreinte possède un ensemble de points singuliers globaux (les centres et les deltas) et locaux (les minuties). Les centres correspondent à des lieux de convergence des stries tandis que les deltas correspondent à des lieux de divergence. L'acquisition des données est faite par un capteur électronique de type optique, thermique, capacitif ou à ultrasons.

Page 25: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

7  

Figure I.3 : Capture de l’image d’une empreinte digitale.

1.6.2 L’iris [6] [7] : L’iris est une technique extrêmement fiable car il contient une infinité de points caractéristiques (ensemble fractal), la fraude étant néanmoins possible en utilisant des lentilles. L’acquisition de l’iris est effectuée au moyen d’une caméra pour pallier aux mouvements inévitables de la pupille. Elle est très sensible (précision, reflet…) et relativement désagréable pour l’utilisateur car l’œil doit rester grand ouvert et il est éclairé par une source lumineuse pour assurer un contraste correct.

Figure I.4 : Capture de l’image d’un iris. 1.6.3 La géométrie de la main [8] : Jusqu’à 90 caractéristiques de la main sont mesurées (forme de la main et des articulations, longueur et largeur des doits, longueur inter articulations…). Le taux d’erreurs dans la reconnaissance est assez élevé, en particulier pour des personnes appartenant à une même famille en raison d’une forte ressemblance. De plus, la forme de la main évolue beaucoup avec l’âge.

Page 26: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

8  

Figure I.5 : Scan de la forme de la main. 1.6.4 Le visage [9] [10] : Plusieurs parties du visage (joues, yeux, nez, bouche…) sont extraites d’une photo ou d’une vidéo et analysées géométriquement (distance entre différents points, positions, formes…). Le problème de cette méthode vient des possibles perturbations pouvant transformer le visage (maquillage, faible luminosité, présence d’une barbe ou d’une lunette, expression faciale inhabituelle, changement avec l’âge, etc.).

Figure I.6 : Capture de l’image d’un visage. 1.6.5 La rétine [11] : Cette technique se base sur le fait que les vaisseaux sanguins d’une rétine sont uniques pour chaque personne. L’utilisateur doit placer son œil face à un orifice de capture situé sur le dispositif d’acquisition. Un faisceau lumineux traverse l’œil jusqu’aux vaisseaux sanguins capillaires de la rétine. Le système localise et capture ainsi environ 400 points de référence. Cette technique requiert une collaboration étroite de la part de l’utilisateur, car il doit placer son œil extrêmement près de la caméra.

Page 27: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

9  

Figure I.7 : Rétine de l’œil. 1.6.6 Les veines de la main [12] : L’utilisateur place sa main dans une chambre ou un gabarit de lecture. Les caractéristiques des veines sont lues par une caméra infrarouge qui en tire une image en deux dimensions. Cette image est ensuite digitalisée et enregistrée pour comparaison future.

Figure I.8 : Scan des veines de la main. 1.6.7 La reconnaissance vocale [13] [14] : Les caractéristiques du timbre de la voix et de la prononciation sont analysées. La qualité de l’enregistrement peut poser problème et il est possible de frauder avec un échantillon vocal préenregistré.

Figure I.9 : Capture de la voix.

Page 28: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

10  

1.6.8 La dynamique de frappe au clavier [15] : Un système basé sur la dynamique de frappe au clavier ne nécessite aucun équipement particulier, chaque ordinateur disposant d’un clavier. Il s’agit d’un dispositif logiciel qui calcule le temps où un doigt effectue une pression sur une touche et le temps où un doigt est dans les airs (entre les frappes). Cette mesure est capturée environ mille fois par seconde. La séquence de frappe est prédéterminée sous la forme d’un mot de passe. Initialement l’utilisateur doit composer son mot de passe à quelques reprises afin que soit constitué un gabarit de référence. Ce dispositif biométrique est utilisé comme méthode de vérification pour le commerce électronique et comme mécanisme de contrôle d’accès à des bases de données. 1.6.9 La dynamique du tracé de la signature [16] : Il s’agit d’une analyse comportementale où différents éléments (mesure da la vitesse, ordre d’écriture, pression exercée, accélération…) sont mesurés lors de la signature. La falsification est possible en passant par une phase d’apprentissage, la signature peut carier selon le stress de l’utilisateur.

Figure I.10 : Capture d’une signature. 1.6.10 L’analyse de la démarche [17] : Il s'agit de reconnaître un individu par sa façon de marcher et de bouger (vitesse, accélération, mouvements du corps…), en analysant des séquences d'images. La démarche serait en effet étroitement associée à la musculature naturelle et donc très personnelle. Son inconvénient majeur est qu’elle est sensible aux changements d’habits, chaussures et surface. Ceci rend cette approche limitée au monde de la recherche seulement. 1.7 Applications de la biométrie : Les applications de la biométrie peuvent être divisées selon quatre groupes : service public, application de la loi, transaction commerciale et bancaire, accès physique et logique. 1.7.1 Service public : - La biométrie est fréquemment utilisée par les services d’immigration pour contrôler automatiquement l’identité des personnes entrantes ou sortantes d’un territoire, ainsi l’iris, le visage et l’empreinte digitale sont à l’essai dans de nombreux aéroports.

Page 29: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

11  

- De même en santé publique, la biométrie serait utile pour supprimer les cartes d’assurance sociale, ou du moins vérifier l’identité de leur propriétaire. 1.7.2 Application de la loi : - L’authentification de criminels par reconnaissance automatique de leurs empreintes digitales a montré son efficacité, cette pratique se mondialise, et la réalisation d’une base données internationale est en cours de réflexion. - Le suivi de prisonniers à domicile est déjà assuré par des systèmes de vérification de la voix dans certains états des Etats-Unis. - Le vote électoral par internet. - L’identification d’enfants kidnappés ou disparus, dont la véritable identité a été masquée. - Protection électronique de documents. 1.7.3 Transaction commerciale et bancaire : - Transaction de commerce électronique sécurisée visant à l’achat d’un bien ou d’un service à distance. - Apparition de machines de retrait automatique d’argents disposant d’un système de vérification d’individu basé sur l’iris. 1.7.4 Accès physique et logique : On parle de contrôle d’accès physique lorsqu’on cherche à sécuriser l’accès à un lieu (entrée d’un bâtiment), alors que le contrôle d’accès logique concerne l’accès informatique à un terminal, serveur et réseau informatique ou de télécommunication (ex : ordinateur, téléphone portable, base de données privée). 2. Architecture d’un système biométrique : Il existe toujours au moins deux modules dans un système biométrique: le module d’apprentissage et celui de reconnaissance [18] [19]. Le troisième module (facultatif) est le module d’adaptation. Pendant l’apprentissage, le système va acquérir une ou plusieurs mesures biométriques qui serviront à construire un modèle de l’individu. Ce modèle de référence servira de point de comparaison lors de la reconnaissance. Le modèle pourra être réévalué après chaque utilisation grâce au module d’adaptation. 2.1 Module d’apprentissage : Au cours de l’apprentissage, la caractéristique biométrique est tout d’abord mesurée grâce à un capteur; on parle d’acquisition ou de capture. En général, cette capture n’est pas directement stockée et des transformations lui sont appliquées. En effet, le signal contient de l’information inutile à la reconnaissance et seuls les paramètres pertinents sont extraits. Le modèle est une représentation compacte du signal qui permet de faciliter la phase de reconnaissance, mais aussi de diminuer la quantité de données à stocker. Il est à noter que la qualité du capteur peut grandement influencer les performances du système. Meilleure est la qualité du système d’acquisition, moins il y aura de prétraitements à effectuer pour extraire les paramètres du signal.

Page 30: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

12  

 

     

     

                                                          . . . 

                                                                                                                        

       

     

     

                                                                                                                                                            ID

Figure I.11 : Architecture d’un système de reconnaissance biométrique. 

Cependant, les capteurs de qualité sont en général coûteux et leur utilisation est donc limitée à des applications de haute sécurité pour un public restreint. Le modèle peut être stocké dans une base de données comme représenté sur la figure I.4 ou sur une carte de type carte à puce. 2.2 Module de reconnaissance : Au cours de la reconnaissance, la caractéristique biométrique est mesurée et un ensemble de paramètres est extrait comme lors de l’apprentissage. Le capteur utilisé doit avoir des propriétés aussi proches que possibles du capteur utilisé durant la phase d’apprentissage. Si les deux capteurs ont des propriétés trop différentes, il faudra en général appliquer une série de prétraitements supplémentaires pour limiter la dégradation des performances. La suite de la reconnaissance sera différente suivant le mode opératoire du système : identification ou vérification. En mode identification, le système doit deviner l’identité de la personne. Il répond donc à une question de type : « Qui suis-je ? ». Dans ce mode, le système compare le signal mesuré avec les différents modèles contenus dans la base de données (problème de type 1 : N). En général, lorsque l’on parle d’identification, on suppose que le problème est fermé, c’est-à-dire que toute personne qui utilise le système possède un modèle dans la base de données. En mode vérification, le système doit répondre à une question de type : « Suis-je bien la personne que je prétends être ? ». L’utilisateur propose une identité au système et le système doit vérifier que l’identité de l’individu est bien celle proposée. Il suffit donc de comparer le signal avec un seul des modèles présents dans la base de données (problème de type 1 : 1). En mode vérification, on parle de problème ouvert puisque l’on suppose qu’un individu qui n’a pas de modèle dans la base de données (imposteur) peut chercher à être reconnu. Identification et vérification sont donc deux problèmes différents.

Base de données

Reconnaissance

Adaptation

Apprentissage

Mesure de la caractéristique

Mesure de la caractéristique

Extraction des paramètres

Extraction des paramètres

Comparaison et décision

Page 31: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

13  

L’identification peut-être une tâche redoutable lorsque la base de données contient des milliers, voire des millions d’identités, tout particulièrement lorsqu’il existe des contraintes de type « temps réel » sur le système. Ces difficultés sont analogues à celles que connaissent par exemple les systèmes d’indexation de documents multimédia. 2.3 Module d’adaptation : Pendant la phase d’apprentissage, le système biométrique ne capture souvent que quelques instances d’un même attribut afin de limiter la gêne pour l’utilisateur. Il est donc difficile de construire un modèle assez général capable de décrire toutes les variations possibles de cet attribut. De plus, les caractéristiques de cette biométrie ainsi que ses conditions d’acquisition peuvent varier. L’adaptation est donc nécessaire pour maintenir voire améliorer la performance d’un système utilisation après utilisation. L’adaptation peut se faire en mode supervisé ou non-supervisé mais le second mode est de loin le plus utile en pratique. Si un utilisateur est identifié par le module de reconnaissance, les paramètres extraits du signal serviront alors à ré-estimer son modèle. En général, le taux d’adaptation dépend du degré de confiance du module de reconnaissance dans l’identité de l’utilisateur. Bien entendu, l’adaptation non-supervisée peut poser problème en cas d’erreurs du module de reconnaissance. L’adaptation est quasi indispensable pour les caractéristiques non permanentes comme la voix [20] [21]. 3. Evaluation d’un système biométrique : La performance d’un système d’identification peut se mesurer principalement à l’aide de trois critères : sa précision, son efficacité (vitesse d’exécution) et le volume de données qui doit être stocké pour chaque locuteur. Nous nous concentrerons au premier aspect qui est la précision. L’identification et la vérification sont des modes opératoires différents. Elles nécessitent donc des mesures de précision différentes. 3.1 Evaluation de l’identification : Le taux d’identification est la mesure la plus couramment utilisée mais il n’est pas toujours suffisant. En effet, en cas d’erreur, il peut être utile de savoir si le bon choix se trouve dans les N premiers. On trace alors le score cumulé (cumulative match score) qui représente la probabilité que le bon choix se trouve parmi les N premiers [22]. Dans le cas où il existe plusieurs modèles pour chaque individu dans la base de données, les mesures classiques des systèmes de recherche dans une base de données (database retrieval system) peuvent être utilisées. La précision (precision) est le rapport entre le nombre de modèles correctement retrouvés par le système dans la base de données et le nombre total de modèles retrouvés. Le rappel (recall) est le rapport entre le nombre de modèles correctement retrouvés dans la base de données et le nombre total de modèles qui auraient dû être retrouvés. Le type d’erreurs commises par ce genre de système est d’attribuer à l’individu présenté une identité autre que la sienne. Les performances de ce système sont mesurées à l’aide du taux d’identification [23].

Page 32: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

14  

Ce paramètre dépend du nombre de personnes contenues dans la base de données. En effet, plus la base est volumineuse (nombre de tests important), plus le taux d’erreurs risque d’être grand. 3.2 Evaluation de la vérification : La vérification est un problème de décision qui peut être formulé de la manière suivante : Soient l’hypothèse : « La capture C provient d’un imposteur » et l’hypothèse : « La capture C provient de l’utilisateur légitime ». Il faut donc choisir l’hypothèse la plus probable. On considère que la capture C provient d’un utilisateur légitime si . En appliquant la loi de Bayes [4], on obtient :

Et donc :

Le taux de vraisemblance (likelihood ratio) est comparé à un seuil appelé seuil

de décision. Les valeurs et qui représentent respectivement la probabilité pour qu’un imposteur ou un utilisateur légitime essayent d’accéder au système sont des valeurs difficiles à estimer. La figure I.5 représente la distribution hypothétique des scores de vraisemblance qu’obtiendraient les utilisateurs.

Page 33: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

15  

Figure I.12 : Distributions des taux de vraisemblance des utilisateurs légitimes et des imposteurs d’un système biométrique.

Lors de la vérification, le taux est comparé au seuil de décision , si est inférieur à alors l’individu est accepté sinon celui-ci est rejeté. Le système peut faire deux types d’erreurs :

FA (False Acceptance) : La fausse acceptation correspond au cas où le système accepte un individu qui a proclamé une identité qui n’est pas la sienne.

FR (False Rejection) : Le faux rejet correspond au cas où le système rejette un client légitime. Les performances de ce type de système se basent principalement sur le taux de faux rejet et le taux de fausse acceptation.

On remarque à travers la figure I.5 que plus le seuil de décision est petit, plus le système acceptera de clients légitimes mais aussi des imposteurs, plus est grand, plus le système rejettera d’imposteurs mais aussi des utilisateurs légitimes. Le paramétrage d’un système consiste à trouver le bon équilibre entre ces deux taux. Les performances d’un système biométrique peuvent être présentées graphiquement à l’aide de la courbe ROC (Receiver Operating Characteristics) sur laquelle les FRRs sont données en fonction des FAR (voir Figure I.6). Cette courbe est obtenue en calculant un couple (FAR, FRR) pour chaque valeur du seuil de décision, ce dernier varie de la plus petite valeur des taux obtenus en phase de test à la plus grande valeur.

 

Figure I.13 : Courbe ROC.

Page 34: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

16  

Il existe d’autres critères fréquemment utilisés pour donner un aperçu des performances des systèmes de vérification :

EER (Equal Error Rate) : Le taux d’erreur égale correspond à l’intersection de la courbe ROC avec la première bissectrice, en d’autres termes, EER correspond au point de fonctionnement pour lequel le taux de faux rejet est égal au taux de fausse acceptation.

HTER (Half Total Error Rate) : représente la moyenne du FAR et FRR.

TER (Total Error Rate) : Le taux d’erreur globale correspond au taux d’erreur totale (faux rejet et fausse acceptation) obtenu lors du test. 4. Comparaison des différentes techniques biométriques : En théorie on dit qu’un critère physiologique (ou biométrie) est exploitable pour la reconnaissance d’individus s’il satisfait les conditions suivantes : - Universalité, qui signifie que chaque personne possède des caractéristiques comparables. - Unicité, qui spécifie que 2 personnes ne possèdent jamais 2 signatures semblables. - Permanence, qui assure sa durabilité tout au long d’une vie humaine. - Mesurabilité, qui justifie de la possibilité de le quantifier. De plus, on caractérise un système de reconnaissance biométrique par : - Sa performance, en d’autres termes sa capacité à identifier un individu compte tenu de certaines perturbations externes au système. - Son acceptabilité, qui traduit la confiance et la coopération observées des individus. - Sa circonvention, qui réfère à la facilité de le pirater.

Page 35: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

17  

Biométrie Universalité Unicité Permanence Mesurabilité Performance Acceptabilité Circonvention

DNA Haute Haute Haute Faible Haute Faible Faible Oreille Moyenne Moyenne Haute Moyenne Moyenne Haute Moyenne Visage Haute Faible Moyenne Haute Faible Haute Haute Thermo Visage Haute Haute Faible Haute Moyenne Haute Haute

Empreinte Moyenne Haute Haute Moyenne Haute Moyenne Moyenne Démarche Moyenne Faible Faible Haute Faible Haute Moyenne Géométrie

Main Moyenne Moyenne Moyenne Haute Moyenne Moyenne Moyenne

Veines Main Moyenne Moyenne Moyenne Moyenne Moyenne Moyenne Faible

Iris Haute Haute Haute Moyenne Haute Faible Faible Frappe Clavier Faible Faible Faible Moyenne Faible Moyenne Moyenne

Odeur Haute Haute Haute Faible Faible Moyenne Faible Rétine Haute Haute Moyenne Faible Haute Faible Faible

Signature Faible Faible Faible Haute Faible Haute Haute Voix Moyenne Faible Faible Moyenne Faible Haute Haute

Tableau I.1 : Comparaison de technologies biométriques [24].

A partir de ces sept critères, une première comparaison des principales technologies biométriques est proposée sur le Tableau I.1. Parmi les techniques les plus matures, on distingue le visage, l’empreinte digitale, la géométrie de la main, l’iris et la rétine, qui présentent des bonnes caractéristiques. Mais aucune d’entre elles n’est parfaite. Chaque technique possède des avantages et des inconvénients, acceptables ou inacceptables suivant les applications en termes de niveau de sécurité et/ou de facilité d’emploi, etc. Aussi nous sommes tentés de dire que ces cinq solutions biométriques ne sont pas systématiquement en concurrence. Cela dit, pour des applications grand public, la reconnaissance rétinienne, qui nécessite un appareillage d’acquisition sophistiqué et coûteux, peut être d’ores et déjà écartée car trop intrusive. Parmi les facteurs de performances, on se doit aussi de prendre en compte certains paramètres d’usage tels que les taux de FAR et FRR.

Technique biométrique FAR (%) FRR (%) Iris 0.00129 0.583

Empreinte digitale 0.01 2.54 Géométrie de la main 0.05 7,29

Visage 1 10

Tableau I.2 : Comparaison des 4 grandes techniques morphologiques en usage [25]. En regardant le Tableau I.2, on voit que l’iris est tout particulièrement prometteur, et on comprend mieux le vif intérêt et la convoitise des industriels que l’iris a suscités depuis 2000. Sa stabilité au cours du temps (car protégé derrière les paupières et l’humeur aqueuse de la cornée), sa précision, sa faible complexité algorithmique (temps d’exécution d’une identification sur une large base de données relativement court), la compacité des gabarits extraits de sa texture, sont autant de points forts qui laissent penser que l’iris a un bel avenir en reconnaissance biométrique d’individus.

Page 36: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

18  

Toutefois, les deux problèmes majeurs de l’analyse par l’iris sont : sa faible capacité d’intégration (portabilité sur systèmes embarqués) et le fait qu’elle soit perçue comme intrusive ou contraignante par l’utilisateur car l’acquisition d’une image d’iris exige un certain apprentissage et une complète coopération. On notera que les capteurs intégrés d’empreintes digitales posent d’autres problèmes : les variations du taux d’hygrométrie, les poussières, la graisse, les cicatrices et l’usure des doigts sont autant de paramètres qui altèrent l’information biométrique. Les systèmes de reconnaissance de visage sont eux extrêmement sensibles à l’environnement (éclairage, lunettes, etc.). Une comparaison des méthodes biométriques nous a montré que l’iris semble plus fiable que l’empreinte digitale, le visage, la géométrie de la main et la rétine. Ses performances sont liées à l’unicité des caractéristiques contenues dans la texture de l’iris humaine. Par contre la mesurabilité de cette texture est comparativement faible, et limite l’utilisation de l’iris dans des applications sur systèmes embarqués. 5. La multi modalité dans la biométrie : Il existe différentes formes de multi modalités : 5.1 Systèmes multiples biométriques : Utiliser en même temps plusieurs modalités biométrique du corps humain, par exemple, combiner le visage, les empreintes digitales ainsi que la voix. 5.2 Systèmes multiples d’acquisition : Utiliser plusieurs techniques d’acquisition sur la même modalité biométrique, par exemple, utiliser des scanners différents (l’un optique, l’autre thermique) pour la reconnaissance d’empreintes digitales. 5.3 Mesures multiples d’une même unité biométrique : Par exemple, faire la reconnaissance sur les deux iris au lieu d’un seul, ou bien faire la reconnaissance sur les dix doits d’un même individu. 5.4 Instances multiples d’une même mesure : Faire une capture répétée du même attribut biométrique avec le même système d’acquisition. Par exemple effectuer une authentification pour plusieurs images faciales d’un même individu à partir d’une vidéo à des intervalles précis. 5.5 Algorithmes précis : Utiliser différents algorithmes de reconnaissance sur le même signal d’entrée. Par exemple, combiner les deux méthodes GMM (Gaussian Mixture Models) et SVM (Support Vector Machines) pour la reconnaissance du locuteur. Conclusion : Dans ce chapitre, nous avons présenté une vue générale de la biométrie, un survol sur quelques techniques biométriques ainsi que l’architecture d’un système biométrique. La

Page 37: HAMITOUCHE_SALMI

CHAPITRE I Introduction à la biométrie   

19  

performance et la fiabilité d’un système biométrique s’expriment par le taux d’identification et les taux d’erreurs commises. Dans le but d’obtenir de meilleures performances, les chercheurs ont recours à la combinaison de deux ou plusieurs modalités différentes. Le fait que l’iris soit texturé nous conduit à introduire dans le chapitre suivant les différents concepts de base de l’analyse de la texture d’une image.  

Page 38: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

20  

Introduction : L'analyse est un domaine très important du traitement de l'image. L'analyse de l'image consiste souvent à extraire un certain nombre de propriétés caractéristiques et à les exprimer sous forme paramétrique. L'étape d'extraction des paramètres précède souvent une étape de décision de manière à pouvoir répondre à des questions telles que : matériau normal ou défectueux ? Tissu biologique sain ou pathologique ? Types de défauts ? Les paramètres calculés permettent donc de décrire, de caractériser, de segmenter et d'analyser les images en question. Selon le cas, l'analyse peut être globale ou locale, la notion de localité prenant toute son importance avec la complexité de l'image. Il est évident que le choix des paramètres dépend surtout de l'application considérée, par exemple de lier ces paramètres avec les propriétés physiques et biologiques réelles afin de les quantifier ou alors de trouver des similitudes avec des textures de référence afin de les identifier. L'interprétation des informations dans un environnement naturel n'est pas un problème simple. En effet, les textures naturelles sont très irrégulières et ne peuvent être modélisées précisément par les techniques mathématiques actuelles. 1. Analyse de texture : 1.1 Définition : La définition littéraire de la texture est la suivante : " répétition spatiale d'un même motif dans différentes directions de l'espace ". Cette définition est limitative car elle caractérise l'objet indépendamment d'un observateur humain. La notion de texture est utilisée pour traduire un aspect homogène de la surface d'un objet sur une image. La texture se manifeste donc par une information visuelle qui permet de la décrire qualitativement à l'aide des adjectifs suivants: grossière, fine, lisse, tachetée, granuleuse, marbrée, régulière ou irrégulière. De nombreuses études psycho visuelles ont été faites sur la discrimination de texture par le système visuel humain. Une conjecture importante et valide dans beaucoup de cas est que l'œil humain ne peut discerner instantanément deux textures dont les statistiques du second ordre sont identiques. Cependant, il existe des cas où des textures ayant les mêmes statistiques du second ordre sont néanmoins discriminables sur la base de propriétés locales. Haralick [1] élargit la définition en décrivant une texture comme un phénomène à deux dimensions : la première concernant la description d'éléments de base ou primitives (le motif) à partir desquels est formée la texture; la deuxième dimension est relative à la description de l'organisation spatiale de ces primitives. Unser [2] présente la texture comme une structure disposant de certaines propriétés spatiales homogènes et invariantes par translation. Une autre approche serait encore de définir la texture à partir de deux types d'informations essentielles que comporte l'image : - Les contours, de type monodimensionnel, qui marquent les frontières entre régions homogènes. - L'aspect de surface, de type bidimensionnel, qui définit les régions homogènes. Cependant, la description d'une texture peut s'avérer erronée à une autre échelle d'observation, c'est à dire en changeant la résolution. Il existe deux grands types de textures : les textures aléatoires et les textures dites périodiques ou structurées.

Page 39: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

21  

- Une texture périodique est formée de primitives arrangées d'une façon particulière, rangée. Le motif de base se répète alors de manière régulière. On parle de texture ordonnée.

Figure II.1 : Exemples de textures périodiques.

- Une texture aléatoire semble totalement désordonnée. Il est alors impossible d'isoler un motif de base.

Figure II.2 : Exemples de textures aléatoires.

Gagalowicz [3] propose une synthèse des deux approches en considérant la texture comme "une structure spatiale constituée de l'organisation de primitives ayant chacune un aspect aléatoire, donc une structure hiérarchique à deux niveaux". 1.2 Besoin d’analyse de texture : L’analyse de texture d’une image donnée peut être essentielle pour plus d’une raison. Nous pouvons avoir besoin de trouver différentes régions dans une image, qui sont séparées par leur texture distinctive. Une telle sorte de segmentation de texture est importante dans l’analyse des images aériennes et des images obtenues par satellite. La segmentation peut aussi être utilisée dans d’autres applications comme la séparation du texte à partir d’une partie restante d’une image. On peut utiliser l’analyse de texture pour déterminer si une texture particulière, connue à priori, est présente ou non dans une image donnée. Ceci est connu comme la classification de texture. Une telle classification a des applications où il est souvent besoin d’égaliser ou de comparer deux textures différentes et d’identifier le degré de similarité, comme pour la biométrie. L’identification de texture est utilisée en premier lieu dans la reconnaissance biométrique utilisant l’iris. Un autre usage de la classification de texture est dans l’analyse d’images

Page 40: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

22  

médicales, où le critère de classification aura pour objectif de différencier entre la texture du tissu normal et la structure du tissu anormal dans les images médicales. Une autre application peut être l’extraction ou la construction de surface 3D à partir des variations dans les propriétés texturales dans une image. Une telle application nous aide à recréer la surface 3D, dont la projection sur une image 2D est la texture donnée. Comme la texture ne peut être complètement décrite en une définition particulière, nous ne pouvons pas non plus trouver juste une seule manière qui nous permettra de caractériser complètement une texture donnée et d’extraire ses traits caractéristiques avec succès pour toutes les différentes applications. En conséquence, il y a différentes approches pour analyser la texture par beaucoup de gens, selon le genre d’application et aussi selon le type de texture qui doit être analysée. 2. Méthodes d’analyse de texture : 2.1 Méthodes statistiques : Elles étudient les relations entre un pixel et ses voisins. Elles sont utilisées pour caractériser des structures fines et sans régularité apparente. Plus l'ordre de la statistique est élevé, plus le nombre de pixels (1 à N) mis en jeu est important. En imagerie médicale, l'étude se fait surtout sur des tissus mous ayant des structures tout à fait aléatoires et le plus souvent non homogènes, c'est pourquoi ce type de méthode sera préférentiellement utilisé. Dans ce cas, la texture est décrite par les statistiques de la distribution de ces niveaux de gris (ou intensité). 2.1.1 Méthode du premier ordre : L'analyse par la méthode du premier ordre se fait au niveau des pixels individuels d'une région de l'image (ROI). Les paramètres sont calculés à partir de l'histogramme des intensités (ou histogramme du premier ordre). Celui-ci décrit, au niveau de la ROI choisie, la fréquence d'apparition de chaque niveau sur l'échelle des gris. La moyenne, la variance, le "skewness" et le "kurtosis" sont les paramètres les plus souvent utilisés pour caractériser une texture. 1. Moyenne : donne la valeur moyenne (ou intensité moyenne) des niveaux de gris appartenant à tous les pixels de la ROI. Ce paramètre représente l'emplacement de l'histogramme sur l'échelle des niveaux de gris.

Où représente la valeur du niveau de gris du pixel .

est un facteur de normalisation qui correspond au nombre total de pixels. 2. Variance : correspond au moment d'ordre 2. Elle mesure la répartition des niveaux de gris autour de la valeur moyenne.

 

Page 41: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

23  

3. "Skewness" : correspond au moment d'ordre 3 centré autour de la moyenne. Ce paramètre mesure la déviation de la distribution des niveaux de gris par rapport à une distribution symétrique.

Pour une déviation par les valeurs élevées, le skewness est positif ; alors que pour une déviation vers les basses valeurs, il est négatif. 4. "Kurtosis" : correspond au moment d'ordre 4 centré autour de la moyenne.

5. Le rapport "signal-sur-bruit" : En imagerie le SNR peut être défini de la façon suivante :

 Il correspond au rapport de la moyenne sur l’écart type. Ce paramètre permet de rendre compte de l'hétérogénéité d'une texture. Une texture hétérogène possèdera un signal sur bruit faible car la variance sera élevée. 6. Les percentiles : Ils sont déterminés par extrapolation sur l’histogramme cumulé. Celui-ci correspond à la fréquence cumulée d’apparition d’un niveau de gris.

correspond à la proportion (en %) de pixels ayant une valeur de niveaux de gris inférieure à la valeur correspondant à . 2.1.2 Méthode du second ordre : Dans la méthode du premier ordre, qui correspond à une description de l'histogramme des niveaux de gris, il n'y a pas d'informations sur la localisation du pixel. Il est donc nécessaire d'utiliser des méthodes d'ordre supérieur pour une analyse plus précise. L'ordre des méthodes est donné par le nombre de pixels mis en jeu dans le calcul des paramètres. On retiendra, en particulier, la méthode des matrices de gradient, des caractéristiques statistiques, de cooccurrence et celle des différences de niveaux de gris [4] [5] [6]. 2.1.2.1 Méthode de matrice de cooccurrence : Elle permet de déterminer la fréquence d'apparition d'un "motif" formé de deux pixels séparés par une certaine distance dans une direction particulière par rapport à l'horizontale. Afin de limiter le nombre de calculs, on prend généralement comme valeurs 0°, 45°, 90°, 135°, 180° et 1 pour la valeur de .

Page 42: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

24  

La taille de la matrice est x , où correspond au maximum des niveaux de gris de

l'image. A chaque direction et pour chaque valeur de correspond une matrice de cooccurrence . On définit généralement les matrices symétriques de cooccurrence. Elles sont construites à partir des constatations suivantes :

.

Par exemple, la matrice symétrique associée à la direction sera de la forme :

Une fois la matrice symétrique réalisée, il est possible d'en extraire une quinzaine de paramètres. Ils contiennent des informations sur la finesse, la direction et la granularité de la texture. Pour une texture grossière, les valeurs de la matrice sont concentrées sur la diagonale principale. Au contraire, pour une texture fine, les valeurs de la matrice seront dispersées : en effet, pour une telle texture il existe beaucoup de transitions de niveaux de gris. 1. La moyenne :

Où correspond aux éléments de la matrice de cooccurrence ; c'est à dire à la probabilité de passer d'un pixel de niveau de gris à un pixel de niveau de gris . 2. La variance :

Elle caractérise la distribution des niveaux de gris autour de la valeur moyenne calculée précédemment. 3. L’énergie, moment angulaire d'ordre deux ou uniformité : Ce paramètre mesure l'homogénéité de l'image. L'énergie a une valeur d'autant plus faible qu'il y a peu de zones homogènes : dans ce cas, il existe beaucoup de transitions de niveaux de gris.

Les quatre paramètres suivants sont les plus souvent utilisés :

Page 43: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

25  

4. Le contraste (inertie) : mesure les variations locales des niveaux de gris. Si elles sont importantes (c'est à dire s'il existe peu de régions homogènes), alors le contraste sera élevé. Ce paramètre permet aussi de caractériser la dispersion des valeurs de la matrice par rapport à sa diagonale principale.

Une texture apparaît plus nette lorsque le contraste est plus élevé, les transitions entre niveaux de gris sont alors plus visibles. 5. La corrélation :

où et représentent les moyennes respectivement des lignes et des colonnes de la

matrice. 6. La corrélation normalisée : permet de déterminer si certaines colonnes de la matrice sont égales. Plus les valeurs sont uniformément distribuées dans la matrice, plus la corrélation est importante.

Oiu et représentent les écarts types respectivement des lignes et des colonnes de la

matrice. 7. L'entropie : mesure la complexité de l'image. Lorsque les valeurs de la matrice sont presque toutes égales, l'entropie est élevée.

Elle permet de caractériser le degré de granulation de l'image. Plus l'entropie est élevée, plus la granulation est grossière. 8. L'homogénéité ou moment différentiel inverse :

Ce paramètre a un comportement inverse du contraste. Plus la texture possède de régions homogènes, plus le paramètre est élevé. On peut aussi définir les paramètres suivants qui sont cependant moins utilisés : 9. Le moment diagonal :

Page 44: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

26  

10. Le "cluster shade" :

11. Le "cluster prominence" :

Cette méthode qui prend en compte seulement des relations entre pixels n'est cependant pas adaptée pour étudier la forme détaillée d'éléments de texture. De plus, il n'existe pas de méthodes pour sélectionner le vecteur déplacement. Les calculs sont alors très longs si on veut utiliser plusieurs déplacements. 2.1.2.2 Méthode des différences des niveaux de gris : Comme nous l'avons précisé ci-dessus, le temps de calcul par la matrice de cooccurrence est long si on utilise plusieurs valeurs de d. C'est pourquoi on introduit parfois la méthode des différences de niveaux de gris. Cette méthode permet de calculer le nombre d'apparitions d'une différence de niveaux de gris donnée. Cela revient à calculer des paramètres sur une image de différence entre une image initiale et une image translatée de . Cinq paramètres peuvent alors être définis: la moyenne, le contraste, Le moment angulaire d'ordre deux ou uniformité, l’entropie et Le paramètre "Inverse Difference Moment". 2.1.2.3 Méthode des matrices de caractéristiques statistiques : Il s'agit d'une variante de la méthode précédente qui permet d'évaluer directement trois paramètres (le contraste, la covariance et la dissimilitude) pour plusieurs distances , au lieu de les estimer indirectement à partir de la matrice de cooccurrence. 2.1.2.4 Méthode des gradients : Cette méthode permet de caractériser la distribution de différences de niveaux de gris. L'étude se fait généralement sur des voisinages 3x3 ou 5x5.

2.1.3 Méthode d’ordre supérieur : Elles étudient les interactions entre plusieurs pixels. Le voisinage est de type mono ou bidimensionnel. La méthode des longueurs de plages de niveaux de gris est la plus souvent utilisée [4] [7]. Une plage de niveaux de gris correspond à l'ensemble des pixels d'une image ayant la même valeur de niveau de gris. La longueur de la plage correspond au nombre de pixels appartenant à la plage ; ainsi on peut dire qu'une texture fine possède peu de pixels dans une plage. Cette technique consiste donc à compter le nombre de plages d'une certaine longueur , de niveau de gris dans une direction

donnée (on prendra généralement comme valeurs 0°, 45°, 90°, 135°). A chaque direction correspondra donc une matrice. Une matrice est associée à une direction d’angle : avec le nombre de plage de niveau de gris , de longueur et direction de la plage de niveau de gris.

Page 45: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

27  

Les principaux paramètres issus de la matrice des longueurs de plages sont les suivants : 1. Le "poids" des plages courtes :

Où   représente le nombre total de plages de l’image.

correspond au nombre de niveaux de gris dans l'image et à la longueur de la plage maximale. 2. Le "poids" des plages longues :

L’image qui possède un LRE plus grand possède plus de plages, c'est à dire plus de zones étendues ayant le même niveau de gris. 3. La distribution des niveaux de gris :

Ce paramètre mesure l'uniformité de la distribution des plages. 4. La distribution des longueurs de plages :

Ce paramètre augmente si le nombre de plages de même longueur augmente. 5. Le pourcentage de plages :

ou la constante np correspond au nombre de pixels de l’image. Plus la texture est

homogène, plus ce paramètre est élevé. Deux autres paramètres ont été introduits par la suite : 6. Le "poids" des longueurs de plage de faible niveau de gris (LGRE) :

7. Le "poids" des longueurs de plage de fort niveau de gris :

Page 46: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

28  

Ce paramètre mesure la fréquence des plages. Les paramètres suivants tiennent compte à la fois de la distribution des niveaux de gris et des longueurs de plage : 8. Le poids des petites plages de faible niveau de gris :

9. Le poids des petites plages de fort niveau de gris :

10. Le poids des longues plages de faible niveau de gris :

11. Le poids des longues plages de fort niveau de gris :

2.2 Méthodes structurelles : Elles permettent de décrire la texture en définissant les primitives et les "règles" d'arrangement qui les relient. En effet, les textures ordonnées possèdent des primitives qui se répètent dans les images en des positions suivant une certaine loi. A la différence des méthodes précédentes, les méthodes structurelles permettent de synthétiser des textures en modifiant ces règles d’arrangement. De telles méthodes semblent plus adaptées à l'étude de textures périodiques ou régulières. 2.3 Méthodes basées sur les modèles : Elles caractérisent l’image à ajuster en un modèle spécifique qui décrit les relations internes entre les différents pixels de l’image. La caractérisation peut non seulement être utilisée pour décrire la texture, mais peut également agir comme un guide de synthèse d’images texturales similaires. La plupart des algorithmes modélisent les textures en utilisant le MRF (Markov Random Fields). Les MRFs ont été connus grâce à leur capacité à caractériser une large variété de textures et en conséquence peuvent être généralisés facilement. 2.4 Méthodes basées sur le traitement du signal : Dans cette approche utilisant les techniques de traitement du signal pour l’analyse de textures, la plupart des méthodes font usage de technique de filtrage et ensuite extraire les traits caractéristiques de la réponse du filtre et les utilisent pour la classification ou la segmentation.

Page 47: HAMITOUCHE_SALMI

CHAPITRE II Analyse de la texture d’une image   

29  

Les filtres de domaine spatial et fréquentiel peuvent être utilisés pour l’extraction des caractéristiques. Un travail large a été fait concernant l’utilisation des filtres de Gabor et d’ondelette pour l’analyse des textures ayant montré d’ailleurs d’excellents résultats. Conclusion : Ce chapitre avait pour intérêt de présenter le besoin d’analyse de texture, ainsi que les différentes méthodes utilisées pour la caractérisation d’une texture. Les méthodes statistiques s’avèrent les plus appropriées pour l’analyse d’une texture aléatoire et sans régularité apparente telle que celle de l’iris. Dans le chapitre suivant, nous nous intéresserons à la reconnaissance de l’iris en se focalisant sur les différents algorithmes de reconnaissance de l’iris dont quelques uns utilisant des méthodes basées texture.  

Page 48: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

30  

1. L’iris : 1.1 Rappel anatomique : L’iris est la zone colorée visible entre le blanc de l’œil et la pupille. Il s’agit d’un réseau de tubes fins dont le diamètre est inférieur à celui d'un cheveu. L'iris commence à se former quelques mois avant la naissance jusqu’à quelques mois après, et l'enchevêtrement des tubes qui le constituent est fixe et ne varie que très peu durant la vie de l'individu. Par contre la couleur des tubes peut varier avec le temps (période de quelques années) et pour certaines maladies. L'iris contient une quantité d'informations particulièrement importante, comparable à la quantité d'informations contenue dans l'ADN. Mais l'iris n'occupant qu'une surface très faible, son observation pratique à travers un système optique spécifique (éclairage artificiel pour éviter les reflets sur la cornée), placé entre 10 à 30 cm de l’œil, ne permet de déceler que certains contours macroscopiques. Toutefois, cette approximation de l'information est suffisante pour certifier l'identité d'un individu avec une grande précision. L'iris placé derrière la cornée de l’œil (Figure III.1) est un diaphragme variable percé d'un trou circulaire, la pupille (diamètre de 2.5 à 4.5 mm), régie par un sphincter et par un dilatateur formé de fibres musculaires antagonistes, lisses, rayonnantes et circulaires. La pupille s'agrandit quand les fibres musculaires sympathiques se contractent ; elle se rétrécit quand les fibres circulaires parasympathiques agissent. Cette ouverture de la pupille permet de modifier la quantité de lumière qui pénètre dans l’œil pour éviter l’aveuglement en plein soleil ou capter le peu de rayons lumineux la nuit.

Figure III.1 : Structure d’un œil humain.

La couleur des tubes qui le constituent varie avec le temps (du gris bleu au brun en passant par le bleu et le vert) et pour certaines maladies. Elle résulte de la combinaison de la transparence des fibres iridiennes et des pigments (mélanine) qui s'y fixent progressivement. Bleu à la naissance, elle varie jusqu'à la puberté. L’observation pratique à travers un système optique permet uniquement de déceler les contours macroscopiques, et pas de descendre au niveau des tubes élémentaires. Ces motifs aléatoires de l’iris sont uniques à chaque individu : ils constituent en quelque sorte un code barres humain à partir des filaments, creux et stries dans les cercles colorés qui entourent la pupille de chaque œil (exemples sur la figure III.2). De plus, s’agissant d’un tissu interne, ces empreintes iridiennes sont relativement à l’abri des lésions, protégées par la cornée et l’humeur aqueuse.

Page 49: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

31  

Figure III.2 : Images de 4 différents types de texture d’iris. 1.2 Avantages : - L’iris est un organe interne et donc bien protégé de tout dommage contrairement aux autres outils biométriques, en l’occurrence les empreintes digitales [1]. - L’iris présente l’avantage d’être de caractéristiques hautement aléatoires et assure presque l’unicité de non pas chaque paire d’iris d’une personne mais entre les iris de la même personne [2]. - Il n’y aucunement de relation ou d’impact génétique sur sa structure interne [3]. 1.3 Inconvénients : - L’image d’iris est difficile à acquérir car sa taille est très petite, comparé par exemple au visage. L’acquisition d’une image d’iris nécessite un appareil spécial. - Puisque l’mage d’iris est difficile à acquérir, le processus d’enrôlement prend beaucoup de temps, ce qui n’est pas acceptable pour tous les utilisateurs. Aussi, Le taux d’échec de l’enrôlement de l’iris est d’environ 7 % [4]. - L’image d’iris peut gravement être affectée par l’ombre (reflet) des cils et des paupières causé par la qualité de la source lumineuse. 1.4 Historique : L’iris, qui veut dire arc-en-ciel en grec, est historiquement utilisé en Iridologie pour diagnostiquer l’état de santé ou la maladie d’une personne à partir de la couleur ou de la location de tâches de pigment, selon l’hypothèse étrange que chaque partie du corps est représentée par une zone correspondante dans l’iris de l’œil. Mais aucun iridologue n’a réussi jusqu’à ce jour d’examen scientifique prouvant la fiabilité de cette théorie. L’iris est retenu pour la première fois pour des fins d’identification personnelle par l’ophtalmologiste américain Frank Burch en 1936. En 1986, les deux ophtalmologistes Aran Safir et Leonard Flom brevètent cette idée (Brevet N° WO8605018A1), mais il faudra attendre 1991 pour que le professeur John Daugman de l’Université d’Harvard développe le premier système biométrique d’identification de personnes basé sur l’iris (Brevet N° WO09409446). Aujourd’hui ce procédé a la réputation d’être le plus sûr parmi les méthodes d’identification biométrique, puisqu’on considère que chaque iris est unique avec une probabilité d’en trouver deux identiques inférieures à . Une récente évaluation de différents systèmes biométriques [5] (résultats sur la figure III.2), effectuée par le laboratoire national de physique en Angleterre, a récemment confirmé la fiabilité d’un système d’identification d’iris conçu par la société Iridian Technologies. De plus la technologie de

Page 50: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

32  

l’iris présente les avantages suivants : stable au cours du temps car protégé derrière la cornée, non-intrusive car image acquise à distance et sans contact, signature de petite taille, difficile à pirater grâce à une détection des variations d’ouverture de la pupille.

Figure III.3 : FRR = (FAR) de différents systèmes [5].

1.5 Schéma général : Un système de reconnaissance par iris peut se décomposer en deux unités principales (Figure III.4) : (1) Une unité optique de capture de l’image de l’iris (dispositif de vision), (2) Une unité de traitement des données (extraction et comparaison des informations discriminantes avec celles stockées préalablement lors de l’enrôlement).

Page 51: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

33  

Figure III.4 : Schéma général d’un système de reconnaissance par iris. Le terminal biométrique (1) qui permet la saisie des images d’iris a fait l’objet de nombreux développements et recherches [6] [7] [8] [9] [10] [11]. La partie algorithmique de traitement des données (2) est constituée des processus suivants : d’enrôlement (21) par lequel l’identité d’une personne et son image biométrique (image de l’iris) sont utilisées pour constituer une base de données (23), de matching (22) qui quantifie la ressemblance entre deux gabarits (signatures numériques dont l’une provient de la base de données et l’autre créée au cours de l’enrôlement présent).

1.5.1 Système d’acquisition : L’iris humain commence à se former à partir du troisième mois de gestation. Dès la naissance la texture de l’iris constitue un motif stable jusqu’à la mort. Seule sa couleur change durant les premières années avec l’évolution de densité de mélanine génétiquement déterminée. Les yeux bleus résultent de l’absence de pigmentation. L’acquisition d’une image d’iris peut donc s’effectuer avec une caméra monochrome. Mais comme nous pouvons le constater sur le figure III.5.a, du fait de la réflexion spectaculaire des sources lumineuses environnantes sur la cornée, la capture d’image d’un iris s’effectue généralement dans le domaine du proche infrarouge (non visible, donc non éblouissant pour l’utilisateur). De plus dans ce domaine de longueur d’ondes (entre 650 nm et 900 nm), l’absorption par les pigments de mélanine est pratiquement inexistante. Pour cela il convient d’utiliser une caméra sensible dans le proche infrarouge (CMOS/CCD), ainsi qu’une illumination artificielle réalisée par une diode AlGaAs (Aluminium Gallium Arsenide) placée à proximité de l’objectif. Ces contraintes sur l’éclairage demandent souvent que le capteur soit relativement proche de l’œil, car le nombre de problèmes à résoudre augmente presque proportionnellement avec la distance œil-caméra. Enfin pour améliorer " l’effet " infrarouge et réduire la lumière visible parasite sur l’image, on introduit un filtre optique passe-haut entre la lentille et le capteur (résultat final sur la figure III.5.b).

Page 52: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

34  

Figure III.5 : Image d’un iris capturé (a) dans le visible, (b) dans le proche infrarouge.

Idéalement, le diamètre de l’iris au sein de l’image acquise doit être approximativement compris entre 200 et 300 pixels pour s’assurer d’un minimum de détail au cœur même de l’iris. A une distance de travail de 40 cm, la capture d’une image VGA (résolution 640 x 480 pixels) de l’œil (paupières comprises) est possible avec une lentille de longueur de focale de 50 mm environ. 1.5.2 Traitement des données : état de l’art Contrairement à l’empreinte digitale, l’utilisation de l’iris en reconnaissance d’individus est relativement récente. Ceci explique sûrement le faible nombre de publications de recherche dans le domaine. Entre 1992 et 2003, on dénombre environ 9 groupes de recherche ayant contribués au développement d’algorithmes de vérification ou d’identification de personnes par reconnaissance de l’iris. Toutes les méthodes proposées reposent sur le même principe qui se décompose en 4 étapes : localisation de l’iris au sein de l’image, normalisation des dimensions des données, extraction de caractéristiques discriminantes, et enfin comparaison des informations. On constate que l’étape d’extraction des caractéristiques est un élément clef du traitement, dans la mesure où le choix des procédés à employer pour les autres étapes est souvent fixé par la manière de coder l’information. 2. Techniques de reconnaissance par iris : Le caractère exceptionnel de la texture de l’iris réside dans le fait que les processus de génération de ces textures sont complètement aléatoires mais stable. En conséquence, dans le but d’utiliser l’iris comme un outil biométrique, l’extraction des caractéristiques doit être capable de capturer et d’encoder cette particularité aléatoire présente dans la texture de l’ris. Les méthodes de traitement algorithmique reposent donc sur une analyse du relief et de strie de l’iris (Figure III.6).

Page 53: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

35  

Figure III.6 : Illustration du relief de l’iris.

Nous avons classifié les systèmes de reconnaissance par iris en trois catégories selon la technique par laquelle les caractéristiques sont extraites de la texture de l’iris pour des buts de comparaisons. Ces trois catégories sont : les techniques basées sur l’apparence, les techniques basées sur la texture et les techniques basées sur l’extraction des caractéristiques. - Les techniques basées sur l’apparence [12] [13] font usage d’approches statistiques classiques telles que l’analyse en composantes principales (ACP) ou l’analyse en composantes indépendantes (ACI) pour représenter les images d’iris. - Les techniques basées sur la texture [2] [14] [15] [16] [17] [18] font quant à elles usage de filtres pour le traitement des images et l’extraction de quelques propriétés des images filtrées afin de quantifier les images d’iris données. - Les techniques basées sur l’extraction des caractéristiques [19] font usage des caractéristiques locales présentes dans l’image (blocs ou taches) et enregistrent leurs localisations et caractéristiques (propriétés) pour distinguer les différentes images. Les différentes approches de reconnaissance par iris sont détaillées ci-dessous. 2.1 Techniques basées sur l’apparence : Noh et Al. ont proposé un système de reconnaissance par iris qui fait usage de techniques statistiques à savoir l’analyse par composantes indépendante pour générer des vecteurs de base optimaux, qui sont ensuite utilisés pour extraire les vecteurs de caractéristiques efficaces représentant les signaux de l’iris [12]. Chacun de ses vecteurs est par la suite converti en un code d’iris par sa quantification afin qu’il soit enregistré plus efficacement. Cette méthode a montré d’aussi bons résultats que le système de John Daugmann basé sur le filtre de Gabor [2], et présente même d’autres avantages. Elle utilise une base de caractéristiques nettement plus concise et il est possible d’extraire la transformée linéaire pour l’extraction des caractéristiques à partir de l’image d’iris elle-même. 2.2 Techniques basées sur la texture : Le premier système efficace de reconnaissance par iris a été proposé par John Daugman [2] en 1993. Il a utilisé une transformé complète de Gabor 2D [20] pour générer un " iris code " binaire de 256 octets. Ce " code d’iris " est généré en prenant le signe des portions réelles et

Page 54: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

36  

imaginaires de l’image transformée. Une distance de Hamming qui est une mesure est utilisée pour déterminer si les images sont de la même personne ou pas. Dans une autre approche, Wilds [14] utilise le Laplacien du filtre gaussien pour extraire les traits dans la partie texture. Cela est relativement une simple technique qui compte sur les traits des contours dans le motif de texture. La comparaison est faite grâce au calcul des corrélations normalisées entre l’image acquise et les représentations de la base de données. Comme les intensités moyennes sont soustraites pendant le calcul des corrélations normalisées, cette technique est robuste et peut tenir compte des variations locales dans l’intensité de l’image. Plus récemment, Wang & Al. [15][16] ont proposé des techniques de reconnaissance utilisant des filtres de Gabor multiples. Des filtres de Gabor 8-directionnel avec des fréquences multiples sont utilisés et la moyenne et la variance de ces images filtrées par Gabor sont utilisées comme une un moyen de comparaisons de caractéristiques. Aussi une autre méthode existe qui n’extrait pas tout trait explicite, mais utilise directement les sorties du filtre de corrélation pour l’alignement et la comparaison des images d’iris [17]. Boles et Al. ont proposé une technique basée sur la transformée par ondelettes générant une représentation zero-crossing [18]. La transformée par ondelette « dyadique » est utilisée pour décomposer l’image à différentes résolutions. Comme les niveaux élevés sont hautement exécutés par le bruit, seulement quelques résolutions basses sont utilisées. La représentation zero-crossing de chaque image est générée en enregistrant le zero-crossing de ces coefficients d’ondelettes. Cette technique offre plus de liberté quant à la méthode de capture de l’image puisque elle est une variante translation et rotation. 2.3 Techniques basées sur les caractéristiques : Wang et Al. ont proposé une technique qui fait usage des variations locales le long de la texture de l’iris avec une transformée par ondelette [16]. Les variations locales sont caractérisées par l’apparition et la disparition d’une importante structure de l’image. L’image 2D dimensions est convertie en un signal 1D et le " dyadique " (puissance de 2) de la transformée par ondelette est utilisé pour générer une séquence de positions qui caractérise les points de variation aigu locales. Ces séquences de variation sont ensuite utilisées pour la phase de comparaison des objectifs. 3. Quelques méthodes connues de reconnaissance par iris : 3.1 Méthode de John Daugman : En 1992, J. Daugman [21] fut le premier à publier ses recherches sur la mise au point d’un procédé d’analyse de texture de l’iris. Il repose sur la détection précise des centres et rayons respectifs de l’iris et de la pupille par des opérateurs intégro-différentiels sur des arcs de cercle, exploitant le fort contraste aux frontières de la pupille et de l’iris, une conversion de l’image circulaire de l’iris en un équivalent rectangulaire (conversion polaire à angle constant), le codage binaire de la phase locale extraite par un banc de filtres passe-bande en quadratures (filtres de Gabor), dont certaines zones où se situent le reflet de la diode et la paupière sont supprimées et le calcul du taux de similarité entre deux codes d’iris par comptage de la proportion de bits qui diffèrent (opération du type XOR). L’implémentation de l’algorithme sur SUN Sparc-Station en code entier optimisé requiert 100 ms pour déterminer un iris-code de 256 octets [22]. A partir d’une base de données d’environ

Page 55: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

37  

1770 images (3 images de 592 yeux) fournie par l’Ophtalmology Associates of Connecticut, le taux EER est estimé à 1/128 000 par extrapolation des distributions des imposteurs et authentiques relevées. Cependant lors de l’évaluation des algorithmes de J. Daugman dans des conditions réelles d’utilisation pour leur commercialisation par la société IriScan, The Sandia National Laboratories [23] présentait des résultats beaucoup plus modestes : avec 199 yeux enrôlés provenant de 122 personnes, on enregistrait un FRR de 10% (878 essais d’identification en groupe fermé) et un temps moyen d’identification de 14 secondes. 3.2 Méthode de Wildes : Près de 2 ans plus tard, R.P.Wildes [24] propose un système concurrent. Les pourtours de l’iris sont extraits par transformée de Hough, appliquée à la détection de cercle sur les contours de l’image, et les paupières sont modélisées par des arcs paraboliques. L’alignement spatial entre deux images d’iris à comparer (rotation et adaptation d’échelle) est réalisé par une technique de registration d’image (résolution par une procédure de minimisation itérative). Ensuite la texture de l’iris est représentée par une pyramide Laplacienne, comparable à une décomposition en ondelettes (4 bandes) par des filtres passe-bande isotropes (filtres gaussiens). L’étape de comparaison est basée sur le calcul d’un facteur normalisé de corrélation par sous-bloc de 8 x 8 pixels. Pour chaque bande fréquentielle on conserve une seule valeur via la médiane : le score est donc représenté par une série de 4 indices de similitudes. La décision finale est prise par un classificateur du type discriminant linéaire de Fisher. La vérification d’un individu prend approximativement 10 secondes [25] sur SUN Sparc-Station 20, avec un code C non-optimisé. Le test du système proposé par R.P.Wildes n’a produit aucune erreur de faux rejet ou de fausse acceptation sur une base de données comprenant 60 iris de 40 personnes. 3.3 Méthode de Boles : En 1996, W.W.Boles [26] introduit une nouvelle technique basée sur une transformée en ondelettes monodimensionnelles. Le traitement commence par localiser le centre de la pupille par détection des contours circulaires, puis de la même manière le diamètre extérieur de l’iris. En fonction du ratio entre le diamètre de l’iris de référence et celui de l’iris à identifier, on définit un ensemble de n cercles virtuels de centre celui de la pupille, sur lesquels on extrait n signaux caractéristiques du relief de l’iris (signaux normalisés à 256 points par sous-échantillonnage). Une représentation zero-crossing est alors générée par une transformée en ondelettes (décomposition sur 8 niveaux, mais on conserve uniquement les 4 ème, 5 ème et 6

ème). Il s’agit en fait d’un codage des points d’inflexion des n signatures de l’iris pour différents niveaux de résolution ; ce codage est obtenu en utilisant une onde mère spécifique du type dérivée seconde d’une fonction de lissage [27]. Enfin la comparaison est traitée par quatre fonctions de dissimilitude (par exemple : mesure de différence d’énergie, coefficient normalisé de corrélation croisée) entre 2 représentations zero-crossing. Le score final est la moyenne des résultats fournis par ces fonctions de dissimilitude. Mais l’efficacité de cette technique n’a toujours pas été démontrée sur plus de 2 iris différents [28].

Page 56: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

38  

3.4 Méthode de Sanchez-Reillo & Al. : En 1999, l’approche de Sanchez-Reillo & Al. [29] reprend dans l’ensemble celle de J. Daugman. La texture de l’iris est partiellement transformée en un équivalent rectangulaire, puis codée en rendant binaires les résultats de filtrage avec la partie imaginaire de filtres complexes de Gabor. La comparaison consiste à calculer la distance de Hamming entre deux codes. A partir d’une base de données de plus de 200 images (au moins 10 images de 20 yeux), l’étude de Sanchez-Reillo & Al. montre que leur système atteint un EER de 3.6% pour une taille de code d’iris de 1860 bits. 3.5 Méthode de Y. Wang & Al. : La même année, Y. Wang & Al. [30] [31] brevètent une nouvelle méthode d’extraction de caractéristiques à partir de la représentation rectangulaire de l’iris (proposée par J. Daugman). On commence par filtrer l’image rectangulaire d’iris soit par filtrage de Gabor suivant 4 directions et pour 6 fréquences différentes, soit par transformée en ondelettes 2D (ondelettes de Daubechies du 4ème ordre) sur 5 niveaux de faible résolution uniquement. On obtient alors n images résultats (n = 24 pour le cas, et n = 13 pour le cas). La signature d’un iris est alors constituée de la série de n vecteurs [moyenne écart type], extraits de ces n images. Pour effectuer la comparaison, Y. Wang & Al. suggèrent la distance euclidienne pondérée. Sur 160 images (10 images de 16 yeux), le meilleur taux de classification (identification en groupe fermé) est de 93.8%. En 2002, une amélioration [32] au système est apportée : le vecteur caractéristique comprend 384 valeurs, qui correspondent à l’écart absolu moyen (somme sur l’image des différences entre l’intensité des pixels et la moyenne de l’image) de 384 blocs de 8x8 pixels appartenant à la texture de l’iris (texture préalablement filtrée par un filtre passe-bande symétrique circulaire) ; un classificateur plus avancé (Nearest Feature Line [33]) est utilisé pour la comparaison. Lors de nouvelles expérimentations sur une population de 134 iris (de 7 à 25 images par œil), le taux de classification atteint 99,85% (ou FAR=0.1% et FRR=0.83% en mode vérification). 3.6 Méthode de S. Lim & Al. : Toujours à partir d’une représentation rectangulaire de l’iris, S. Lim & Al. [34] proposent en 2001 d’analyser les motifs de l’iris humaine par une transformée en ondelettes (ondelette mère de Haar). La texture de l’iris est décomposée sur 4 niveaux, et le vecteur de 87 caractéristiques d’un iris est construit en combinant la sous-image HH4 (4 ème niveau) avec l’intensité moyenne des 3 autres sous-images HH1, HH2 et HH3. L’étape d’identification est réalisée par un classificateur basé sur un réseau par quantification vectorielle d’apprentissage (cf. LVQ : Learning Vector Quantization). Sur une base de données de 2500 images (100 iris, 25 échantillons par iris, dont 5 pour l’apprentissage du classificateur), la courbe ROC relevée indique un FRR de 1.65% pour un FAR de 2.90%. Pour finir ce tour d’horizon des méthodes de reconnaissance de l’iris, on note plus récemment l’apparition d’approches moins " séduisantes " ou jugées " exotiques ". Par exemples : S. Noh & Al. [35] appliquent sans succès un algorithme d’apprentissage non -supervisé utilisant des statistiques d’ordre supérieur pour l’extraction de caractéristiques, A. Muron & Al. [36] évoquent la possibilité d’identifier un iris par son spectre de puissance optique de Fourier, ou

Page 57: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

39  

encore M. Dobes & Al. [37] proposent l’utilisation de l’information mutuelle moyenne pour aligner les motifs de deux iris et mesurer leur similarité. Au vu de cet état de l’art, une analyse comparée des différents algorithmes de reconnaissance d’iris s’avère particulièrement difficile pour diverses raisons. D’une part, les performances mesurées ne sont pas établies sur des bases de données communes, et les protocoles et scénarios de test ne sont pas homogènes. D’autre part, tous les travaux ne prennent pas en compte les mêmes critères de performances. Néanmoins cette brève description des algorithmes fait apparaître certains avantages et inconvénients inhérents à chacune des méthodes. Le procédé implémenté par J. Daugman jouit aujourd’hui d’une notoriété grandissante, et plus particulièrement l’idée de convertir l’image circulaire de l’iris dans un système pseudo-polaire sans dimension. En effet, l’approche de J. Daugman (reprise par la suite par Y. Wang et S. Lim) permet, grâce à une représentation rectangulaire de l’iris dans un repère de taille fixe, de s’affranchir des constrictions pupillaires et des variations d’échelles lors de l’acquisition, contrairement à celles de R.P.Wildes et W.W.Boles qui tiennent compte uniquement du diamètre extérieur de l’iris pour effectuer un alignement spatial entre deux images d’iris à comparer. De plus, l’intérêt de ces deux dernières solutions est respectivement limité par : pour la première son temps de calcul prohibitif pour effectuer la localisation et la vérification d’une image d’iris, et pour la seconde le manque d’expérimentations sur sa fiabilité et sa robustesse avec des images réelles bruitées (problème de singularité et de reproductibilité de la représentation zero-crossing issue d’une transformée en ondelettes 1D). Quant aux méthodes introduites par Y. Wang & Al. et S. Lim & Al., elles reposent toutes deux sur l’extraction de caractéristiques statistiques issues soit de sous-blocs de l’image d’iris après filtrage, soit des coefficients de sa décomposition en ondelettes 2D. 4. Standards : Comme nous l’avons vu précédemment, on dénombre un grand nombre de solutions pour l’acquisition des images d’iris, et les algorithmes de reconnaissance d’iris sont très variables et utilisent parfois des données très différentes. Cette diversité rend la standardisation des systèmes biométriques basés sur l’iris délicate. Certaines tentatives de spécifications de format standard d’images d’iris ont été très controversées [38]. Nous présentons sommairement ici les dernières principales propositions du comité Biométrie de l’INCITS, conseiller de l’ISO aux Etats-Unis, à propos de la capture d’images d’iris, le format de sauvegarde des images et le format des images polaires d’iris. 1. La résolution du système d’acquisition doit être d’au moins 15 pixels/mm dans la zone de l’iris. Facteur de compression JPEG inférieure à 6:1. 2. Densité de niveaux de gris supérieure à 256. 3. Illumination dans la gamme de longueurs d’ondes 700 à 900 nm, et un axe optique d’éclairement de plus de 5 degrés (pour éviter l’effet yeux rouges). 4. Contraste : un minimum de 90 niveaux de gris entre l’iris et la sclérotique et un minimum de 50 niveaux de gris entre l’iris et la pupille. 5. Zone de l’iris visible : au moins 70% de l’iris ne doit pas être caché par une réflexion spéculaire, les cils, les paupières, etc.

Page 58: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

40  

6. L’iris doit apparaître avec un diamètre compris entre 160 et 300 pixels, et doit être centré dans l’image (distance entre les contours de l’iris et les bords de l’image supérieure à 70 pixels). 7. La tête de l’opérateur lors de l’acquisition doit être verticale (rotation tolérée de +/-10°). 8. Le format du stockage des images peut être l’un des suivants : Format Ligne – l’image est représentée par une aire de m colonnes par n lignes, où chaque pixel (noir et blanc) est codé par un octet – les données peuvent être compressées par l’algorithme sans perte JPEG-LS conformément à la norme ISO/IEC 14495, Format JPEG - l’image est sauvegardée selon le format défini par la norme ISO/IEC 10918, Format Polaire – l’image est sauvegardée en coordonnées polaires par une aire de m colonnes par n lignes, où n est le nombre d’échantillons radiaux et m le nombre d’échantillons angulaires – la valeur angulaire de degré zéro se trouve à 6 heures. 5. Chalenges dans les systèmes de reconnaissance par iris : Bien qu’il y ait des systèmes de reconnaissance qui peuvent opérer avec succès à 0% comme taux de faux rejet et de fausse acceptation sous d’idéales conditions [2] [19], il y une large perspective pour les recherches ultérieures dans ce domaine. Quelques uns de ces chalenges qui restent à traiter sont énumérés dans cette partie. - Malgré la disponibilité de beaucoup de systèmes de reconnaissance par iris dont les performances sont honorables et assez satisfaisantes, aucune des méthodes existantes ne discute et traite des processus réels définissant la texture de l’iris. Il y a bel et bien besoin de plus d’analyse de la texture de l’iris comme tel. Si la texture peut être explicitement caractérisée, alors un moyen d’égalisation spécifique d’utilisateur peut être utilisé pour la reconnaissance, où l’égaliseur est en accord avec les caractéristiques de chaque utilisateur. - La plupart des techniques actuelles de reconnaissance par iris n’ont pas été testées sur une base de données de grande échelle, due aux difficultés de rassembler un grand nombre d’individus pour l’acquisition d’images à grande échelle. - Il n’y a pas de combinaisons de classification pour les images d’iris comme celles qui existent pour les empreintes digitales. Bien que les images d’iris apparaissent aléatoires et confuses, elles possèdent une structure globale qui peut être perçue. Comme tous les systèmes commerciaux peuvent exécuter des comparaisons 1 à N en deux secondes, une telle combinaison peut ne pas être d’un vrai grand intérêt commercial, mais de très grande importance pour un point de vue académique. Une telle technique fournira plus d’aperçu de la structure de la texture de l’iris et peut apporter aussi plus d’informations sur l’individualité de l’image de l’iris. - Aucune des documentations sur la reconnaissance d’iris aujourd’hui ne suggère un développement d’une mesure de qualité de l’image d’iris. Il n’y a pas de série de standards pour la méthode de capture de l’image d’iris, résultant en une variété d’image d’iris, différente l’une de l’autre dans plusieurs aspects. Bien sûr, chaque algorithme a ses propres besoins et spécifications pour la capture d’image, mais le manque de vrais standards le rend difficile à comparer les différentes techniques sur une plateforme commune.

Page 59: HAMITOUCHE_SALMI

CHAPITRE III Reconnaissance par iris   

41  

- Toutes les documentations actuelles se focalisent sur le traitement avec des images d’iris qui ont été obtenues par la coopération totale de l’utilisateur. Les techniques qui peuvent utiliser des images d’iris partielles (problèmes de rotation…) ont besoin d’être explorées et traitées afin de réduire les exigences strictes de capture d’images d’iris. Conclusion : Dans ce chapitre, nous nous sommes intéressés au fonctionnement des systèmes d’identification par reconnaissance de l’iris. Cet engouement pour ces systèmes est justifié par les nombreux avantages de cette technologie, à savoir sa précision et ses performances. Notre choix s’est porté sur les méthodes basées sur la texture qui sont très utilisées dans la littérature. Dans le chapitre qui suit, nous introduirons la notion d’ondelettes, une des méthodes de traitement du signal.  

Page 60: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

42  

Introduction : La théorie des ondelettes est récente : elle est née au milieu des années 80. Et pourtant, elle est déjà utilisée dans de nombreux domaines qu’ils soient théoriques ou pratiques : analyse harmonique, vision par ordinateur, traitement du signal, compression d’images, analyse de turbulences, etc. Son succès est dû à son adaptabilité aux données et à sa facilité d’implémentation. Une ondelette est une onde " localisée ". Lorsqu’on décompose une fonction en séries de Fourier, on la décompose en fait en fréquence. La décomposition en ondelettes ajoute une dimension, la décomposition est double : en fréquence mais aussi en espace. Une fonction est ainsi représentée comme une somme d’oscillations de fréquences précises se produisant à un endroit précis, c’est-à-dire une somme d’ondelettes. C’est pour cela que cette théorie représente "bien" les données. 1. Historique du traitement du signal et de l’image : 1.1 Transformée de Fourier : L’analyse de Fourier est une des bases majeures de la physique et des mathématiques. Elle est indissociable du traitement du signal, et ce pour l’universalité du concept de fréquence sur lequel elle repose. Si le signal n’est pas périodique, alors par un procédé intuitif de passage à la limite, on analyse le signal de manière continue avec une transformée de Fourier. Celle-ci s’´ecrit comme suit :

Où est la fréquence (exprimée en Hertz ( ). Cependant, l’analyse de Fourier, de par sa nature, montre assez vite ses limitations : son calcul nécessite la connaissance de toute l’histoire temporelle du signal (la transformée de Fourier et la transformée inverse). De plus, dans une transformée de Fourier, l’information sur le temps est présente (la transformée inverse est donc possible), mais elle est cachée dans les phases : elle est en pratique impossible à extraire. On en est donc réduit à étudier un signal soit en fonction du temps, soit en fonction des fréquences qu’il contient, sans possibilité de conjuguer les deux analyses. La transformée de Fourier inverse s’écrit comme suit :

Convolution : Soit et deux fonctions de dans ; la convolution de par , quand elle existe, est définie par :

En pratique, si l’on prend et dans ou dans , la convolution est définie.

Page 61: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

43  

1.2 Transformée de Fourier rapide : L’information que nous avons d’un signal est nécessairement discrète, on ne peut en effet enregistrer celui-ci avec une fréquence infinie, en prenant tous les points. C’est cette discrétisation qui va permettre l’utilisation de la transformée de Fourier rapide (Fast Fourier Transform ou FFT). Cette transformée de Fourier rapide est un algorithme de calcul, une recette qui va permettre de minimiser le nombre d’opérations nécessaires pour l’établissement de la transformée de Fourier d’un signal discret. L’analyse de Fourier, malgré l’introduction et le succès de la transformée de Fourier rapide (FFT), est donc par définition peu adaptée à l’étude des signaux non-stationnaires. Hors, ces signaux se rencontrent beaucoup plus souvent que les signaux stationnaires. Pour leur étude, il faudra donc employer une autre méthode d’analyse qui tienne compte de l’information temporelle du signal. 1.3 Transformée de Fourier à fenêtre : Principe d’incertitude de Heisenberg : Le principe d’incertitude vient de la mécanique quantique, mais il joue un grand rôle dans le traitement du signal. Il stipule que l’on ne peut localiser aussi précisément que l’on veut en temps et en fréquence un signal. Mathématiquement, on écrit que la moyenne des fluctuations en temps et en fréquence est bornée inférieurement :

Où désigne la variance, c’est à dire la moyenne des carrés des écarts par rapport à la moyenne. Pour pallier le manque d’informations sur le temps dans la transformée de Fourier, une nouvelle méthode d’analyse est donc introduite : elle utilise une « fenêtre glissante ». Cette méthode, pouvant être adaptée aux signaux non-stationnaires, est très proche de l’analyse spectrale : on définit une fenêtre qui sera utilisée comme masque sur le signal, et dans laquelle on considère que le signal est localement stationnaire, puis on décale cette fenêtre le long du signal afin de l’analyser entièrement. Gabor reprendra cette méthode dans les années 40 : sa fenêtre est représentée par une fonction gaussienne [1] :

Avec , où représente le facteur d’échelle, et le facteur de translation. On constate que le membre de l’équation ci-dessus est indépendant de , ce qui signifie que l’enveloppe de la fenêtre glissante sera constante : on aura donc une résolution fixe sur toute la durée du signal. Ainsi, l’étude d’un signal avec la transformée de Gabor permet d’obtenir à la fois une information sur le temps et sur la fréquence, mais la résolution d’analyse est fixée par le choix de la taille de l’enveloppe [1] : si la fenêtre est trop petite, les basses fréquences

Page 62: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

44  

n’y seront pas contenues, et si la fenêtre est trop grande, l’information sur les hautes fréquences est noyée dans l’information concernant la totalité de l’intervalle contenu dans la fenêtre. 1.4 Ondelettes et analyse multi-résolution : La méthode de Gabor permet donc de décomposer un signal donné en une combinaison linéaire temps-fréquence judicieusement choisie. Mais l’on aimerait pouvoir faire varier la résolution d’analyse en fonction du signal afin de s’adapter à celui-ci : on n’a pas besoin d’un très haut niveau de résolution lorsque le signal est constitué uniquement de basses fréquences, et il serait dommage d’étudier un signal comportant beaucoup de hautes fréquences avec une résolution trop basse. Ainsi, plutôt que de choisir à l’avance une résolution adaptée à un type de signal donné, il serait préférable de disposer d’une méthode d’analyse dont la résolution, aussi bien en temps qu’en fréquence, s’adapte au signal en fonction de ses caractéristiques. Pour ce faire, plutôt que de conserver une enveloppe fixe dans laquelle le nombre d’oscillations varie, on conserve un nombre d’oscillations constant dans une enveloppe que l’on peut contracter et dilater à volonté : c’est l’analyse multi-résolution, dont la figure IV.1 décrit le principe.

Figure IV.1 : La transformée en ondelettes agit comme un zoom mathématique [2]. Le signal d’origine (a) est décomposé en un ensemble de sous-signaux (b) selon la procédure suivante : La fonction est décomposée en un signal de détail et un signal d’approximation

(qui n’est pas représenté ici). Ce signal est à son tour décomposé en un détail et une approximation , et ainsi de suite jusqu’à obtenir les cinq signaux de

détails à correspondant aux détails des 5 premières résolutions, et le signal d’approximation à la résolution 5 . Ainsi, l’analyse multi-résolution agit comme un zoom mathématique sur le signal à analyser : on peut en faisant varier l’échelle d’analyse du signal extraire les détails présents à telle ou telle résolution.

Page 63: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

45  

2. Introduction à la transformée en ondelettes et à l’analyse multi-résolution : La transformée de Fourier ainsi que ses dérivées (transformée de Fourier à fenêtre, transformée en cosinus discrète), du fait de leurs limitations, ne sont pas toujours bien adaptées au traitement du signal et de l’image. Dans de nombreux cas de figures, on préférera bénéficier des caractéristiques multi-résolutions de la transformée en ondelettes. 2.1 Transformée en ondelettes continue : La transformée en ondelettes utilise des translations et des dilatations d’une fonction fixe, l’ondelette mère [1]. Dans le cas de la transformée continue, les paramètres de translation et de dilatation varient de manière continue. En d’autres mots, la transformée utilise les fonctions :

Avec , où sert à dilater (comprimer ou étendre) la fonction , et sert à la translater (la déplacer selon l’axe des temps). L’ondelette mère possède de plus les propriétés suivantes : - Son intégrale est nulle (centrage). - L'intégrale de son module carré vaut 1 (normalisation).

Figure IV.2: Ondelette Chapeau Mexicain pour plusieurs facteurs d’échelle.

Quand on analyse un signal avec ces ondelettes, on le transforme en une fonction de deux variables (le temps et l’échelle d’analyse du signal) qu’on peut appeler :

Que l’on peut également noter :

Cette transformation est en théorie infiniment redondante puisque l’ondelette est translatée de manière continue ; cependant il existe des méthodes pour diminuer cette redondance : l’une de ces méthodes consiste en l’emploi de la transformée en ondelettes discrète.

Page 64: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

46  

2.2 Transformée en ondelettes discrète : Contrairement à la transformée continue, dans laquelle l’ondelette est dilatée et translatée de manière continue, la transformée en ondelettes discrète translate et dilate l’ondelette selon des valeurs discrètes [1] [3]. Ces coefficients et seront discrétisés de la manière suivante :

et , avec et fixés et appartenant à . Les ondelettes sont alors définies de la manière suivante :

Nous avons vu que la transformée en ondelettes continue est infiniment redondante. La transformée en ondelettes discrète permet de diminuer fortement cette redondance sans l’annuler entièrement : les signaux sont décrits par un nombre fini d’échantillons. Lorsque l’on voudra obtenir un signal transformé aussi concis que possible (en pratique, un signal transformé qui contient autant d’échantillons que le signal d’origine) on utilisera alors un cas particulier de la transformée en ondelettes discrète : la transformée en ondelettes orthogonale. 2.3 Analyse multi-résolution : Une autre manière de décrire la transformée en ondelettes est de dire qu’elle consiste à obtenir une approximation d’un signal par projection de celui-ci sur l’espace d’approximation

grâce à un opérateur [1] [3] [4]. Cette approximation faisant perdre une partie de

l’information, la reconstruction du signal nécessite d’associer à l’opérateur un opérateur

projetant le même signal sur l’espace de détail tel que = + . Les espaces

d’approximation et de détail sont construits respectivement à partir des fonctions de base et .

L’analyse multi-résolution permet de rapprocher l’analyse en variable d’espace avec l’analyse en variable de fréquence. Elle formalise l’idée intuitive selon laquelle tout signal peut être construit par raffinements successifs, c’est-à-dire par l’ajout de détails lorsque l’on passe d’une résolution à la suivante. D’une manière plus précise, une analyse multi-résolution de

est définie comme une suite de sous-espaces fermés de , , ayant les

propriétés suivantes [4] : 1. l’approximation à la résolution contient toutes les informations

nécessaires pour calculer le même signal à la résolution inférieure .

2. si la même fonction dilatée d’un facteur 2

appartient à .

3. si appartient à , la même fonction translatée d’un

facteur quelconque appartient aussi à .

Page 65: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

47  

4. est dense dans et chaque fonction d’énergie finie

( peut être approximée avec une précision arbitraire par une fonction de d’une

hauteur adéquate. 5. Il existe une fonction d’échelle , ayant une intégrale non nulle, telle que et toutes ses translatées d’un facteur entier forment une base orthonormée. 3. Ondelettes orthogonales : Les ondelettes orthogonales étaient couramment employées pour supprimer la redondance ainsi que pour assurer la reconstruction parfaite du signal. L’analyse multi-résolution orthogonale est une analyse multi-résolution dans laquelle les espaces d’ondelettes sont définis comme le complément orthogonal de dans [5]. En

conséquence, les espaces avec sont tous mutuellement orthogonaux.

Une condition suffisante pour qu’une analyse multi-résolution soit orthogonale est :

ou Reprenons l’expression de la famille d’ondelettes discrètes :

Y. Meyer a montré que pour = 2 et = 1, les fonctions constituent une base orthonormée de . Les ondelettes sont dites ondelettes orthogonales et s’écrivent alors :

Une fonction d’échelle orthogonale est une fonction telle que l’ensemble est

une base orthonormée, ou

Avec une telle fonction , la collection de fonctions est une base orthonormée de et la collection de fonctions est une base orthonormée de .

L’intérêt d’utiliser des ondelettes orthogonales devient évident lorsque les applications envisagées visent la compression (d’image ou de vidéo par exemple). Dans ce genre de cas, deux conditions doivent être respectées : 1. Ne pas "alourdir" l’information à compresser par de la redondance. 2. Pouvoir effectuer la décompression de l’information, donc assurer la réversibilité de la transformée en ondelettes. L’analyse multi-résolution consiste, nous l’avons vu, en la projection du signal à analyser sur deux espaces distincts : un espace d’approximation, et un espace détail. Si les fonctions utilisées (fonction d’échelle ou ondelette) ne sont pas orthogonales :

Page 66: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

48  

- L’information ne sera pas dé-corrélée entre les vecteurs de la base : la même information sera alors répartie sur plusieurs vecteurs, d’où la redondance. - On ne pourra plus retrouver facilement le signal d’origine à partir des transformées. 4. Avantages de la transformée en ondelettes : 4.1 Généralités :

Figure IV.3 : (a) Transformée de Fourier et (b) Transformée en ondelettes.

On constate que dans les basses fréquences, la transformée en ondelettes est très précise en fréquence, mais moins sur le temps. La tendance est inversée en haute fréquence où elle est beaucoup plus précise sur le temps que sur la fréquence. Ainsi, la transformée en ondelettes s’adapte tout naturellement au signal à analyser, contrairement à la transformée de Fourier à fenêtre qui conserve une résolution d’analyse fixe quelle que soit la fréquence observée. La taille de l’enveloppe à utiliser doit donc être définie avant l’analyse, et nécessite donc la connaissance a priori du signal pour que l’analyse soit efficace. D’autre part, l’utilisation de la transformée en ondelette orthogonale permet de transformer un signal quelconque de N échantillons en un signal dans la base d’ondelettes contenant également N échantillons, et ce sans perdre aucune information sur le signal d’origine. 4.2 Intérêt en traitement d’image : L’emploi de l’analyse multi-résolutions dans le traitement d’images fournit un certains nombre d’avantages selon l’application envisagée : 4.2.1 Compression : Le taux de compression de l’image pourra facilement être adapté à la qualité désirée. En effet, en éliminant les détails contenus dans certains niveaux de résolution, jugés peu importants, on pourra fortement augmenter le taux de compression, en conservant uniquement

Page 67: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

49  

l’information nécessaire. Si l’on désire conserver une bonne qualité d’image, il suffira alors de conserver tous les détails. 4.2.2 Détection de contours : La détection de contours est une tâche ardue lorsque les images traitées présentent des variations brusques dans des zones inintéressantes : en pratique, on voudrait pouvoir ignorer certains contours et ne conserver que les plus représentatifs. Ce type d’analyse est permis par la multi-résolution. En analysant l’image à une résolution grossière, après avoir éliminé les détails, les informations sur le feuillage auront disparu. A contrario, l’analyse à une résolution plus précise nous donnera tous les contours présents dans l’image. 4.2.3 Détection / reconnaissance de texture : L’analyse multi-résolution apporte un avantage considérable dans le domaine de la reconnaissance de texture, puisque l’échelle est prise en compte en plus des paramètres habituels de détection comme les motifs. Bien évidemment, la transformée en ondelettes ne se limite pas aux applications mentionnées ci-dessus. On peut également citer la reconnaissance de visage, la détection de mouvements, et d’une manière générale la plupart des applications reposant sur l’analyse d’images. D’autre part, un avantage non négligeable de la transformée en ondelettes est qu’elle n’est pas liée à une fonction prédéfinie comme l’est la transformée de Fourier qui utilise les fonctions sinus et cosinus exclusivement. Ainsi, le choix de l’ondelette utilisée pour l’analyse pourra dépendre de l’application envisagée, voire même du type de donnée traitée. 5. Filtrage des signaux : Un des objectifs de filtrage du signal, est de débarrasser un échantillon de son bruit (dans la mesure du possible) et de tronquer le signal de façon à ce qu’il représente le signal original. Pour les spécialistes du traitement du signal, il n’existe que deux types de fonctions : le signal à analyser et le filtre qui l’analyse. Un filtre classique est un dispositif électronique disposant d’un fil d’entrée portant le signal et d’un fil de sortie portant le signal filtré. Un exemple de filtre est un filtre passe-bas. On peut également considérer des filtres passe-haut, qui, appliqués à un signal ne laissent passer que les fréquences de celui-ci supérieures à sa fréquence de coupure . Mais il existe de nombreux autres types de filtre. Théorème d’échantillonnage de Shannon : Si on passe un signal quelconque dans un filtre passe-bas de fréquence de coupure alors seulement points sont nécessaires pour obtenir une représentation complète du signal à la sortie du filtre. Cette notion est très importante lorsque l’on traite un signal, elle dit que cela ne sert à rien de prendre une énorme quantité d’information et elle fixe la quantité nécessaire. 6. Transformée en ondelettes : analyse multi-résolution et bancs de filtres : Mallat a montré que les coefficients d’ondelettes définis par la relation peuvent être calculés à partir d’une transformée pyramidale mise en œuvre à l’aide de filtres

Page 68: HAMITOUCHE_SALMI

CHAPITRE IV Ondelettes   

50  

numériques, récursifs ou non [4]. Le principe de la transformée pyramidale consiste en la décomposition du signal à analyser à l’aide d’une paire de filtres conjugués en quadratures. L’un de ces filtres fournira les coefficients d’ondelettes (ou détails), le second les coefficients d’approximation. L’approximation est elle-même à son tour décomposée par une seconde paire de filtres, l’ensemble constituant une pyramide de filtres.

Figure IV.4 : Décomposition 1D à l’aide de bancs de filtres.

La résolution en sortie de chaque paire (ou banc) de filtres étant deux fois inférieure à la résolution d’entrée, on parle d’analyse multi-résolution dyadique. Conclusion : Nous avons vu dans ce chapitre que la transformée en ondelettes présente de nombreux avantages dans le domaine du traitement du signal et de l’image. C’est un outil puissant de transformation du signal qui permet d’adapter celui-ci à un traitement ultérieur dont le principal intérêt est de "préparer" le signal dans le but de faciliter le traitement envisagé. Ainsi, elle permet de réduire la redondance pour améliorer la compression d’une image, elle peut également extraire les informations importantes (texture, contours, etc.) contenues dans une image. Dans le chapitre suivant, nous entamerons le domaine de la reconnaissance des formes, sur lequel repose la conception de notre système.  

Page 69: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

51  

Introduction : Après avoir vu dans les chapitres précédents les différents concepts nécessaires à l’accomplissement de notre travail, nous passons maintenant à la partie conception du système. Après l’étude de l’état de l’art sur les systèmes d’identification et de vérification de personnes par reconnaissance de l’iris, on a pu distinguer plusieurs méthodes, chacune présentant des avantages (taux d’identification élevé, taux FAR et FRR bas, espace réduit…) et des inconvénients (temps de latence, manque de robustesse, influence des conditions de capture sur les bons résultats obtenus). Quelques unes ont été délaissées, car elles ont rapidement montré leurs limites, d’autres ont déjà fait leur preuve et constituent une référence dans le domaine. On distingue plusieurs méthodes d’analyse des données selon le domaine sous lequel se présente l’information (espace, fréquences…), mais aussi la manière selon laquelle l’information est structurée et donc traitée (un ensemble de pixels de niveaux de gris, un ensemble de primitives fractales…). Nous pouvons donc envisager plusieurs méthodes de conception selon le contenu de l’image et la manière de le traiter. Dans le but de concevoir un système d’identification biométrique de personnes par reconnaissance de l’iris, plusieurs étapes sont nécessaires, l’étape d’extraction des caractéristiques est la plus importante car les performances du système en dépendent (résultats et robustesse, un temps de latence acceptable pour des applications « temps réel ». Les données acquises par des capteurs spécifiques ou sauvegardées dans une base de données subissent d’abord des prétraitements afin de les débarrasser du bruit. Elles seront ensuite traitées dans le but d’obtenir un gabarit qui représente l’identité biométrique de l’image, celui-ci caractérise le plus d’informations possibles contenues dans cette image en un minimum d’espace. 1. Conception globale du système : Au vu de l’état de l’art et des différentes approches de conception, nous avons choisi comme méthode l’analyse du contenu spatial des images d’iris : technique basée sur la texture (manipulation de l’information texturale). Cette technique est largement utilisée dans l’imagerie médicale et ce pour la détection des pathologies tissulaires et la distinction de l’atteinte fibreuse notamment lorsqu’elle est évoluée [1] [2]. Une étude récente mettrait en évidence une amélioration de la capacité à différencier les stades de fibrose [3]. Cette méthode est également employée dans d’autres domaines de l’imagerie tels que la reconnaissance automatique de texture (segmentation des objets) et l’évaluation des tissus graisseux sous cutanés [3]. Nous avons également testé cette méthode sur le contenu spatial filtré d’une image d’iris. Les données manipulées lors de la phase d’extraction des caractéristiques regroupent de l’information utile permettant la discrimination entre individus, et de l’information inutile. Le but de l’utilisation du filtre est de ne garder que l’information utile. Le système permet d’illustrer le processus d’identification (reconnaissance des individus) et celui de vérification (contrôle d’accès). Lors de la phase d’identification, un individu possédant un modèle dans la base de données peut s’identifier grâce aux images prises par un capteur, qui comparées à tous les modèles de la base, détermineront son identité.

Page 70: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

52  

Lors de la phase de vérification, à défaut d’une carte à puce, un individu possédant un modèle dans la base de données peut effectuer un test de vérification grâce aux seuils individuels sauvegardés dans la base, permettant ainsi au système de se prononcer sur la véracité de son identité. Pour l’estimation des seuils (processus de vérification), ils s’effectuent en amont, de manière automatique. Les images d’iris utilisées lors du calcul des seuils sont différentes de celles utilisées pour la vérification, ceci permet de prendre en considération l’impact des conditions de capture des images sur les résultats. Les taux sont fixés après plusieurs tentatives permettant ainsi d’avoir la plupart des cas de figure. Nous supposons que l’identification est un problème fermé (c'est-à-dire que toute personne à identifier possède un modèle dans la base), une seule classe sera alors récupérée parmi les plus proches (celle correspondante au vecteur le plus proche). 2. Fonctionnement du système : Notre système permet d’illustrer le processus d’identification et de vérification d’identité. Décrivons dans ce qui suit, les différents événements qui s’y passent lors de ces deux processus. 2.1 Processus d’identification : Il comporte deux phases : la phase d’apprentissage pendant laquelle les modèles sont construits et la phase d’identification (phase de comparaison (matching)). 2.1.1 Phase d’apprentissage : Dans le cadre d’une méthode supervisée (les modèles doivent être connus à priori) pour l’identification des personnes par iris, un modèle pour la représentation de chaque classe est construit. Deux types de modèles peuvent être envisagés : - Le premier consiste en la moyenne de l’échantillon d’apprentissage, cela permet d’aboutir à un modèle représentatif de tout l’échantillon d’apprentissage. - Le second est le vecteur correspondant à la distance minimale entre le vecteur recherché et l’ensemble de l’échantillon d’apprentissage, ceci permet d’aboutir à un modèle ayant les caractéristiques les plus proches du vecteur recherché au sens de la distance utilisée. Cette technique reste néanmoins très coûteuse en termes de temps d’exécution. Une fois les modèles des individus définis, l’opération d’identification peut s’effectuer, voici les étapes de la phase d’apprentissage : 1. Acquisition d’une ou plusieurs images d’iris de la personne. 2. Prétraitement de cet échantillon si besoin est (passage en niveaux de gris, filtrage du bruit émanant des défauts de capture et de la lumière utilisée). 3. Normalisation de ces images. 4. Sauvegarde des images normalisées. 5. Calcul du vecteur de données représentant l’identité statistique de l’image à travers les étapes suivantes : - Division de l’image normalisée en portions : cette étape a un double objectif : le premier étant d’arriver à des valeurs de critères statistiques plus précises lorsqu’elles sont calculées sur de petites zones (portions). Le deuxième est de pouvoir éliminer les zones affectées par le

Page 71: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

53  

bruit (zones dont le nombre de pixels bruités est supérieurs à 40%), et donc de ne considérer que les zones saines pour de meilleurs résultats. - Calcul des critères statistiques dans chaque portion de l’image, caractérisant la répartition et l’agencement des niveaux de gris sur différents niveaux (méthodes) :

- Méthode statistique du premier ordre (histogramme). - Méthode statistique du second d’ordre (Matrice de cooccurrence). - Méthode statistique d’ordre supérieur (matrice des longueurs de plages de niveaux de

gris). - Alignement des valeurs calculées dans un même ordre pour chaque portion dans un vecteur. Construction du vecteur final correspondant à l’image normalisée de départ à partir des vecteurs de chaque portion dans un ordre bien précis. 6. Récupération du vecteur modèle de chaque individu selon le type de modèle choisi (modèle moyen ou intégral). 7. Sauvegarde et affichage des informations personnelles de l’individu (matricule, nom, prénom…).

Page 72: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

54  

Phase d’apprentissage :

Echantillon de la base

CASIA-IrisV3 

Prétraitement et détection de l’iris et de la pupille

Normalisation

Segmentation en portions

Page 73: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

55  

Figure V.1 : Phase d’apprentissage (processus d’identification et processusdevérification). 2.1.2 Phase d’identification :

1. Calcul des distances entre le vecteur correspondant à l’iris sélectionné, et les modèles des individus dans le cas du modèle moyen, dans le cas contraire (modèle intégral), construction des modèles des individus de la base. 2. Récupération du vecteur le plus proche au sens de la distance utilisée (euclidienne, Manhattan…). 3. Affichage du résultat (identité trouvée).

Partie réelle 

Partie imaginaire 

Juxtaposition des différents résultats en un vecteur

Juxtaposition des différents résultats en un vecteur

Calcul du vecteur statistique textural de chaque portion de l’iris

Analyse texturale directe Analyse texturale filtrée

Méthode de premier ordre

Méthode de second ordre

Méthode d’ordre

supérieur

Filtrage par Log Gabor

Méthode de premier ordre

Page 74: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

56  

Phase d’identification :

Figure VI.2 : Phase d’identification. 2.2 Processus de vérification : Il comporte également deux phases : la phase d’apprentissage pendant laquelle les modèles sont construits de la même manière que pour le processus d’identification (devant être sauvegardés dans une carte de gabarit biométrique), et la phase de vérification (phase de comparaison au seuil). 2.2.1 Phase d’apprentissage : Les étapes de la phase d’apprentissage sont : 1. Acquisition d’une ou plusieurs images d’iris de la personne. 2. Prétraitement de cet échantillon si besoin est (passage en niveaux de gris, filtrage du bruit émanant des défauts de capture et de la lumière utilisée). 3. Normalisation de ces images. 4. Sauvegarde des images normalisées. 5. Calcul du vecteur de données représentant l’identité statistique de l’image à travers les étapes suivantes : - Division de l’image normalisée en portions. - Calcul des critères statistiques dans chaque portion de l’image. - Alignement des valeurs calculées dans un même ordre pour chaque portion dans un vecteur. - Construction du vecteur final correspondant à l’image normalisée de départ à partir des vecteurs de chaque portion dans un ordre bien précis. 6. Récupération du vecteur modèle de chaque individu selon le type de modèle choisi (modèle moyen ou intégral).

Affichage du résultat (identité trouvée)

Calcul des distances entre le vecteur à identifier et les modèles des individus

Récupération du vecteur le plus proche (distance minimale)

Page 75: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

57  

7. Sauvegarde et affichage des informations personnelles de l’individu (matricule, nom, prénom...). 2.2.2 Phase de vérification : 1. Sélection d’une image d’iris à partir de la base de données (image de référence) pour la construction du modèle. 2. Construction du modèle de l’individu. 3. Sélection d’une image d’iris de l’individu dont l’identité doit être vérifiée (image cible). 4. Calcul de la distance entre le vecteur de l’image destination et le vecteur du modèle. 5. Comparaison du résultat obtenu avec le seuil de l’individu correspondant au modèle. 6. Affichage du résultat « succès » dans le cas où le résultat est inférieur au seuil, et « échec » dans le cas contraire.

Phase de vérification :

Figure V.3 : Phase de vérification.

3. Structure modulaire du système : On s’intéresse dans cette partie à décrire avec précision la structure interne du système, ses composantes (ses modules) et les interactions entre celles-ci.

Comparaison du résultat avec le seuil et affichage du

résultat : succès ou échec

Sélection d’une image de référence

Construction du modèle de l’individu

Calcul de la distance entre le vecteur de l’image destination et celui du modèle

Sélection d’une image cible

Page 76: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

58  

3.1 Modules du processus d’apprentissage : 3.1.1 Module d’acquisition des images d’iris : Le rôle de ce module est de récupérer les images d’iris que le capteur prend automatiquement à chaque enclenchement de la fonction de capture. 3.1.2 Module de prétraitement des images : Après que l’image soit capturée, le passage au mode niveau de gris est l’étape suivante, cette transformation permet de regrouper en une seule matrice l’essentiel de l’information structurée en 3 matrices, étant donné qu’avec un capteur traditionnel, l’image est en couleurs et que celle-ci est sous forme de 3 dimensions. Ce regroupement en une seule matrice permet un gain en temps d’exécution et en espace, il est effectué par cette formule :

y]B[x,*0.114+y]G[x,*0.578+y]R[x,*0.299=y]Y[x, Avec R : rouge, G : vert, B : bleu. Le prétraitement peut maintenant être effectué sur l’image afin de se débarrasser des informations qui s’y trouvent de leurs bruits. Ces bruits sont causés par les défauts optiques des capteurs, en faisant appel à des filtres d’égalisation et de réajustement d’histogramme. Le but est d’arriver à des images les plus homogènes possibles. La transformation en niveaux de gris est omise si les images sont prises sous lumière proche infrarouge, et les prétraitements sont facultatifs si les conditions de capture sont bonnes.

Figure V.4 : Transformation en niveaux de gris. 3.1.3 Modules de détection des coordonnées de la pupille et de l’iris : Les modules de détection des coordonnées de l’iris et de la pupille ont été empruntés des travaux de Libor Masek car la détection de l’iris et de la pupille n’est pas l’objectif principal. Ces modules fonctionnent plus ou moins bien, leurs performances seront citées dans le chapitre tests et résultats. Ce module est composé de plusieurs sous modules : 3.1.3.1 Module de détection de la pupille : Son rôle est de détecter les coordonnées de la pupille en utilisant la technique de la transformée de Hough dont le principe est le suivant : Détecter une forme géométrique connue telle qu’un cercle revient à créer un espace qu’on appelle espace de Hough contenant le nombre de pixels se trouvant à l’intersection entre un

Page 77: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

59  

cercle dessiné avec des paramètres (centre et rayon) aléatoires, et le cercle recherché dans l’image. Les coordonnées du cercle de l’espace de Hough ayant le maximum de pixels commun seront logiquement les coordonnées du cercle recherché. L’inconvénient majeur de cette technique qui reste très efficace est son approche à force brute, qui nécessite un temps de calcul considérable, ceci reste acceptable quand il est appliqué à des images de petites tailles mais devient très vite inexploitable quand la taille de l’image est trop grande. Cet algorithme sera appliqué sur l’image des contours d’iris obtenue par application d’un algorithme traditionnel de détection des contours qui est déjà implémenté sous Matlab (ces contours représentent les bords des formes géométriques se trouvant dans l’image d’iris et notamment ceux des cils, de l’iris, de la pupille et des paupières). Pour éviter de tracer trop de points, l’algorithme inclut un paramètre pour fixer le seuil d’intensité à partir duquel un point est repéré comme étant un contour. Cette technique n’est pas incontournable puisque parfois on rencontre des problèmes de détection dus souvent au bruit (reflet des cils et des paupières sur la pupille et l’iris, image trop sombre…). Dans ce cas, la seule alternative reste l’opération manuelle. Les valeurs des rayons et coordonnées cartésiennes à tester sont en fonction de la taille des images. 3.1.3.2 Module de détection de l’iris : Il s’agit d’un module qui utilise le même principe que celui de la détection des coordonnées de la pupille avec cette fois de nouveaux paramètres qui permettent de fixer le seuil approprié pour la détection des contours. D’autres formes telles que les paupières représentées par des paraboles sont également recherchées afin de constituer le masque de bruit (zones de bruit) nécessaire lors du calcul des caractéristiques.

Figure V.5 : Détection des coordonnées de l’iris et de la pupille.

3.1.4 Module de normalisation de l’iris : Le dépliage de l’iris s’effectue comme suit : - Découpage de l’iris en zones circulaires, le nombre de cercles dépend de la taille en pixels de l’image d’iris et de celle des zones circulaires, à titre d’exemple : 32 zones circulaires sur les images de taille 280 x 320 pixels. - Choix d’un nombre de points fixes équidistants dans chaque cercle (à titre d’exemple : 240 points), sur lesquels une interpolation linéaire est appliquée. Cette transformation est faite conformément au modèle de normalisation de John Daugman [4]. Elle permet le passage

Page 78: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

60  

d’une représentation par coordonnées cartésiennes vers une représentation polaire où est dans l’intervalle [0,1] et est dans l’intervalle [0,2π].

Figure V.6 : Modèle de transformation polaire rectangulaire de John Daugman [4].

Le passage de la représentation cartésienne à la représentation polaire rectangulaire est modélisé par la formule :

Avec ,

Où est la région de l’image d’iris, sont les coordonnées cartésiennes initiales, sont leurs coordonnées polaires correspondantes dans l’image normalisée, , et ,

sont les coordonnées des contours de la pupille et de l’iris respectivement le long de la direction . Ce modèle prend en considération la dilatation et la contraction de la pupille, les différences en dimension dues à la distance de capture et le déplacement non concentrique de la pupille par rapport à l’iris, et y remédie afin d’arriver à une représentation normalisée avec des dimensions constantes pour toutes les images d’iris. Lors des transformations, le centre de la pupille est considéré comme le point référence, le nombre de lignes radiales traversant le centre de la pupille est considéré comme la résolution angulaire, le nombre de points pris sur chaque ligne radiale est la résolution radiale. Puisque souvent la pupille est non concentrique à l’iris, une formule de correction de la valeur du rayon due au déplacement de la pupille par rapport au centre de l’iris est utilisée, elle permet de trouver la valeur du rayon sur chaque ligne choisie.

Avec ,

Où le déplacement du centre de la pupille par rapport au centre de l’iris est donné par , ,

la distance entre le contour de la pupille et celui de l’iris dans une certaine direction autour de la région d’iris et est le rayon de l’iris.

Page 79: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

61  

Figure V.7 : Résultat du processus de normalisation de l’iris avec une résolution angulaire de 40 pixels et une résolution radiale de 10 pixels.

Figure V.8 : Illustration du procédé de normalisation de l’image d’un iris après localisation de l’iris et de la pupille. 3.1.5 Module d’extraction des caractéristiques : Plusieurs approches sont susceptibles d’être utilisées dont celle basée sur la texture, qui consiste en une quantification statistique de l’information texturale présente dans la zone d’intérêt. Les critères statistiques calculés constitueront une identité statistique pour chaque image d’iris. L’intérêt d’une telle approche est d’arriver à substituer l’image de l’iris normalisée par un vecteur dont les valeurs caractérisent d’une manière plus ou moins précise l’agencement des différents pixels de l’image d’iris, l’avantage est donc d’arriver à compresser les valeurs de pixels de l’image, et à ne manipuler qu’un maximum de 10% de l’ensemble de départ, et ce dans un but de discrimination entre individus.

Page 80: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

62  

Figure V.9 : Illustration du principe de l’approche basée sur la texture.

Etapes de calcul du vecteur caractéristique d’une image d’iris : Les étapes de calcul de ce vecteur sont différentes selon la méthode d’analyse que l’on choisit, la première est celle de l’analyse statistique directe, c'est-à-dire une analyse opérant directement sur l’ensemble des pixels représentant l’image normalisée de l’iris. Cette méthode prend en considération tous les détails d’une image d’iris normalisée, y compris l’information inutile pour un problème tel que la discrimination, d’où la nécessité d’analyse approfondie (méthode de second ordre et d’ordre supérieur). La deuxième méthode découle naturellement de l’inconvénient de la première méthode : le filtrage de l’image normalisée. Ce traitement permettra de ne garder que l’information essentielle pour la discrimination, c'est-à-dire les transitions brusques d’un niveau de gris vers un autre, ce principe et l’outil utilisé seront expliqués plus loin. 1. Méthode directe : - Pour chaque portion de l’image normalisée, on vérifie si celle-ci peut être recensée, car faute d’une forte présence du bruit, la comparaison ne doit pas se faire sur des zones de dimensions différentes (la texture devant être le seul paramètre discriminant entre individus). Un seuil de tolérance est fixé selon l’observation des images normalisées ainsi que leur masque de bruit : ce seuil doit être suffisamment élevé pour n’éliminer que les images trop bruitées, et suffisamment bas pour que les valeurs des mêmes paramètres statistiques calculés sur deux zones de texture proches soient les plus homogènes possibles.

Figure V.10 : Iris normalisé et son masque de bruit (les points en blanc dans le masque représentent le bruit).

- Si la portion peut être recensée statistiquement, l’histogramme de la portion sera calculé, et un nombre de 6 valeurs de critères statistiques en sera déduit, il s’agit là, des paramètres statistiques de premier ordre suivants : (moyenne variance écart type skewness kurtosis snr).

Page 81: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

63  

- Calcul de la matrice de cooccurrence dans les quatre directions (0°, 45°, 90° et 135°), suivi du calcul de 12 critères sur chacune des quatre matrices. Enfin, l’alignement en un vecteur des moyennes de chaque critère. Un vecteur de critères statistiques d’ordre 2 englobe les 12 paramètres de la méthode du second ordre : moyenne, variance, écart type, énergie, contraste, corrélation, entropie 1, entropie 2, différence inverse, homogénéité, dissimilitude, inertie. La moyenne des quatre vecteurs est alignée en un seul. - Calcul de la matrice des longueurs de plages de niveaux de gris dans les quatre directions (0°, 45°, 90° et 135°), 11 critères sur chacune des quatre matrices sont déduits. Enfin, l’alignement en un vecteur des moyennes de chaque critère. Un vecteur de critères statistiques d’ordre supérieur englobe les 11 paramètres de la méthode statistique d’ordre supérieur. La moyenne des quatre vecteurs est alignée en un seul. Le choix de la moyenne des critères revient au fait que les distributions des matrices de cooccurrence ne sont que faiblement différentes, ceci est également observé sur les matrices des longueurs des plages de niveaux de gris.

50 100 150 200 250

50

100

150

200

25050 100 150 200 250

50

100

150

200

250

d = 1, = 0° d = 1, = 45°

50 100 150 200 250

50

100

150

200

25050 100 150 200 250

50

100

150

200

250

d = 1, = 90° d = 1, = 135° Figure V.11 : Matrice de cooccurrence d’une portion d’image.

Page 82: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

64  

5 10 15 20 25 30 35 40

50

100

150

200

2505 10 15 20 25 30 35 40

50

100

150

200

250

d = 1, = 0° d = 1, = 45°

5 10 15 20 25 30 35 40

50

100

150

200

2505 10 15 20 25 30 35 40

50

100

150

200

250

d = 1, = 90° d = 1, = 0° Figure V.12 : Matrice de LPNG d’une portion d’image.

- Juxtaposition des 3 vecteurs en un seul vecteur et ce en juxtaposant ces derniers, ce travail sera fait pour toutes les portions dans un ordre prédéfini et cet ordre reste fixe. 2. Méthode de filtrage : Le traitement de l’intégralité de l’information texturale de l’image d’iris normalisée reste l’inconvénient majeur de cette approche, car la seule information dont on a besoin pour la discrimination entre individus est celle des détails, qui consiste en les transitions brusques des niveaux de gris et leur localisation dans l’iris. Il est par conséquent nécessaire d’utiliser un outil capable d’extraire l’information recherchée (les détails) et d’ignorer le reste. A priori, la transformée de Fourier serait l’outil adéquat car il permet de détecter la plupart des zones consistantes en informations (détectées sous forme fréquentielle), or l’utilisation de la transformée de Fourrier délocalisera complètement le contenu fréquentiel obtenu du repère spatial, d’où la nécessité d’un outil qui serait en mesure de préciser en plus, la localisation temporelle de cette information fréquentielle. A l’heure actuelle, la transformée en ondelettes est l’outil qui peut palier ce problème. Elle permet d’avoir une représentation à différentes échelles de résolution de l’information présente dans l’iris et a comme avantage par rapport à la transformée de Fourier, le fait que les signaux restent localisés en fréquence et en espace. Une ondelette est une fonction de l’espace de moyenne nulle dont la localisation en espace et en temps est modifiée par translation et homothétie. L’idée inhérente à la notion de la transformée en ondelettes [5] est de corréler la fonction de départ avec les modifications spatiales et fréquentielles de l’ondelette, autrement dit, extraire l’information se trouvant en même temps localisée en espace et en fréquence.  

Page 83: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

65  

Le premier pas de notre démarche pour aboutir à un gabarit d’iris qui contient l’information spécifique de l’individu est donc de calculer la transformée de l’iris normalisée par une ondelette. Dans la reconnaissance par iris, la plupart des méthodes que l'on trouve dans la littérature utilisent différents types d'ondelettes ou de filtrage par fenêtre, à titre d’exemple, John Daugman [4] utilise le filtrage à deux dimensions de Gabor. Masek [6] a étudié en 2003 l’application d’une ondelette Log-Gabor et a constaté qu’elle présentait de bonnes qualités d’analyse dans le cas de l’iris. Nous avons donc choisi cette approche récente pour notre analyse. Un filtre de Gabor est formé par le produit d’une exponentielle complexe avec une gaussienne. Ainsi, sa partie réelle et complexe sont deux modulations d’une gaussienne avec deux sinusoïdales orthogonales. L’onde sinusoïdale est parfaitement localisée en fréquence, mais complètement délocalisée en espace. La multiplication par une gaussienne permet de la restreindre en espace (bien qu’une certaine délocalisation en fréquence soit ainsi introduite). D’habitude, l’ondelette de Gabor est implémentée avec une paire de filtres en quadrature, l’un représentant la partie réelle (un cosinus modulé par une gaussienne) et l’autre la partie imaginaire (un sinus modulé par cette même gaussienne). La fréquence centrale du filtre est alors déterminée par la fréquence de la sinusoïde, tandis que l’ampleur de bande dépend des caractéristiques de la gaussienne. Voici à titre d’exemple le filtre de Gabor employé par Daugman [4] :

Où représente la position sur l’image.

Le filtrage de Log Gabor : En consultant les diverses études disponibles sur le processus d’encodage, on rencontre [6] [7] un désavantage lié au choix de l’ondelette que nous venons de présenter : la partie réelle du filtre introduit une composante continue puisque la valeur à la fréquence zéro de la transformée de Fourier du filtre de Gabor n'est pas nulle. Cette composante continue est déterminée par l’illumination et n’apporte que l’information des conditions de prise des photos. Puisque dans le traitement de l'iris, nous nous intéressons seulement aux transitions des valeurs des pixels, cette composante doit être éliminée. Voilà pourquoi nous avons choisi d’utiliser un filtre de Gabor logarithmique, solution proposée dans la littérature [6] pour éliminer le problème exposé. Il s'agit d'un filtre de Gabor dont l'échelle de fréquence est logarithmique. Il possède donc la réponse fréquentielle suivante :

 

Où est la fréquence central et est la largeur de la bande du filtre. Les choix de et de dépendent du problème (qualité et propriétés des images de la base de données) et des applications du système. Graphiquement, la réponse fréquentielle de l’ondelette est donnée dans la figure suivante :

Page 84: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

66  

Figure V.13 : Réponse fréquentielle du filtre de Log-Gabor avec une FFT de 121 points.

Pour trouver ces grandeurs, nous observons le contenu fréquentiel des anneaux de l'iris que l'on traite, car il est inutile de filtrer dans une région de fréquences qui ne contient pas d'informations. Pour l’analyse, nous donnons la FFT moyenne des anneaux de l'iris, pour une image donnée.

Figure V.14 : FFT de 1000 points de la moyenne des signaux angulaires (anneaux

circulaires) de l’iris, la composante (coefficient) zéro-fréquence est bien présente.

Page 85: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

67  

Figure V.15 : FFT de la moyenne de l’iris normalisé.

Les différentes étapes de calcul du vecteur de critères statistiques sont donc : - Division de chaque portion en signaux horizontaux, dont on calcule le résultat du filtrage par la convolution du signal avec le filtre de Log Gabor, étant données que celle-ci est effectuée dans le domaine fréquentiel, cela revient à une simple multiplication. Le résultat sera ensuite transporté dans le domaine spatial grâce à une FFT inverse. - Vérifier si la portion filtrée peut être recensée, si c’est le cas, calcul de l’histogramme et des 6 valeurs des paramètres correspondant à la méthode statistique de premier ordre. - Alignement des vecteurs de chaque portion dans l’ordre prédéfini. 3.1.6 Module de calcul du modèle de chaque classe : Ce module génère le représentant de chaque individu à partir de son échantillon. Deux types de modèles ont été utilisés : 3.1.6.1 Modèle moyen : il s’agit du vecteur statistique moyen de l’échantillon. Les zones qui ne sont pas recensées sont ignorées. 3.1.6.2 Modèle intégral : le modèle n’est pas calculé, il le sera lors de la phase de vérification ou d’identification, son principe est qu’un vecteur de l’échantillon disponible sera choisi : il s’agit du vecteur le plus « proche » du vecteur recherché, cette technique est censée augmenter le taux d’identification en choisissant le meilleur représentant de chaque individu par rapport au vecteur recherché. 3.2 Modules du processus d’identification : 3.2.1 Module de calcul des distances : - Calcul de la distance entre le vecteur à identifier et celui de chaque modèle d'individu. Les distances (usuelles) utilisées sont :

Distance de Manhattan :

Distance euclidienne :

Page 86: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

68  

Distance de Mahalanobis :

Avec le nombre de paramètres dans les vecteurs.

Yambor & Al ont proposé des combinaisons de plusieurs distances, nous avons utilisé l’une d’elles:

est une application de vérifiant : 1. 2.  3.  

est bien une distance. 3.2.2 Module d’identification : - Calcul des distances entre le modèle de chaque individu avec le vecteur à identifier au moyen de la distance utilisée. - Choix de la classe dont la distance calculée est la plus petite. - Si le modèle de chaque individu doit se calculer lors de la phase d’identification, alors on calculera le modèle de chaque individu au moyen du vecteur à identifier. Ensuite, on récupérera la classe correspondante à la distance minimale trouvée. 3.3 Modules du processus de vérification : 3.3.1 Module de détermination du seuil de décision optimal : Le seuil est calculé pour chaque individu, et ce pour un nombre minimum de tentatives égal au nombre de vecteurs de l’échantillon de calcul du seuil. La moyenne des seuils individuels constitue le seuil du système. Le but de cette opération est d’obtenir la répartition des distances correspondantes à l’échantillon de calcul du seuil client par rapport aux distances des échantillons de calcul des seuils imposteurs (des autres individus). Cela aboutira à la fixation d’un seuil minimisant le nombre de faux rejets et de fausses acceptations. Les images utilisées lors de la phase de calcul du seuil n’interviennent pas dans la phase de test. Ce module permet de déterminer pour chaque individu, un seuil de décision optimal qui minimise le taux TER. Voici ses différentes étapes : 1. Calcul des distances intra classe (entre l’échantillon Client réservé au calcul du seuil et l’échantillon d’apprentissage de l’individu concerné). ( )

Avec le nombre de vecteurs dans l’échantillon de calcul du seuil. 2. Calcul des distances interclasses (entre les échantillons Imposteurs réservés au calcul du seuil et l’échantillon d’apprentissage de l’individu concerné).

Page 87: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

69  

( )

Avec le nombre de vecteurs imposteurs. 3. Calcul des grandeurs et . L’ensemble des

distances de et comprises entre et représente les valeurs que prendra

le seuil temporaire lors de chaque tentative de calcul du seuil optimal. 4. Le seuil optimal correspondant au seuil minimisant les FA et FR, il est calculé come suit :

Premier cas : >

Tout seuil compris entre et constitue un seuil optimal. Dans ce cas, il aura la

moyenne comme valeur :  

Deuxième cas :

On procède comme suit : Pour chaque valeur du seuil temporaire entre et :

- Parcourir le vecteur de distances et comparer chaque distance au seuil temporaire, si elle est supérieure ( ), on incrémente le nombre de faux rejets (FR).

- Parcourir le vecteur de distances et comparer chaque distance au seuil temporaire, si elle est inférieure ( ), on incrémente le nombre de fausses acceptations (FA). Le seuil optimal est le seuil minimisant le TER dont la formule est :

3.3.2 Module de prise de décision : Ce module permet de se « prononcer » sur la véracité de l’identité présumée d’un individu. - Calcul de la distance entre le modèle construit grâce à l’image de référence dont l’identité doit être vérifiée et une image de l’identité proclamée. - Comparaison avec le seuil de décision de l’individu dont le modèle a été construit précédemment. 3.3.3 Module de test : Ce module permet de calculer les performances réelles du système : 1. Calcul des distances intra classe (entre l’échantillon client de test et l’échantillon d’apprentissage de l’individu concerné). ( )

Avec le nombre de vecteurs dans l’échantillon de calcul du seuil. 2. Calcul des distances interclasses (entre les échantillons imposteurs de test et l’échantillon d’apprentissage de l’individu concerné). ( )

Page 88: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

70  

Avec le nombre de vecteurs imposteurs. 3. Parcourir le vecteur de distances et comparer chaque distance au seuil de l’individu, si elle est supérieure ( ), on incrémente le nombre de faux rejets (FR).

4. Parcourir le vecteur de distances et comparer chaque distance au seuil de l’individu, si elle est inférieure ( ), on incrémente le nombre de fausses acceptations (FA). 5. Calcul des taux FAR et FRR. 4. Performances du système en identification : Afin d’évaluer le taux d’identification du système, les deux bases de données CASIA V1.0 et CASIA-IrisV3-Interval ont été divisées en deux parties, l'échantillon de chaque individu est réparti en deux catégories, l’une pour l’apprentissage, et l’autre pour le test. Le taux d’apprentissage est de 40% de l’échantillon disponible, le reste est réservé pour le test.

Figure V.16 : Division de la base pour le calcul du taux d’identification.

Le tableau VI.1 montre le processus d’identification des individus 2 et 12 dans une base de données contenant 20 individus. - L’échantillon Apprentissage de chaque individu de la base contient 2 images d’iris. - L’échantillon Test des individus 2 et 12 contient quand à lui 3 images d’iris. - Une valeur en rouge représente la distance minimale entre une image de l’échantillon Test de l’individu à identifier et une image de l’échantillon Apprentissage d’un individu de la base. - Une cellule en jaune représente le minimum des modèles de la base pour une image de l’échantillon Test de l’individu à identifier. - La dernière ligne « Résultat d’identification » représente les classes auxquelles les images d’iris des individus à identifier sont affectées. Dans ce tableau, les 6 images d’iris des individus à identifier ont été affectées aux classes auxquelles elles appartiennent.

Echantillons

Apprentissage

Echantillons Test

Page 89: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

71  

Individu 2 Individu 12

Individu 1 0.4828 0.5574 0.4883 0.4960 0.4974 0.5037 0.4948 0.5749 0.5104 0.4903 0.5089 0.5074

Individu 2 0.4117 0.5134 0.4357 0.6280 0.5818 0.5765 0.4052 0.4952 0.4125 0.5000 0.4920 0.4920

Individu 3 0.5727 0.5869 0.5878 0.6053 0.6021 0.6213 0.5848 0.5805 0.5892 0.5916 0.5962 0.6046

Individu 4 0.5312 0.6644 0.5531 0.5549 0.5524 0.5776 0.5560 0.6716 0.5616 0.5713 0.5874 0.6003

Individu 5 0.5019 0.5324 0.5388 0.4787 0.4858 0.4949 0.4927 0.5213 0.5151 0.4699 0.4602 0.4816

Individu 6 0.6630 0.7371 0.6987 0.7549 0.7316 0.7120 0.5841 0.6868 0.5712 0.7055 0.6933 0.6595

Individu 7 0.5833 0.6049 0.5921 0.6272 0.6250 0.6333 0.5801 0.5535 0.5857 0.5827 0.6004 0.6101

Individu 8 0.5553 0.5419 0.5578 0.5651 0.5833 0.5986 0.5350 0.5508 0.5500 0.5563 0.5535 0.5548

Individu 9 0.4917 0.5413 0.4905 0.4983 0.5198 0.5232 0.5057 0.6045 0.5022 0.5011 0.5007 0.5324

Individu 10 0.5055 0.5589 0.5236 0.5317 0.5279 0.5633 0.5326 0.5369 0.5543 0.5516 0.5540 0.5814

Individu 11 0.5534 0.6515 0.5660 0.5123 0.5347 0.5458 0.5189 0.6098 0.5185 0.5124 0.5246 0.5294

Individu 12 0.4722 0.5501 0.4868 0.3639 0.3982 0.4217 0.4787 0.5910 0.4941 0.4083 0.3482 0.4020

Individu 13 0.5183 0.5779 0.5261 0.5224 0.5226 0.4949 0.4790 0.5412 0.4752 0.5117 0.5246 0.4751

Individu 14 0.5500 0.6154 0.5710 0.6114 0.6117 0.6245 0.5128 0.5984 0.5350 0.6059 0.6036 0.5917

Individu 15 0.5502 0.5459 0.5417 0.5368 0.5445 0.5299 0.5003 0.5105 0.5230 0.4967 0.4980 0.5187

Individu 16 0.4880 0.5469 0.4943 0.4864 0.4803 0.4722 0.4881 0.5306 0.5152 0.5206 0.5197 0.5010

Individu 17 0.5139 0.5224 0.5220 0.4941 0.4840 0.4641 0.4964 0.5040 0.5134 0.5039 0.4701 0.4698

Individu 18 0.5225 0.5795 0.5311 0.4838 0.5051 0.4951 0.5166 0.6239 0.5103 0.4751 0.4993 0.5000

Individu 19 0.6380 0.6936 0.6500 0.7181 0.7291 0.6587 0.6197 0.6610 0.6224 0.6873 0.6929 0.6702

Individu 20 0.5606 0.5947 0.5545 0.5783 0.5871 0.5524 0.5529 0.5271 0.5535 0.5400 0.5423 0.5466

Page 90: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

72  

Résultat d’identification 2 2 2 12 12 12

Tableau V.1 : Distances calculées lors de l’identification des individus 2 et 12.

5. Performances du système en vérification : Les performances du système sont illustrées par les taux FAR et FRR, ces taux sont calculés par les moyennes des taux FAR et FRR individuels. - Division de la base en deux catégories : l’individu pour lequel les taux FAR et FRR doivent être calculés représente la première catégorie, le reste de la base représente la deuxième catégorie. - Séparation des images de l’individu concerné en trois échantillons : AppCli, SeuilCli et TestCli. - Séparation de la deuxième catégorie en deux parties : échantillons Imposteurs pour le calcul du seuil et échantillons Imposteurs pour l’opération de test.

Individu i

Figure V.17 : Division de la base pour le calcul des taux FAR et FRR.

Le tableau VI.2 montre les étapes de calcul du seuil optimal de l’individu 1 (client) parmi les cinq autres individus (imposteurs). - L’échantillon AppCli contient 3 images d’iris. - L’échantillon SeuilCli contient 2 images d’iris. - L’échantillon SeuilImp contient 2 images d’iris pour chaque individu. - Les valeurs en rouge représentent les distances intra classe de l’individu 1. - Les valeurs en bleu représentent les distances interclasses de l’individu 1. - La cellule en rouge ( = 0.3679) représente le maximum des distances intra classe (ce maximum est choisi uniquement parmi les distances correspondantes aux modèles). - La cellule en bleu ( = 0.4780) représente le minimum des distances interclasses (ce

minimum est choisi uniquement parmi les distances correspondantes aux modèles).

- . Alors, le seuil optimal a pour valeur la moyenne :

Le seuil optimal est 0.4229.

AppCli SeuilCli TestCli

SeuilImp

TestImp

Page 91: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

73  

  Individu 1

Individu 1 0.3679 0.3590 0.3838 0.3875 0.3903 0.3613

Individu 2 0.5247 0.5112 0.5021 0.5122 0.4883 0.5254

Individu 3 0.5768 0.5873 0.5921 0.5778 0.5853 0.5835

Individu 4 0.5404 0.5199 0.5108 0.5383 0.5371 0.5333

Individu 5 0.5010 0.4892 0.4994 0.4992 0.4780 0.5055

Individu 6 0.6524 0.6418 0.6385 0.6330 0.6382 0.6238

Tableau V.2 : Distances calculées lors de l’opération de calcul du seuil optimal.

Le tableau VI.3 montre les étapes de calcul des taux FAR et FRR de l’individu 1(client) parmi les cinq autres individus (imposteurs). - L’échantillon AppCli contient 3 images d’iris. - L’échantillon TestCli contient 2 images d’iris. - L’échantillon TestImp contient 5 images d’iris pour chaque individu. - Une valeur en rouge représente la distance minimale entre une image de l’échantillon TestCli et une image de l’échantillon AppCli. - Une valeur en bleu représente la distance minimale entre une image de l’échantillon TestImp d’un individu et une image de l’échantillon AppCli. - Il n’y a pas de valeurs en rouge supérieures au seuil optimal. Alors, FR = 0. - Il n’y a pas de valeurs en bleu inférieures au seuil optimal. Alors, FA = 0. L’individu 1 est complètement séparé des autres individus (FAR = 0, FRR = 0, TER = 0).

Page 92: HAMITOUCHE_SALMI

CHAPITRE V Conception du système   

74  

  Individu 1 

Individu 1  0.3799 0.3626 0.3581 0.3861 0.3811 0.3648

Individu 2 

0.5508 0.5909 0.5977 0.5054 0.4828 0.5159 0.5110 0.4888 0.5307 0.4707 0.4742 0.4901 0.5193 0.4920 0.5297

Individu 3 

0.5864 0.5861 0.5940 0.5692 0.5742 0.5791 0.5764 0.5733 0.5833 0.5716 0.5760 0.5765 0.5763 0.5800 0.5809

Individu 4 

0.5740 0.5542 0.5542 0.5581 0.5343 0.5015 0.5617 0.5850 0.5646 0.5464 0.5288 0.5248 0.5659 0.5552 0.5369

Individu 5 

0.4816 0.4586 0.5018 0.4838 0.4735 0.4902 0.5022 0.4820 0.4971 0.4974 0.4832 0.4974 0.5158 0.4880 0.5012

Individu 6 

0.7409 0.7343 0.7335 0.6998 0.6844 0.6863 0.6539 0.6507 0.6465 0.6675 0.6649 0.6662 0.6713 0.6742 0.6658

Tableau V.3 : Distances calculées lors de l’opération de calcul des taux FAR et FRR de

l’individu 1. Conclusion : Dans ce chapitre, nous avons présenté l’architecture globale de l’application IrisSystem Tool pour en dégager les principaux modules. Cette structure modulaire est adéquate pour une réalisation dans un langage orienté objet. Après avoir effectué la conception de notre système, nous sommes désormais en mesure d’entamer l’étape d’implémentation de notre application qui fera l’objet du prochain chapitre.  

Page 93: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

75  

Introduction : Après avoir présenté dans le chapitre précédent les différentes étapes nécessaires à la réalisation de notre système, à savoir la conception, nous allons à présent décrire les outils de développement qui ont servi à la mise en œuvre de notre application. L’implémentation du système IrisSystem Tool repose sur deux entités logicielles : un langage orienté objet et un logiciel mathématique pour effectuer des tâches nécessitant beaucoup de calculs notamment celles de traitement des images. 1. Outils de développement : Nous avons eu recours lors de l’élaboration de notre système à deux outils : Microsoft Visual Studio 2005 et Matlab 7.0. 1.1 Microsoft Visual Studio 2005 : C’est un ensemble d’outils de développement performants de Microsoft, qui permet de créer des applications Windows de haut niveau grâce à plusieurs langages de développement, notamment C#. - Un développement robuste qui permet une modification et un débogage efficaces du code source. - Une collection riche de classes et de bibliothèques qui facilitent l’implémentation des différents algorithmes. 1.2 Matlab 7.0.0.19920 (R14) : Matlab et son environnement interactif est un langage de haut niveau qui permet l’exécution de tâches nécessitant une grande puissance de calcul et dont la mise en œuvre sera bien plus simple et rapide qu’avec des langages de programmation traditionnels tels que le C, C++. Il dispose de plusieurs boites à outils en particulier celle du traitement d’images « ImageProcessing ToolBox » qui propose un ensemble d’algorithme et d’outils graphiques de référence pour le traitement, l’analyse, la visualisation et le développement d’algorithmes de traitement d’images.

Page 94: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

76  

2. Structure de données et implémentation : Le système IrisSystem Tool fait appel à plusieurs classes décrites dans le tableau ci-dessous :

Classes Signification et rôle

Normalisation Permet d’effectuer la transformation polaire rectangulaire nécessaire à la standardisation

des images en dimensions.

Identification Permet de déterminer l’identité d’un individu grâce à ses images d’iris.

Vérification Permet de se prononcer sur la véracité d’une identité présumée.

Tests Permet de donner le taux d’identification d’un individu.

Tableau VI.1 : Les différentes classes composant le système IrisSystem Tool.

2.1 Classe Normalisation : Variables : CoordonneesIrisPupille : tableau de 6 entiers devant contenir le résultat de la normalisation. Il s’agit des coordonnées abscisses et ordonnées de l’iris et de la pupille ainsi que leurs rayons. Méthodes : Il y a deux types de méthodes utilisées par cette classe :

Méthode du langage C# : implémentée en C#. Normaliser () : sert à lancer le processus de normalisation en faisant appel à une architecture de procédures Matlab permettant la détection de l’iris et de la pupille ainsi que l’interpolation linéaire de l’image résultante de la détection.

Coordonnées et rayon de l’iris

Image d’iris Coordonnées et rayon de la pupille

Méthodes importées de bibliothèques externes : Elles proviennent du fichier DLL nombibliothèque.dll, elles sont invoquées à l’aide de l’instruction : [DllImport(@"nombibliothèque.dll", EntryPoint = "_Point d’Entrée de la Fonction")].

Il y a deux types de bibliothèques : 1. Bibliothèque interne : créee par l’utilisateur en utilisant Matlab. - _libimageInitialize() : permet d’initialiser la bibliothèque. - _libimageTerminate() : permet de fermer la bibliothèque. - _mlfTest() : permet d’effectuer la normalisation, en faisant appel à plusieurs fonctions

Matlab :

Normaliser

Page 95: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

77  

addcircle() : permet de générer des cercles pour les ajouter (Coordonnées et rayons de l’iris et de la pupille) à l’espace de Hough suivant la transformée de Hough. Entrées :

- h : tableau de 2 dimensions représentant l’espace de Hough. - c : coordonnées du centre d’un cercle. - radius : le rayon du cercle.

Sortie : - h : espace de Hough mis à jour.

adjgamma() : permet d’avoir une carte définissant les parties sombres d’une image dans le but d’ajuster son contraste dans ces zones. Entrées :

- im : image à traiter. - g : valeurs de 0 à 1, g est d’autant plus grand que l’image est sombre, c’est une valeur

au dessus de laquelle le contraste doit être augmenté, si valeurs > 1 alors le contraste est augmenté dans les zones très sombres.

Sortie : - g.

canny() : permet la détection des contours de « canny » dans une image. Entrées :

- im : image à traiter. - sigma : écart type du filtre Gaussien de lissage (généralement égale à 1). - scaling : facteur de réduction de l’image en entrée par : - vert : poids pour les gradients verticaux. - horz : poids pour les gradients horizontaux.

Sorties : - gradient : amplitudes des contours de l’image. - or : orientation de l’image (en degrés de 0 à 180, sens positif des eguilles).

circlecoords() : retourne les coordonnées des pixels d’un cercle défini par son rayon et les coordonnées de son centre. Entrées :

- c : un tableau contenant les coordonnées du centre d’un circle . - r : le rayon du cerle. - imgsize : taille du tableau de l’image sur lequels les coordonnées doivent être

déssinés. - nsides : le cercle est réellement approximé par un polygone, cet argument donne le

nombre de cotés pour son approximation, à défaut il y a 600 cotés. Sorties :

- x : un tableau contenant les abscisses des points contours d’un cercle. - y : un tableau contenant les ordonnées des points contours d’un cercle.

Page 96: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

78  

findcircle() : retourne les coordonnées d’un cercle dans une image en utilisant la transformée de Hough et l’algorithme de détection des contours de Canny pour la création de la carte des contours. Entrées :

- image : l’image contenant des cercles à repérer. - lradius : le rayon le plus petit du cercle à rechercher dans l’image. - uradius : le rayon le plus grand du cercle à rechercher dans l’image. - scaling : facteur d’échelle pour l’accéleration de la transformée de Hough. - sigma : amplitude du lissage Gaussien à appliquer pour la création de la carte des

contours. - hithres : seuil pour la création de la carte des contours. - lowthres : seuil pour la connexion des contours. - vert : indice de contribution du contours vertical (0-1). - horz : indice de contribution du contours horizontal (0-1).

Sorties : - circleiris : coordonnées du centre et le rayon des limites de l’iris détecté. - circlepupil : coordonnées du centre et le rayon des limites de l’iris détecté. - imagewithnoise : image originale de l’œil, avec la localisation du bruit marqué par la

valeur NaN. findline() : retourne les coordonnées d’une ligne recherché dans une image en utilisant la transformée de Hough linéaire et l’algorithme de détection des contours de Canny pour la création de la carte des contours. Entrée :

- image : l’image en entrée. Sortie :

- lines : paramètres de la ligne détectée en coordonnées polaires. houghcircle() : prend la carte des contours d’une image et exécute la transformée de Hough pour la détection des cercles dans une image. Entrée :

- edgeim : la carte des contours d’une image à traiter. - rmin, rmax : les valeurs minimales et maximales des rayons des cercles à rechercher.

Sortie : - h : la transformée de Hough.

hysthresh() : fonction de seuillage de l’image. Entrées :

- im : image sur laquelle le seuillage est effectué. - T1 : la valeur la plus élevée du seuil. - T2 : la valeur la plus basse du seuil.

Sortie : - bw : image ayant subie l’opération de seuillage (contenant les valeurs 0 ou 1).

Page 97: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

79  

linecoords() : retourne les coordonnées x et y des positions le long d’une ligne. Entrées :

- lines : un tableau contenant les paramètres d’une ligne. - imsize : taille de l’image, elle est nécessaire afin que les coordonnées x et y soient à

l’intérieur de l’image des limites. Sorties :

- x : les abscisses. - y : leurs ordonnées correspondantes.

normaliseiris() : exécute la normalisation de la région d’iris en transformant les pixels choisis d’une représentation circulaire vers une représentation en bloc rectangulaire de dimensions constantes. Entrées :

- image : l’image d’iris en entrée dont les informations sur la région d’iris doivent être extraites.

- x_iris : les abscisses des contours du cercle de l’iris. - y_iris : les ordonnées des contours du cercle de l’iris. - r_iris : le rayon du cercle de l’iris. - x_pupil : les abscisses des contours du cercle de la pupille. - y_pupil : les ordonnées des contours du cercle de la pupille. - r_pupil : le rayon du cercle de la pupille. - eyeimage_filename : le nom initial de l’image de l’oeil en entrée - radpixels : la résolution radiale qui fixe la dimension verticale de la représentation

normalisée. - angulardiv : résolution angulaire qui fixe la dimension horizontale de la

représentation normalisée. Sorties :

- polar_array : un tableau de 2 dimensions représentant la forme normalisée de l’iris. - polar_noise : le masque de bruit correspondant à l’image d’iris en entrée.

segmentiris() : exécute une segmentation automatique de la région de l’iris à partir de l’image d’iris en entrée. Elle permet aussi d’isoler les zones touchées par le bruit telles que les cils ou les paupières. Entrée :

- eyeimage : l’image d’iris en entrée. Sorties :

- circleiris : le rayon et les coordonnées de l’iris détecté. - circlepupil : le rayon et les coordonnées de la pupille détectée. - imagewithnoise : l’image d’iris initiale dont les zones de bruit sont marquées par la

valeur NaN. test() : fonction permettant à partir d’une image d’iris : segmenter celle-ci (détecter les coordonnées des centres d’iris et des pupilles ainsi que leur rayons) et lancer le processus de normalisation (passage d’une représentation cartésienne à une représentation polaire rectangulaire).

Page 98: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

80  

Entrée : - im : image d’iris en entrée.

Sortie : - vec : coordonnées des centres d’iris et des pupilles ainsi que les rayons.

Figure VI.1 : Aperçu de l’interconnexion entre les sous modules de segmentation et de normalisation.

2. Bibliothèque externe : ce sont des méthodes importées du système. - mclInitializeApplication() : permet d’initialiser le mcr. - mclTerminateApplication() : permet de terminer le mcr. - mxGetPr() : permet d’obtenir la partie réelle d’une variable non amangée. - mxGetPi() : permet d’obtenir la partie imaginaire d’une variable non amangée. - mxCreateString() : permet d’obtenir une variable non managée contenant la chaine de

caractères données en entrée. - mxCreateDoubleScalar() : permet de créer une variable non managée contenant une

valeur double donnée en entrée.

circlecoords segmentiris

linecoords

findcircle

houghcircle

findline

nonmaxsup

addcircle

adjgamma

hysthresh

canny

test normaliseiris

Page 99: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

81  

- mxCreateDoubleMatrix() : permet de créer une variable non managée pointant sur une structure de tableau de valeurs doubles dont le nombre de lignes, de colonnes sont données en entrée. La compléxité des valeurs est également données en entrée.

- mxDestroyArray() : permet de détruire la variable non managée dont la valeurs du pointeur est données en entrée.

2.2 Classe ClasseId : Méthodes :

Méthode du langage C# : Identifier () : sert à lancer le processus d’identification en faisant appel à une architecture de procédures Matlab permettant le calcul du modèle des individus ainsi que les distances entre le vecteur biométrique (gabarit) de l’iris recherché et les modèles des individu (et ce selon les valeurs des paramètres pertinents du système). Le processus d’identification s’effectue sur l’image sélectionnée.

nomImageIris segl segc technique numeroIndividu apprentissage distance modele numerobase

Méthodes importées de bibliothèques externes : 1. Bibliothèque interne : créee par l’utilisateur en utilisant Matlab. - _libidentificationInitialize() : permet d’initialiser la bibliothèque. - _libidentificationTerminate() : permet de fermer la bibliothèque. - _mlfIdentificationindividu() : permet de déterminer l’identité d’un individu, en faisant

appel à plusieurs fonction Matlab :

convert() : permet de transformer une chaine de caractères composée uniquement de chiffres en un nombre décimal. Entrées :

- chaine : chaine à convertir. Sorties :

- nb : nombre résultant de la chaine. valid() : permet de marquer tous les échantillons de tous les individu comme réservés à l’identification ou à la vérification. Entrées :

 

 

Identifier

Page 100: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

82  

- base : base d’images d’iris. Sorties :

- Validation : structure de taille égale au nombre d’individus, et oiu dans chaque élément les champs correspondant aux images d’iris sont mentionnés « réservés au test ».

Fonctionnement : - Parcourir l’ensemble des individus et pour chacun faire : - Parcourir l’ensemble des images de l’individu et mettre à 1 les champs leur correspondant. generer() : permet de marquer un certain pourcentage des images de chaque individu comme réservés à l’apprentissage. Entrées :

- validation : structure initiale après validation de la base. - apprentissage : taux d’images réservées à l’opération d’apprentissage.

Sorties : - validation : structure mise à jour.

Fonctionnement : - Parcourir l’ensemble des individus et pour chacun faire: - Générer un pourcentage égal à celui de l’apprentissage de numéros aléatoires entre 1 et le nb (nombre d’images de l’individu). - Mettre les champs dont les positions correspondent aux numéros générés à 0. apprentissage() : permet d’effectuer l’opération d’apprentissage selon deux type de modèle : le modèle moyen et le modèle intégral. Cette opération aboutit à la construction du représentant de chaque individu. Dans le cas du modèle intégral, cette opération s’effectuera pendant l’opération d’identification. Entrées :

- base : base d’images d’iris. - validation : la structure inquant les images réservées au test et celles réservées à

l’apprentissage. - modele : type de modèle à construire.

Sortie : - classes : structure contenant pour chaque individu un vecteur représentatif.

Fonctionnement : - Si le type du modèle est moyen alors: - Parcourir l’ensemble des individu et pour chacun faire: - Faire la somme des vecteurs réservés à l’apprentissage. - Si le type du modèle est intégral alors: - Récupérer les vecteurs réservés à l’apprentissage et ce pour chaque individu. identification() : permet d’effectuer l’identification d’un individu. Entrées :

- classes : l’ensemble des modèles des individus. - nomiris : nom de l’image d’iris à identifier.

Page 101: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

83  

- type : type de distance à utiliser. - tabseg : tableau indiquant le niveau de segmentation ligne et colonne.

Sorties : - num : numero de l’individu trouvé.

Fonctionnement : - Parcourir l’ensemble des individus de la base et pour chacun faire: - Calculer les distances selon le type de celle-ci entre le vecteur à identifier et l’échantillon réservé pour l’apprentissage pour chaque individu. - Sélectionner la distance minimale des distances calculées pour chaque individu. - Récupérer le numéro de l’individu correspondant à la distance minimale de l’ensemble des distances minimales trouvées. distances() : permet de calculer la distance entre deux vecteurs biométriques. Entrées :

- vect1 : le vecteur à identifier. - vect2 : le second vecteur.

Sorties : - dis : distance entre les vecteurs en entrée.

Fonctionnement : - Récupérer les indices correspondants aus valeurs non définies dans le vecteur vect1 et mettre les valeurs qui y correspondent à 0 (à cause du bruit, des valeurs ne sont pas définie). - Mettre les valeurs correspondantes aux indices trouvés ainsi que les valeurs non définies dans le vecteur vect2 à 0. - Calculer le nombre de valeurs non nulles n dans le vecteur vect2. - Calculer le vecteur vect égale à (vect1 - vect2)² s’il s’agit de la distance de Mahalanobis ou le vecteur abs(vect1 - vect2) s’il s’agit de la distance D (abs signifie valeurs absolue). - Diviser le vecteur vect par le nombre de valeurs non nulles dans le vecteur vect2: n. plus() : permet de calculer la somme entre deux vecteurs biométriques. Elle est nécessaire car les valeurs dans un vecteur ne sont pas toutes définies à cause du bruit. Entrées :

- vect1 : le premier vecteur. - vect2 : le second vecteur.

Sorties : - vect : vecteur résultant de la somme de vect1 et vect2.

Fonctionnement : - Ranger la somme des valeurs de même position dans un vecteur à la position correspondante aux deux valeurs. - Si l’une des deux valeurs est non définie alors le resultat de la somme sera la valeur définie. - Si aucune des deux valeurs n’est définie alors mettre une valeur NaN à la position correspondante aux deux valeurs.

Page 102: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

84  

Figure VI.2 : Aperçu de l’interconnexion entre les sous modules de IdentificationIndividu.

2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de segmentation et de normalisation.

2.3 Classe ClasseVe : Méthodes :

Méthode du langage C# : Verifier () : sert à lancer le processus de vérification en faisant appel à une architecture de procédures Matlab permettant le calcul du modèle de l’individu correspondant à l’identité présumée (modèle de référence) ainsi que la distance entre celui-ci et le vecteur biométrique (gabarit) de l’iris à vérifier (cible). nomIrisSource dis numerobase res nomIrisCible seuil

Méthodes importées de bibliothèques externes : 1. Bibliothèque interne : créee par l’utilisateur en utilisant Matlab. - _libidentificationInitialize() : permet d’initialiser la bibliothèque. - _libidentificationTerminate() : permet de fermer la bibliothèque. - _mlfIdentificationindividu() : permet de déterminer l’identité d’un individu, en faisant

appel à plusieurs fonction Matlab : convert() valid() generer()

valid  IdentificationIndividu

apprentissage identification

generer

convert

plus dsitances

 

Vérifier

Page 103: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

85  

apprentissage() distancesVe() : permet de retourner non pas la distance mais le numéro de vecteur correspondant à la distance calculée.

Figure VI.3 : Aperçu de l’interconnexion entre les sous modules de VérificationIndividu.

2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de

segmentation et de normalisation. 2.4 Classe ClasseTo : Méthodes :

Méthode du langage C# : TauxIndividu () : sert à lancer le processus d’identification en faisant appel à une architecture de procédures Matlab permettant le calcul du modèle des individus ainsi que les distances entre le vecteur biométrique (gabarit) de l’iris recherché et les modèles des individu (et ce selon les valeurs des paramètres pertinents du système). Le processus d’identification s’effectue sur l’ensemble de l’échantillon Test de l’individu sélectionné.

nomImageIris segl nbsucces segc technique apprentissage distance nbtest modele numerobase

Méthodes importées de bibliothèques externes : 1. Bibliothèque interne : créer par l’utilisateur en utilisant Matlab : - _libtauxInitialize() : permet d’initialiser la bibliothèque. - _libtauxTerminate() : permet de fermer la bibliothèque. - _mlfTauxIndividu() : permet de déterminer le taux d’identification d’un individu, en

faisant appel à plusieurs fonctions Matlab :

valid  VerificationIndividu

apprentissage distancesVe

generer

convert

 

 

TauxIndividu

Page 104: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

86  

convert() valid() generer() recuperer() : permet de récupérer l’échantillon Test selon la distribution aléatoire de validation. Entrées :

- validation : structure initiale après répartition des échantillons Apprentissage et Test. - base : base des gabarits biométriques.

Sorties : - ech : échantillon Test.

apprentissage() identification() distances() plus()

Figure VI.4 : Aperçu de l’interconnexion entre les sous modules de TauxIndividu.

2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de segmentation et de normalisation.

 

3. Présentation de l’application : On présente dans cette section les différents aspects de l’application IrisSystem Tool. 3.1 Interface Présentation : C’est une interface destinée aux utilisateurs, elle est simple et permet d’illustrer les principaux processus de ce système (détection de l’iris et de la pupille, normalisation, identification, vérification et calcul du taux d’identification). Ces opérations ne peuvent s’effectuer que sur deux bases : CASIA V1.0 et CASIA-IrisV3-Interval.

valid  TauxIndividu

apprentissage identification

generer

convert

plus dsitances convert

Page 105: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

87  

Figure VI.5 : Interface Présentation.

Il s’agit du bouton avec lequel une base des images d’iris doit être chargée. Une fois ce bouton cliqué et la base sélectionnée, celle-ci sera détaillée dans l’espace librairie (le nombre d’individus ainsi que le nombre d’images d’iris par individu).

Il s’agit du bouton avec lequel une image d’iris peut être chargée sans passer par

1

1 2 3 4 5 6 7 8 18

9 10 11 12

15

13 14

17 16

2

Page 106: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

88  

le chargement intégral de la base. Une fois ce bouton cliqué, le processus de détection des contours de l’iris et de la pupille sera lancé. L’mage qui sera affichée

dans la partie « Source » est une image dont les contours de l’iris et de la pupille sont en blanc. La forme normalisée et le masque de bruit lui correspondant ainsi que les coordonnées de l’iris et de la pupille seront également affichés.

Il s’agit du bouton avec lequel l’identification d’une image d’iris est lancée. Il s’agit du bouton avec lequel la vérification entre deux images d’iris est lancée.

Il s’agit du bouton avec lequel l’identification d’un échantillon Test d’un individu est lancée. Le résultat s’affichera dans une boite de dialogue. Il s’agit du bouton avec lequel les informations sur les opérations d’identification effectuées au cours de l’exécution sont affichées. Il s’agit du bouton avec lequel les informations sur les opérations de vérification effectuées au cours de l’exécution sont affichées. Il s’agit du bouton avec lequel des informations sur le système sont affichées. Espace contenant les détails de la librairie des images d’iris. Espace contenant les statistiques de la base sélectionnée. Espace réservé aux paramètres pertinents du système. Espace contenant l’image de référence (source) ainsi que l’image normalisée de son iris et le masque de bruit. Affichage du nom de la librairie chargée. Retour aux paramètres par défaut automatiquement. Espace contenant l’image cible ainsi que l’image normalisée de son iris et le masque de bruit.

3

4

5

6

7

8

9

10

11

12

13

14

15

Page 107: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

89  

Il s’agit du bouton avec lequel une image d’iris peut être chargée dans la zone cible.

Affichage du constat de la dernière vérification effectuée

Fermer

16

17

18

Page 108: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

90  

3.2 Interface Chargement et Normalisation : Après chargement de la base CASIA-IrisV3-Interval, les détails de celle-ci en nombre d’individus et en genre seront affichés. L’utilisateur peut parcourir l’ensemble des images d’individus et sélectionner l’une d’elles pour l’affichage. Celle-ci est donc affichée dans la zone source ainsi que la forme normalisée de l’iris et son masque de bruit.

Figure VI.6 : Interface Chargement et Normalisation.

Page 109: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

91  

3.3 Interface Identification : Une fois l’une des images d’un individu est sélectionnée, le processus d’identification de cet individu peut être relancé. Le résultat d’identification est affiché dans la zone cible. Il s’agit de la première image d’une des deux sessions de la classe à laquelle l’image à identifier a été affectée.

Figure VI.7 : Interface Identification.

Page 110: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

92  

3.4 Interface Vérification : La vérification peut s’effectuer lorsque deux images distinctes appartenant ou pas au même individu sont sélectionnées (affichées). L’image affichée dans la zone source servira à construire le modèle de l’individu lui correspondant (image référence). Le résultat de la distance entre le modèle construit et le gabarit biométrique de l’image cible sera comparé au seuil de l’individu source. Le résultat de la vérification et ses détails peuvent être affichés grâce au bouton 16.

Figure VI.8 : Interface Vérification.

Page 111: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

93  

Page 112: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

94  

3.5 Interface Statistiques (identification, vérification) : Cette interface permet de donner le résumé des opérations d’identification et de vérification effectuées au cours d’une exécution. Elle peut être nécessaire pour les utilisateurs voulant faire une étude approfondie sur les images d’iris des deux bases. Ainsi, grâce au bouton 3, on peut arriver à un constat sur la stabilité d’identification de l’image sélectionnée pour un certain nombre de tentatives. Contrairement au bouton 5 qui permet d’avoir un constat sur le taux d’identification d’un individu dont les images de test ne sont identifiées qu’une seule fois. Enfin, le bouton 4 rend compte sur les mauvaises opérations de vérification.

Figure VI.9 : Interface Statistiques.

Page 113: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

95  

Page 114: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

96  

3.6 Interface Taux d’identification : Cette interface permet d’avoir une moyenne globale des taux d’identification d’un individu sur plusieurs tentatives.

Figure VI.10 : Interface Taux d’identification.

Page 115: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

97  

4. Avantages et inconvénients du système : Dans ce chapitre, nous avons détaillé l’implémentation du système IrisSystem Tool en Visual C#, et décrit les différentes interfaces de l’application. Comme tout système biométrique, IrisSystem Tool a été conçu dans le but de se rapprocher du cerveau humain dans sa rapidité, son exactitude et sa fiabilité. En vue de ce qui a été fait dans la conception et la réalisation, on peut dégager plusieurs avantages :

Système très interactif : C’est un système très interactif. En effet, en plus du fait qu’il permet l’identification et la vérification d’individus avec des taux bons, il permet aussi d’effectuer des tests plus avancés sur l’effet du bruit et les dimensions de l’iris et de la pupille sur l’identification et la vérification d’une image ainsi que les taux individuels de reconnaissance. Il permet également d’étudier l’influence du niveau de segmentation, le pourcentage d’apprentissage, le type de modèle ainsi que la distance sur la performance du système en identification.

Système performant : Le système est performant car les taux de reconnaissance (identification et vérification) sont bons.

Interface simple et rapide : C’est une interface que toute personne ayant peu de connaissances sur la biométrie peut utiliser. Un autre avantage : la rapidité des opérations d’identification et de vérification. Néanmoins, ce système présente quelques faiblesses, entre autres :

Processus de normalisation long : Cet inconvénient est dû au type d’algorithme de détection des contours de l’iris et de la pupille basé sur le principe de la transformée de Hough qui a la caractéristique d’être une méthode à calcul massif, d’où la proposition d’une solution de zoom pour la réduction de la durée de cette opération.

Système statique : Ce système ne peut être utilisé que sur deux bases dont les gabarits biométriques ont été préalablement calculés car l’implémentation du module de normalisation y compris celui de détection des contours de l’iris et de la pupille est étroitement liée aux différentes caractéristiques des images d’iris des bases (résolution, luminosité).

Absence d’un système d’acquisition des images : Faute de la disponibilité d’un système d’acquisition, les seules données utilisées par le système proviennent des bases. Cela rend les opérations d’identification et de vérification de simples simulations.

Liaison du système à l’environnement : L’emplacement des données biométriques utilisées par le système le rend dépendant de l’environnement dans lequel le système s’exécute.

Page 116: HAMITOUCHE_SALMI

CHAPITRE VI Implémentation et réalisation du système   

98  

Conclusion : Ce chapitre a été consacré en premier lieu à la présentation des structures de données ainsi que l’implémentation du système. Ensuite, nous avons décrit les différentes fonctionnalités du système par le biais de ses différentes interfaces graphiques. Enfin, nous avons détaillé les avantages et les inconvénients de ce système. Dans le chapitre suivant, nous allons tester le système dans son environnement afin d’évaluer ses performances pour en déduire les paramètres optimaux qui garantissent une meilleure efficacité du système.  

Page 117: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

99  

Introduction : Une fois le système conçu, tout en respectant les conditions de son fonctionnement, il doit subir de nombreux tests touchant à plusieurs aspects (temps de latence, espace réservé, performances, valeurs idéales des paramètres pertinents…), et ce dans le but d’aboutir à un système fiable, performant et efficace. Dans le domaine de reconnaissance par iris, plusieurs bases de données des images d’iris standards sont utilisées, les plus courantes sont les bases de données CASIA (en plusieurs versions) et UBIRIS. Les bases sur lesquelles nous avons effectué nos tests sont : CASIA V1.0 et CASIA-IrisV3-Interval. La clarté des textures de leurs images d’iris est le principal motif de notre choix. 1. Présentation des bases d’images : La reconnaissance par iris a été un sujet de recherche actif de l'Institut d'Automatisation de l'Académie Chinoise de Sciences (CASIA) [1]. Afin de pallier le manque des images d'iris pour le test d’algorithmes, la base de données CASIA a été développée. En plus du fait qu’elle est la plus ancienne, cette base est la plus connue, elle est largement utilisée par la majorité des chercheurs. Elle présente peu de défauts (images prises sous lumière proche infrarouge, pas de reflet sur l’image, etc.) et des caractéristiques très proches et homogènes. CASIA-IrisV3 inclut trois bases nommées CASIA-IrisV3-Interval, CASIA-IrisV3-Lamp et CASIA-IrisV3-Twins. CASIA-IrisV3 contient un total de 22051 images d'iris prises à partir de plus de 700 individus. Toutes les images d'iris sont au format JPEG Gray-level 8 bits, Presque tous les individus sont chinois sauf quelques-uns de la base CASIA-IrisV3-Interval. 1.1 Base de données CASIA V1.0 : Les images d'iris de CASIA V1.0 ont été capturées à l'aide d'un appareil photo très puissant. Elle contient 756 images d'iris correspondant à 108 individus, ces images ont été prises sous lumière proche infrarouge, avec une résolution de 320 x 280 pixels. Ces images sont de très bonne qualité avec des détails de texture d’iris très clairs. Chaque individu contient 7 images d’iris réparties en deux sessions : 3 images pour la première session et 4 pour la deuxième session. 1.2 Base de données CASIA-IrisV3-Interval : CASIA-IrisV3-Interval est une extension de CASIA V1.0, elle a été utilisée et recommandée par plus de 1500 chercheurs et groupes de recherches de 70 pays (Juin 2006). CASIA-IrisV3-Interval contient 2655 images d’iris correspondant à 249 individus, ces images ont été prises dans les mêmes conditions que CASIA V1.0, avec une résolution de 320 x 280 pixels.

Figure VII.1 : Exemples d’images d’iris de la base de données CASIA.

Page 118: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

100  

Caractéristiques CASIA V1.0 CASIA-IrisV3-Interval

Capteur Interne Interne Environnement Interne Interne

Session deux La plupart des images ont été

capturées en 2 sessions, avec au moins un mois d’intervalle

Nombre de personnes 108 249

Nombre de classes 216 396 Nombre d’images 756 2655

Résolution 320 x 280 320 x 280

Caractéristiques Très bonne qualité d’images avec des détails de texture d’iris clairs

Très bonne qualité d’images avec des détails de texture d’iris clairs

Tableau VII.1 : Statistiques de CASIA V1.0 et CASIA-IrisV3-Interval.

2. Tests : Le système est testé de manière à ce que l’impact de chaque paramètre pertinent sur les résultats soit évalué. Ceci permet de fixer les valeurs idéales de ces paramètres pour un meilleur rendement du système. 2.1 Paramètres pertinents du système : Plusieurs paramètres susceptibles d’influer les résultats peuvent être cités : - Méthode d’analyse : La méthode employée lors de la phase d’extraction des caractéristiques. Il y en a deux : méthode directe et méthode de filtrage. - Modèle : Il existe deux types de modèles : 1. Modèle moyen: il s’agit du vecteur statistique moyen d’un échantillon. 2. Modèle intégral: il s’agit du vecteur le plus « proche » d’un échantillon. - Type_test : Il existe trois types de test : 1. Sans remise : seuls les individus (Testimp) non utilisées lors du calcul du seuil sont présentés pour l’opération de vérification. 2. Avec remise totale : l’ensemble des images d’imposteurs présentées pour le test de vérification est constitué uniquement de celles des imposteurs utilisées lors de l’estimation du seuil. Autrement dit, l’individu intervient dans le calcul du seuil et dans le test de vérification. On partage ces images en deux groupes disjoints : l’un pour le seuil et l’autre pour le test de vérification. 3. Avec remise partielle : c’est une combinaison des deux premiers types. En effet, les images des imposteurs ayant participé au calcul du seuil et d’autres n’y ayant pas participé sont présentées pour le test de vérification.

Page 119: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

101  

A noter que le type de test affecte les fausses acceptations et non pas les faux rejets. - Distance :

La distance utilisée est

- SegL, SegC : Le niveau de segmentation en ligne et en colonne de l’image normalisée. - Napp : Le pourcentage du nombre d’images par individu utilisées lors de la phase d’apprentissage pour le calcul des taux d’identification, ce paramètre peut grandement influer les résultats notamment ceux de l’identification. - AppCli : Le pourcentage du nombre d’images de l’échantillon Client réservées à l’apprentissage. - SeuilCli : Le pourcentage du nombre d’images de l’échantillon Client réservées au calcul du seuil. - TestCli : Le pourcentage du nombre d’images de l’échantillon Client réservées au test de vérification. - Seuilimp : Le pourcentage du nombre d’images des échantillons Imposteurs réservées au calcul du seuil. - Testimp : Le pourcentage du nombre d’images des échantillons Imposteurs réservées au test de vérification. - Priorité P : La priorité du faux rejet pour la détermination du seuil. - Fréquence : La fréquence centrale du filtre de Gabor. - Nombre a : Le nombre d’échelles utilisées lors du filtrage. - Tol : Le pourcentage de bruit toléré pour qu’une zone de texture soit valide.

Page 120: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

102  

Les paramètres par défaut sont fixés comme suit :

Paramètres CASIA V1.0 CASIA-IrisV3-Interval

Méthodes d’analyse Méthode de filtrage Méthode de filtrage Modèle Intégral Intégral

Type_test Sans remise Sans remise Distance D D

SegL 3 3 SegC 24 8 Napp 2/7 40%

AppCli 2/7 Variable SeuilCli 2/7 Variable TestCli 3/7 Variable

SeuilImp 2/7 40% TestImp 5/7 60%

P 0,5 0,5

1/18 1/18 a 1 1

Tol 40% 40%

Tableau VII.2 : Valeurs par défaut des paramètres pertinents du système. 2.2 Taux d’identification (performances en identification) : Ces taux d’identification correspondent au taux calculés en utilisant les valeurs par défaut des paramètres pertinents du système.

Méthode d’analyse Méthode directe Méthode de filtrage CASIA V1.0 84.07 94.62

CASIA-IrisV3-Interval 76.70 91.21

Tableau VII.3 : Taux d’identification des deux techniques de codage. Ce tableau montre l’efficacité de l’utilisation de la méthode de filtrage par rapport à la méthode directe. Ceci s’explique par le fait que la méthode de filtrage n’utilise que l’information utile (information discriminante). Les résultats de la base CASIA V1.0 sont mieux que ceux de la base CASIA-IrisV3-Interval. Ceci est dû au fait que la base CASIA-IrisV3-Interval est plus volumineuse que la base CASIA V1.0 (plus le nombre de tests augmente, plus le taux d’erreurs risque d’être grand).

Page 121: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

103  

2.2.1 Evolution du taux d’identification suivant le nombre d’images (Napp) et le taux d’apprentissage (Tapp) utilisés : - Base de données CASIA V1.0 :

Napp 1 2 3 4 5 6 Méthode directe 73.60 84.07 88.88 89.81 90.27 90.74

Méthode de filtrage 89.66 94.62 97.33 98.76 98.45 99,07

Tableau VII.4 : Evolution du taux d’identification suivant le nombre d’images (Napp).

Figure VII.2 : Evolution du taux d’identification suivant le nombre d’images (Napp) utilisées. Le taux d’identification évolue en fonction du nombre d’images (Napp) utilisées pour l’apprentissage, plus ce nombre augmente, plus le taux d’identification augmente. A noter qu’à partir d’un nombre de 3 images, le taux d’identification n’augmente que de peu. - Base de données CASIA-IrisV3-Interval :

Tapp 30 40 50 60 70 80 Méthode directe 69.21 76.34 80.78 81.87 83.97 84.14

Méthode de filtrage 86.26 91.21 94.30 94.48 94.87 95,32

Tableau VII.5 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp).

Page 122: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

104  

Figure VII.3 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp) utilisé. Le taux d’identification évolue en fonction du taux d’apprentissage utilisé (Tapp), plus ce taux augmente, plus le taux d’identification augmente. A noter qu’à partir d’un taux d’apprentissage de 50%, le taux d’identification n’augmente que de peu. 2.2.2 Evolution du taux d’identification suivant les catégories d’individus : L’intérêt d’une telle étude est d’arriver à comprendre l’impact du nombre d’images par individu sur le taux d’identification. On distingue quatre catégories d’individus en fonction du nombre d’images par individu : - Catégorie 1 : échantillon de 1 à 3 images. - Catégorie 2 : échantillon de 4 à 9 images. - Catégorie 3 : échantillon de 10 à 20 images. - Catégorie 4 : échantillon supérieur à 20 images. Les résultats sont illustrés selon les valeurs par défaut des paramètres du système. Cette étude ne concerne que la base CASIA-IrisV3-Interval dont le nombre d’images par individu est variable.

Catégories Catégorie 1 Catégorie 2 Catégorie 3  Catégorie 4Fréquence  19/249 104/249 120/249  6/249

Méthode directe 41.38 75.12 76.09  76.45Méthode de filtrage  72.41 90.05 91.83  96,74

Tableau VII.6 : Evolution du taux d’identification suivant les catégories d’individus.

Page 123: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

105  

Figure VII.4 : Evolution du taux d’identification suivant les catégories d’individus. Le taux d’identification évolue en fonction du nombre d’images par individu, plus ce nombre augmente, plus le taux d’identification augmente. A noter qu’à partir d’un nombre de 4 images par individu, le taux d’identification devient satisfaisant et n’augmente que de peu lorsque le nombre d’images augmente. Le taux d’identification est meilleur lorsque le nombre d’images par individu est supérieur à 20. 2.2.3 Evolution du taux d’identification suivant le niveau de segmentation : Cette étude est très importante car elle permet d’avoir une idée précise quant à l’impact de la segmentation sur les résultats d’identification. Elle permet, en effet, de connaître à quel niveau de segmentation, les critères statistiques calculés sur différents niveaux de segmentation caractérisent la texture de l’iris de manière à discriminer les individus entre eux.

Page 124: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

106  

- Base de données CASIA V1.0 :

SegL - SegC Méthode directe Méthode de filtrage 1 - 2 25.00 13.33

1 - 4 35.74 23.33 1 - 8 58.70 45.55 2 - 1 15.74 11.29 2 - 2 25.37 13.70 2 - 4 41.48 21.48 2 - 8 76.11 62.77 2 - 10 77.59 74.44 2 - 12 80.56 75.92 2 - 16 83.88 88.33 3 - 8 84.07 78.14 3 - 10 - 78.51 3 - 12 - 88.51 3 - 16 - 95.18 3 - 24 - 94.62

Tableau VII.7 : Evolution du taux d’identification suivant le niveau de segmentation.

Figure VII.5 : Evolution du taux d’identification suivant le niveau de segmentation.

On déduit de ce tableau qu’il y a une relation proportionnelle entre le niveau de segmentation et les résultats d’identification, plus on augmente la segmentation, plus les taux d’identification sont meilleurs. On remarque que pour la méthode de filtrage, la segmentation au-delà d’un certain seuil pourrait créer des gabarits très proches (similaires) pour des iris

Page 125: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

107  

différents, ce qui conduit à une diminution des bonnes performances. Les résultats de la méthode directe sont mieux que celle de la méthode de filtrage. La méthode directe est plus performante que celle de filtrage, mais nécessite un temps de création de gabarits considérable (ne permet pas d’aller au delà d’une segmentation 3 - 8 car une telle opération sera très longue). - Base de données CASIA-IrisV3-Interval :

SegL - SegC Méthode directe Méthode de filtrage 1 - 2 18.28 09.08

1 - 4 29.51 17.20 1 - 8 53.58 37.22 2 - 1 17.32 06.27 2 - 2 20.19 07.29 2 - 4 32.80 15.83 2 - 8 68.16 63.98 2 - 10 69.59 70.79 2 - 12 72.34 78.20 2 - 16 75.94 83.39 3 - 8 76.70 73.42 3 - 10 - 82.32 3 - 12 - 83.99 3 - 16 - 87.34 3 - 24 - 91,04

Tableau VII.8 : Evolution du taux d’identification suivant le niveau de segmentation.

Figure VII.6 : Evolution du taux d’identification suivant le niveau de segmentation.

Page 126: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

108  

Même constatation que pour la base de données CASIA V1.0, il ya une relation proportionnelle entre le niveau de segmentation et les taux d’identification. A noter que pour cette base, le taux d’identification augmente toujours en fonction du niveau de segmentation même si celui-ci atteint son maximum, cela est dû au fait qu’il y a plus de diversité en gabarits (le nombre de personnes de la base CASIA-IrisV3-Interval est supérieur au double du nombre de personnes que contient la base CASIA V1.0). 2.2.4 Evolution du taux d’identification suivant la distance utilisée : - Base de données CASIA V1.0 :

Distance Distance de Mahalanobis Distance D Méthode directe 69.81 84.07

Méthode de filtrage 89.62 94,62

Tableau VII.9 : Evolution du taux d’identification suivant la distance utilisée. - Base de données CASIA-IrisV3-Interval :

Distance Distance de Mahalanobis Distance D Méthode directe 60.75 76.70

Méthode de filtrage 82.61 91.04

Tableau VII.10 : Evolution du taux d’identification suivant la distance utilisée.

On remarque à travers ces résultats que les taux d’identification obtenus sont mieux en utilisant la distance D qu’en utilisant la distance de Mahalanobis et ce quelque soit la base de données et la méthode d’analyse utilisées. 2.2.5 Evolution du taux d’identification suivant le type de modèle utilisé : - Base de données CASIA V1.0 :

Modèle Modèle moyen Modèle intégral Méthode directe 20.37 84.07

Méthode de filtrage 84.25 94.62

Tableau VII.11 : Evolution du taux d’identification suivant le type de modèle utilisé.

- Base de données CASIA-IrisV3-Interval :

Modèle Modèle moyen Modèle intégral Méthode directe 10.81 76.70

Méthode de filtrage 20.37 84.07

Tableau VII.12 : Evolution du taux d’identification suivant le type de modèle utilisé.

Page 127: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

109  

Il est clair que le modèle intégral est mieux que le modèle moyen car les résultats obtenus en utilisant le modèle moyen sont médiocres, contrairement aux résultats obtenus en utilisant le modèle intégral, et ce quelque soit la base de donnée et la méthode d’analyse utilisées. 2.3 Distributions des distances intra classe et interclasses : Les distances entre vecteurs caractéristiques d’un même individu sont appelées distances intra classes et les distances entre vecteurs caractéristiques d’individus différents sont appelées distances interclasses. Statistiquement, il n’y a que peu de corrélations entre les codes (gabarits biométriques) d’individus distincts, la distance interclasses devrait donc être plus grande que la distance intra classe. Les distances intra classes ne peuvent pas être nulles, car les conditions de prise d’images d’iris ainsi que les erreurs de détection de la pupille et de l’iris entraînent des variations au niveau local. Empiriquement, cette propriété se traduit par l’observation de deux distributions de distances avec un faible chevauchement. Ce chevauchement des deux courbes interclasses et intra classes est problématique. En effet, si l’identification se fait en utilisant un seuil pour la distance utilisée certaines personnes rentreront sans être autorisées et d’autres seront privées d’accès bien qu’ils aient le droit. Les figures suivantes illustrent les performances en identification du système. Les zones de chevauchements sont différentes en fonction de la technique de codage et de la base utilisée. Pour la même base utilisée CASIA V1.0, la technique de filtrage est meilleure car la zone de chevauchement est plus petite. La distribution interclasses dans la figure des distributions de la technique directe semble quelque peu étalée (elle varie rapidement en fonction des distances surtout dans la zone de chevauchement) contrairement à la distribution intra classes dans la figure des distributions par technique de filtrage, dont les valeurs des distances interclasses semblent stagner.

Page 128: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

110  

0 200 400 600 800 1000 1200 1400 1600 1800 2000

0

50

100

150

200

250

300

Figure VII.7 : Distributions des distances intra classe et interclasses de la base CASIA V1.0

en utilisant la méthode de filtrage.

0 200 400 600 800 1000 1200 14000

50

100

150

200

250

300

Figure VII.8 : Distributions des distances intra classe et interclasses de la base CASIA V1.0

en utilisant la méthode directe. Le même phénomène est observé dans les distributions interclasses et intra classes de la base CASIA-IrisV3-Interval, la zone de chevauchement est plus grande lorsque la technique directe est utilisée ce qui réduit considérablement les performances en vérification.

Page 129: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

111  

0 200 400 600 800 1000 1200 1400 1600 1800 20000

500

1000

1500

2000

2500

Figure VII.9 : Distributions des distances intra classe et interclasses de la base

CASIA-IrisV3-Interval en utilisant la méthode de filtrage.

0 200 400 600 800 1000 1200 1400 1600 18000

500

1000

1500

Figure VII.10 : Distributions des distances intra classe et interclasses de la base

CASIA-IrisV3-Interval en utilisant la méthode directe.

Page 130: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

112  

2.4 Taux FAR et FRR (Performances en vérification) :

Taux FAR FRR TER CASIA V1.0 1.29 7.75 4.44

CASIA-IrisV3-Interval 3.80 12.27 8.03

Tableau VII.13 : Taux FAR et FRR du système. Les taux FAR et FRR de la base CASIA V1.0 sont plus bas que ceux de la base CASIA-IrisV3-Interval. Ceci est dû au fait que la base CASIA-IrisV3-Interval contient plus d’individus par rapport à la base CASIA V1.0 (il est plus difficile de séparer des échantillons de 249 individus que des échantillons de 108 individus). Au cours de nos tests, nous avons constaté que le nombre de faux rejets FR résultant des opérations de vérification effectuées sur deux images quelconques appartenant à deux sessions différentes du même individu était considérablement élevé par aux FR résultant des opérations de vérifications effectuées sur deux images quelconques appartenant à la même session du même individu. Nous insinuons donc que les sessions d’un même individu peuvent être considérées comme deux classes distinctes. - Evolution des taux FAR et FRR suivant le nombre d’images utilisées pour l’échantillon AppCli et l’échantillon TestCli (CASIA V1.0) : AppCli=2, TestCli=3 AppCli=3, TestCli=2

FAR 1.29 1.34 FRR 7.75 12.17 TER 4.44 6.75

Tableau VII.14 : Taux FAR et FRR avec des taux d’apprentissage et de test différents.

Les taux FAR et FRR sont plus élevés en utilisant des échantillons AppCli=3 et TestCli=2qu’en utilisant des échantillons AppCli=2 et TestCli=3. Cela revient au fait que les images de la base sont touchées par le bruit (l’iris est submergé par les cils et les paupières).

Page 131: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

113  

2.5 Temps d’exécution : Les tests ont été effectués sur un PC doté d’un processeur Core 2 Duo 1.8 GHz, les résultats sont donnés en secondes. 2.5.1 Estimation du temps d’exécution en fonction du zoom de la phase de segmentation et de normalisation :

Zoom 50% 75% 100% CASIA V1.0 3.86 11.66 34.09

CASIA-IrisV3-Interval 4 15.20 40 Tableau VII.15 : Temps d’exécution en fonction du zoom de la phase de segmentation et de

normalisation.

Ce tableau montre que la phase de segmentation et de normalisation est très longue. Cela nous conduit à introduire le paramètre zoom afin de pallier à cet inconvénient. En effet, le taux d’exécution est considérablement réduit pour un zoom de 75% ou de 50%. 2.5.2 Estimation du temps d’exécution de la phase de filtrage et celle d’extraction des caractéristiques :

Phases Filtrage Extraction des caractéristiques Filtrage Directe

CASIA V1.0 0.252 0.057 308.92 CASIA-IrisV3-Interval 0.306 0.057 317.37

Tableau VII.16 : Temps d’exécution de la phase de filtrage et celle d’extraction des

caractéristiques.

L’opération de filtrage est relativement courte, et ce pour les deux bases. La durée de l’opération d’extraction des caractéristiques en utilisant la méthode de filtrage est très petite, contrairement à la méthode directe dont la durée est très grande (c’est l’inconvénient majeur de cette méthode). 2.5.3 Estimation du temps d’exécution de la phase de vérification :

Phase  Vérification CASIA V1.0 0.884

CASIA-IrisV3-Interval 1.45

Tableau VII.17 : Temps d’exécution de la phase de vérification. La durée de la phase de vérification reste acceptable pour les deux bases CASIA V1.0 et CASIA-IrisV3-Interval.

Page 132: HAMITOUCHE_SALMI

CHAPITRE VII Tests et résultats   

114  

2.5.4 Estimation du temps d’exécution de la phase d’identification :

Phase Identification

Méthode de filtrage Méthode directe Intégral Moyen Intégral Moyen

CASIA V1.0 0.669 0.705 0.547  0.539CASIA-IrisV3-Interval  2.39 2.064 1.90  1.73

Tableau VII.18 : Temps d’exécution de la phase d’identification.

La durée de la phase d’identification pour la base CASIA V1.0 est petite par rapport à celle de CASIA-IrisV3-Interval, et ce quelque soit la méthode et le modèle utilisés. Cela est dû au fait que la base CASIA-IrisV3-Interval est plus volumineuse que CASIA V1.0. L’identification en utilisant le modèle intégral dure plus longtemps par rapport au modèle moyen.

 

Page 133: HAMITOUCHE_SALMI

CONCLUSION GENERALE   

115  

L’objectif de notre travail est la réalisation d’un système d’identification biométrique de personnes par reconnaissance de l’iris, permettant d’illustrer le processus d’identification (reconnaissance des individus) et celui de vérification (contrôle d’accès). Deux méthodes d’analyse ont été choisies : la première est l’analyse statistique directe, c'est-à-dire une analyse opérant directement sur l’ensemble des pixels représentant l’image normalisée de l’iris. Cette méthode prend en considération tous les détails d’une image d’iris normalisée, y compris l’information inutile pour un problème tel que la discrimination, d’où la nécessité d’analyse approfondie (méthode de second ordre et d’ordre supérieur). La deuxième méthode découle naturellement de l’inconvénient de la première méthode : le filtrage de l’image normalisée. Ce traitement permettra de ne garder que l’information essentielle pour la discrimination, c'est-à-dire les transitions brusques d’un niveau de gris vers un autre. Les deux bases de données sur lesquelles ont été effectués nos tests sont : CASIA V1.0 et CASIA-IrisV3-Interval. La clarté des textures de leurs images d’iris était le principal motif de notre choix. Plusieurs tests ont été effectués sur ces deux bases pour étudier les paramètres pertinents du système et ressortir les valeurs optimales. Ces tests ont révélé l’efficacité de l’utilisation de la méthode de filtrage par rapport à la méthode directe. Ceci s’explique par le fait que la méthode de filtrage n’utilise que l’information utile (information discriminante). Nous estimons avoir réalisé un système répondant à l’objectif que nous nous sommes fixés au départ, à savoir la mise en œuvre d’un système permettant la reconnaissance d’individus et le contrôle d’accès. Notre système se distingue parfaitement par son interactivité, il permet d’effectuer des tests plus avancés sur l’effet du bruit et les dimensions de l’iris et de la pupille sur l’identification et la vérification d’une image ainsi que les taux individuels de reconnaissance. Il permet également d’étudier l’influence des différents paramètres sur les performances du système. En outre, il présente une interface simple et rapide que toute personne ayant peu de connaissances sur la biométrie peut utiliser. Alors, et en guise de perspectives, une extension de ce travail peut être réalisée en intégrant un système d’acquisition des images pour éviter que ces opérations d’identification et de vérification soient de simples simulations. Une autre amélioration est de rendre ce système dynamique pour qu’il puisse être utilisé sur n’importe quelle base.  

Page 134: HAMITOUCHE_SALMI

116  

Bibliographie

CHAPITRE I : INTRODUCTION A LA BIOMETRIE [1] A. K. Jain, L. Hong, S. Pankanti, « Biometrics : Promising Frontiers for Emerging

Identification Market », Communications of the ACM, pp. 91-98, February 2000. [2] Jean-Luc Dugelay Al., « Recent Advances in Biometric Person Authentication », IEEE

Int. Conf. on Acoustics Speech and Signal Processing (ICASSP), Orlando, Florida, May 2002.

[3] http://www.biometricgroup.com [4] Florent Perronnin, Jean-Luc Dugelay, « Introduction à la biométrie : Authentification des individus par traitement audio-vidéo », Institut Eurocom, Multimedia Communications Department, Revue Traitement du signal, Vol. 19, N° 4, 2002. [5] N. Galy, « Etude d’un système complet de reconnaissance d’empreintes digitales pour

un capteur microsystème à balayage », Thèse de doctorat, Institut National Polytechnique de Grenoble, Avril 2005.

[6] G.O. Williams, « Iris Recognition Technology » , IEEE Aerospace and Electronics

Systems Magazine, Vol. 12, Issue 4, pp. 23 -29, April 1997. [7] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proceeding of the

IEEE, Vol. 85, Issue 9, pp. 1348 -1363, September 1997. [8] A.K. Jain, A. Ross, and S. Pankanti, « A prototype hand geometry-based verification

system », Proc. of 2nd International Conf. on Audio- and Video-based Biometric Person Authentication, pp. 166 171, March 1999.

[9] W. Zhao, R. Chellappa, P.J. Phillips, A. Rosenfeld, « Face recognition : A literature

survey », ACM Computing Surveys (CSUR), Vol. 35, Issue 4, December 2003. [10] W.A. Barrett, « A survey of face recognition algorithms and testing results »,

Conference Record of the Thirty-First Asilomar Conference on Signals, Systems & Computers, pp. 301-305, 1997.

[11] http://www.retina-scan.com/retina_scan_technology.htm [12] http://www.veinid.com

Page 135: HAMITOUCHE_SALMI

117  

[13] S.J. Vaughan-Nichols, « Voice authentication speaks to the marketplace », Computer, Vol. 37, Issue 3, pp. 13-15, March 2004.

[14] B.H. Juang, T. Chen, « The past, present, and future of speech processing », IEEE

Signal Processing Magazine, Vol. 15, Issue 3, pp. 24-48, May 1998. [15] R. Gaines W. Lisowski, S. Press, N. Shapiro, « Authentification by Keystroke Timing : Some Preliminary Results », Rand Report R-256NSF, Rand Corp, 1980. [16] L.L. Lee, T. Berger, E. Aviczer, « Reliable On-Line Human Signature Verification

Systems », IEEE Transactions on PAMI, Vol. 18, N° 6, pp.643-647, June 1996. [17] Lily Lee, « Gait analysis for recognition and classification », Research Abstract of the Artificial Intelligence Laboratory at MIT, Cambridge – Massachusetts, 2002. [18] S. Liu, M. Silveman, « A pratical Guide to Biometric Security Technology », IEEE

Computer Society, IT Pro-Security, Janvier-Février 2001. [19] A. K. Jain, L. Hong, S. Pankanti, « Biometrics : Promising Frontiers for Emerging

Identification Market », Communications of the ACM, pp. 91-98, February 2000. [20] C. Fredouille, J. Mariethoz, C. Jaboulet, J. Hennebert, J.-F. Bonastre, C. Mokbel, F.

Bimbot, « Behavior of a Bayesian Adaptation Method for Incremental Enrollment in Speaker Verification », International Conference on Acoustics, Speech, and Signal Processing, pp. 1197-1200, Istanbul, Turquie, 5-9 Juin 2000.

[21] L. Heck, N. Mirghafori, « On-Line Unsupervised Adaptation in Speaker Verification », International Conference on Spoken Language Processing, Vol. 2, pp. 454-457, Pékin,

Chine, 16-20 Octobre 2000. [22] P. Phillips, H. Hyeonjoon, S. Rizvi, P. Rauss, « The FERET Evaluation Methodology

for Face-Recognition Algorithms », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, N° 10, Octobre 2000.

[23] Jamal Kharroubi, « Etude de Techniques de Classement : Machines à Vecteurs Supports

pour la Vérification Automatique du Locuteur », Ecole Nationale Supérieure des Télécommunications, 2002. [24] A. K. Jain, A. Ross, S. Prabhakar, « An introduction to biometric recognition », http://www.cse.msu.edu [25] P. Landragin, « De la reconnaissance d’empreintes digitales à celle de l’iris de l’œil », Magasine Electronique, N° 132, pp. 3-38, Janvier 2003.

Page 136: HAMITOUCHE_SALMI

118  

CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE [1] R.M. Haralick, « Statistical and structural approaches to textures », Proceedings of the

IEEE, Vol. 67, N° 5, pp. 786-804, May 1979. [2] M. Unser, « Description statistique de la texture », Thèse de docteur es sciences, Ecole

Polytechnique Fédérale de Lausanne, Suisse, 1984. [3] A. Gagalowicz, « Vers un modèle de textures », Thèse de doctorat, Université Pierre et

Marie Curie, Paris V, Mai 1983.

[4] R.W. Conners, C.A. Harlow, « A theoretical comparison of texture algorithms », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 2, N° 3, pp. 204-222, May 1980.

[5] J. Weska, C. Dyer, A. Rosenfeld, « A comparative study of texture measures for terrain

classification », IEEE Transactions on Systems, Man, and Cybernetics, Vol. 6, pp. 269- 285, 1976.

[6] L.S. Davis, S. Johns, J.K. Aggarwal, « Texture analysis using generalized cooccurrence

matrices », Proceedings of the IEEE Conference on Pattern Recognition and Image Processing, Chicago, USA, 1979.

[7] M.M. Galloway, « Texture analysis using gray level run lengths », CGIP 4, pp. 172-

179, 1975. CHAPITRE III : RECONNAISSANCE PAR IRIS [1] Elaine R Berman, « Biochemistry of the Eye », Springer, 1991. [2] John G. Daugman, « High confidence visual recognition of persons by a test of

statististical independence », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 15, N° 11, pp. 1148-1160, November 1993.

[3] Ales Muron, Jaroslav Pospisil, « The human iris structure and its usages », Acta Univ.

Palacky Olomuc. Fac. Rerum Nat. Phys., Vol. 39, pp. 87-95, 2000. [4] A. K. Jain, « Biometric recognition : How do I know who you are ? », Carnegie Mellon

University Distinguished Lecture Series, November 2004. [5] T. Mansfield, G. Kelly, D. Chandler, J. Kane, « Biometric product testing », Final

Report of Centre for Mathematics and Scientific Computing, National Physical Lab., UK, 19 Mars 2001.

Page 137: HAMITOUCHE_SALMI

119  

[6] Brevet US 5016282, ATR COMMUNICATION SYSTEMS, 14 Mai 1991. [7] Brevet WO 98/08439, SENSAR INC., 19 Octobre 1998. [8] Brevet JP 11047117, OKI ELECTRIC, 23 Février 1999. [9] Brevet US 5956122, LITTON SYSTEM, 21 Septembre 1999. [10] Brevet EP 0973122, MEDIA TECHNOLOGY INC., 19 Janvier 2000. [11] Brevet WO 00/62239, IRITECH INC., 19 Octobre 2000. [12] Kwanghyuk Bae, Seungin Noh, Jaihei Kim, « Iris feature extraction using independent

component analysis », Proc. 4th Intl. Conf. on Audio and Video Based Biometric Person Authentication (AVBPA 2003), pp. 838-844, 2003.

[13] Vivekanand Dorairaj, Gamal Fahmy, Natalia Schmid, « Performance evaluation of iris based recognition system implementing pca and ica techniques », Proc. of SPIE

Conf. on Biometric Technology for Human Identification, March 2005. [14] Richard P. Wildes, « Iris recognition : An emerging biometric technology »,

Proceedings of the IEEE, Vol. 85, N° 9, pp. 1348-1363, September 1997. [15] Li Ma, Yunhong Wang, Tieniu Tan, « Iris recognition using circular symmetric filters », Proc. of 16th Intl. Conf. on Pattern Recognition, Vol. 2, pp. 805-808, 2000. [16] Li Ma, Yunhong Wang, Tieniu Tan, « Personal identification based on iris texture

analysis », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25, N° 12, pp. 1519-1533, December 2003.

[17] Vijaya B.V.K. Kumar, C. Xie, J. Thornton, « Iris verification using correlation

filters », Proc. 4th Intl. Conf. on Audio and Video Based Biometric Person Authentication (AVBPA 2003), pp. 697-705, June 2003.

[18] W.W. Boles, B. Boashash, « A human identification technique using images of the iris

and wavelet transform », IEEE Transactions on Signal Processing, Vol. 46, N° 4, pp. 1185-1188, April 1998.

[19] Li Ma, Tieniu Tan, Yunhong Wang, « Efficient iris recognition by characterizing key

local variations », IEEE Transactions on Image Processing, Vol. 13, N° 6, pp. 739-750, June 2004.

[20] John G. Daugman, « Complete discrete 2D Gabor transforms by neural networks for

Page 138: HAMITOUCHE_SALMI

120  

image analysis and compression », IEEE Transactions on Acoustics, Speech, and Signal Processing, Vol. 36, N° 7, pp. 1169-1179, July 1988.

[21] J. Daugman, « High confidence personal identification by rapid video analysis of iris

texture », Proc. of the IEEE for the International Conference on Security Technology, 1992.

[22] J. Daugman, « High confidence recognition of persons by rapid video analysis of iris

texture », Publication of IEE for Conf. on European Convention on Security and Detection, 16-18 Mai, 1995.

[23] F. Bouchier, J.S. Ahrens, G. Wells, « Laboratory evaluation of the IrisScan prototype biometric identifier », Sandia National Laboratories, Albuquerque, NM, Tech. Rep.

SAND’96-1033, 1996. [24] R.P. Wildes, « A system for automated iris recognition », Proc. of 2nd IEEE Workshop

on Applications of Computer Vision, pp. 121-128, Décembre 1994. [25] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proc. of the

IEEE, Vol. 85, N° 9, Septembre 1997. [26] W.W. Boles, « A wavelet transform based technique for the recognition of the human

iris », Proc. of International Symposium on Signal Processing and its Application, Australia, 25-30 Août 1996.

[27] W.W. Boles, « A security system based on human iris identification using wavelet

transform », Proc. of the 1st International Conf. on Knowledge-based Intelligent Electronic Systems, Adelaide, Australia, 21-23 Mai 1997.

[28] W.W. Boles, B. Boashash, « A human identification technique using images of the iris

and wavelet transform », IEEE Transactions on signal processing, Vol. 46, N° 4, Avril 1998.

[29] R. Sanchez-Reillo, C. Sanchez –Avila, A. Gonzales-Marcos, « Improving access

control Security using iris identification », Proc. of the Conf. BMES/EMBS, IEEE Publication, Atlanta, Octobre 1999.

[30] Y. Zhu, T. Tan, Y. Wang, Chinese Patent Application N° 9911025, 1999. [31] Y. Zhu, T. Tan, Y. Wang, « Biometric personal identification based on iris patterns »,

Proc. of IAPR, International Conf. on Pattern Recognition, Vol. II, pp. 805-808, 2000. [32] L. Ma, Y. Wang, T. Tan, « Iris recognition using circular symmetric filters », Proc. of ICPR’02, Québec city, Canada, 11-25 Août 2002.

Page 139: HAMITOUCHE_SALMI

121  

[33] S.Z. Li, J. Lu, « Face recognition using the nearest geature line method », IEEE

Transactions On Neural Networks, Vol. 10, N° 2, pp. 439-443, Mars 1999. [34] S. Lim, K. Lee et T. Kim, « Efficient iris recognition through improvement of feature

vector and classifier », ETRI Journal, Vol. 23, N° 2, Juin 2001. [35] S-I. Noh, K. Pae, C. Lee, J. Kim, « Multi-resolution independent component analysis

for iris identification », Proc. of International and Technical Conf. on Circuits/Systems & Communication, Phuket, Thaïlande, Juillet 2002.

[36] A. Muron, P. Kois, J. Pospisil, « Identification of persons by means of the Fourier spectra of the optical transmission binary models of the human irises », Optics Communication by Elsevier Science, 192, pp. 161-167, 2001.

[37] M. Dobes, L. Machala, P. Tichavsky, « Iris recognition using mutual information »,

Rapport de projet MSM 153100007 du Ministère de l’Education de la République tchèque en collaboration avec l’Université de Palacky, 2003.

[38] A. Czajka, A. Pacut, « Comments on iris interchange format, projet 1576, revision D

par Dr Cambier », Report of The Institute of Control and Computation Engineering, Université de Varsovie, Pologne, 30 Novembre 2002.

CHAPITRE IV : ONDELETTES [1] Jaideva C. Goswami, Andrew K. Chan, « Fundamentals of Wavelets : Theory,

Algorithms, and Applications », Wiley Series in Microwave and Optical Engineering. Wiley Interscience, ISBN 0-471-19748-3, 1999.

[2] B. B. Hubbard, « Ondes et Ondelettes », Collection Sciences d’Avenir. Pour la Science,

diff. Belin, Paris, ISBN 2-9029-1890-9, 1995. [3] A. Cohen, « Ondelettes et Traitement Numérique du Signal », Masson, ISBN 2-225-83954-9, 1992. [4] Stéphane G. Mallat, « A Theory for Multiresolution Signal Decomposition : The

Wavelet Representation », IEEE Transactions On Pattern Analysis And Machine Intelligence, 11(7), 1989.

[5] Gilbert Strang, Truong Nguyen, « Wavelets and Filter Banks », Wellesley-Cambridge

Press, ISBN 0-9614088-7-1, 1996.

CHAPITRE V : CONCEPTION DU SYSTEME [1] D. Jirak, M. Dezortova, P. Taimr, M. Hajek, « Texture analysis of human liver »,

J. Magn Reson Imaging, 2002, 15:68-74.

Page 140: HAMITOUCHE_SALMI

122  

[2] X. Zhang, H. Fujita, M. Kanematsu, X. Zhou, T. Hare, H. Kato, R. Yokoyama, H.

Hoshi, « Improving the classification of cirrhotic liver by using texture features », Conf Prec IEEI Eng Med. Biol. Soc. 2005, 1:867-870.

[3] H. Kato, M. Kanematsu, X. Zhang, M. Saio, H. Kondo, S. Goshima, H. Fujita,

« Computed- aided diagnosis of hepatic fibrosis : preliminary evaluation of MRI texture analysis using the finite difference method and an artificial neural network », AJR 2007, 189:117-122.

[4] J. Daugman, « How Iris Recognition Works », Proceedings of 2002 International Conference on Image Processing, Vol. 1, 2002.

[5] S. Mallat, « Une exploration des signaux en ondelettes », Editions de l’Ecole

Polytechnique. [6] Libor Masek, Peter Kovesi, « MATLAB Source Code for a Biometric Identification

System Based on Iris Patterns », The School of Computer Science and Software Engineering, The University of Western Australia, 2003.

[7] J. Daugman, « Complete discrete 2D Gabor transforms by neural networks for image

analysis and compression », IEEE Transactions on Acoustics, Speech, and Signal Processing, Vol. 36, N° 7, pp. 1169-1179, July 1988.

CHAPITRE VII : TESTS ET RÉSULTATS [1] Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,

2004, http://www.biometricgroup.com/reports

ANNEXE A : RECONNAISSANCE DES FORMES [1] K. S. Fu, « Syntactic Methods in Pattern Recognition », Academic Press, Inc, New

York, 1974. [2] B. Dubuisson, « Diagnostic et Reconnaissance des Formes », Traité des nouvelles

technologies. Série diagnostic et Maintenance. Hermès, Paris, 1990. [3] R.C. Dubes, A.K. Jain, « Validities studies in clustering methodologies », Pattern

Recognition, N° 11, pp. 235-254, 1979. [4] A.K. Jain, R.C. Dubes, « Algorithms for Clustering Data », Prentice Hall, 1988.

Page 141: HAMITOUCHE_SALMI

123  

[5] M. Donias, « Caractérisation de Champs d’Orientation par Analyse en Composantes Principales et Estimation de la Courbure : Application aux Images Sismiques », Thèse de doctorat, Université Bordeaux I, France, Janvier 1999.

[6] R. A. Fisher, « The use of multiple measurements in taxonomic problems », Annals of

Eugenics, Vol. 7, pp. 179-188, 1936. [7] Nicolas Morizet, Thomas EA, Florence Rossant, Frederic Amiel, Amara Amara, « Revue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage

pour la biométrie », Institut Supérieur d’Electronique de Paris (ISEP). [8] John Holland, « Outline for a logical theory of adaptive systems », Journal of the

Association of Computing Machinery, 3, 1962. [9] D.E. Goldberg, « Genetic Algorithms in Search, Optimization and Machine Learning »,

Reading MA AddisonWesley, 1989. [10] E. Diday, J. C. Simon, « Cluster Analysis », dans Digital Pattern Recognition,

(K. S. FU edition), pp. 47-94, Springer – Verlag, Berlin, 1976. [11] R. O. Duda, P. E. Hart, « Pattern Classification and Scene Analysis », John Wiley and

Sons, New York, 1973. [12] L. A. Bartolucci, P. H. Swain, C. Wu, « Selective radiant temperature mapping using a

layered classifier », IEEE Trans. Geosci. Electron., Vol. GE-14, pp. 101-106, 1976. [13] Y. X. Gu, Q. R. Wang, C. Y. Suen, « Application of multilayer decision tree in

computer recognition of Chinese characters », IEEE Transactions Pattern Anal. Machine Intell., Vol. PAMI-13, pp. 163-174, 1991.

[14] A. C. Anderson, K. S. Fu, « Design and development of a linear binary tree for

leukocytes », Purdue University, West Lafayette, IN, Tech. Rep. TR-EE- 79-31, 1979. [15] E. Didelet, « Les arbres de neurones avec rejet d’ambiguïté. Application au diagnostic

pour le pilotage en temps réel du réseau téléphonique français », Thèse de doctorat, Université de Technologie de Compiègne, 1992.

[16] T. W. S. Chow, G. Fei, « Three phase induction machines asymmetrical faults identification using bispectrum » IEEE Transactions on Energy Conversion, Vol. 10, Issue 4, pp. 688-693, December 1995.

[17] J. Kittler, « A method for determining k nearest neighbors », Kibernetes, Vol. 7, pp.

313-315, 1978.

Page 142: HAMITOUCHE_SALMI

124  

[18] M. Richetin, G. Rives, M. Naranjo, « Algorithme rapide pour la détermination des k plus proches voisins », R.A.I.R.O. Informatique, Vol. 14, N° 4, pp. 369-378, 1980.

[19] J. H. Friedman, J. L. Bentley, R. A. Finkel, « An algorithm for finding nearest

Neighbors », IEEE Transactions On Computer, Vol. 24, pp. 1000-1006, July 1975. [20] D. L. Wilson, "Asymptotic properties of nearest neighbor rules using edited data", IEEE

Transactions on Systems, Man and Cybernetics, Vol. SMC-2, N° 3, pp. 408-421, July 1972.

ANNEXE B : BASES DES IMAGES D’IRIS STANDARDS [1] University of Bath, « University of Bath iris image database », 2004, http://www.bath.ac.uk/elec-eng/pp./sipg/ [2] Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,

2004, http://www.biometricgroup.com/reports

[3] National Institute of Standards and Technology, « Iris challenge evaluation », 2006, http://iris.nist.gov/ICE/

[4] Multimedia University, « MMU iris image database », 2004,

http://pesona.mmu.edu.my/ccteo

[5] Michal Dobes and Libor Machala, « UPOL iris image database », 2004, http://phoenix.inf.upol.cz/iris/

[6] A. Ross, S. Crihalmeanu, L. Hornak, S. Schuckers, « A centralized web-enabled multimodal biometric database », In Proceedings of the 2004 Biometric Consortium

Conference (BCC), U.S.A, September 2004.

[7] Hugo Proença, Luis A. Alexandre, « UBIRIS : A noisy iris image database », In Proceedings of the 13th International Conference on Image Analysis and Processing (ICIAP2005), pp. 970-977, Calgary, September 2005, http:// iris.di.ubi.pt

 ANNEXE C : UTILISATION DES FONCTIONS MATLAB DANS C # [1] http://www.mathworks.com 

 

Page 143: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

125  

La reconnaissance des formes est une science de définition d’algorithmes qui permettent de classer des objets (ou formes) par comparaison à des prototypes (objets types). Il s’agit de définir à quelle forme-type une forme observée ressemble le plus. Les formes ou motifs à reconnaitre peuvent être de nature très variée. Des exemples de contenus auxquels sont appliqués les méthodes sont multiples. Il peut s'agir de contenu visuel (code barre, visage, empreinte digitale...) ou sonore (reconnaissance de parole), d'images médicales (rayons X, EEG, IRM...) ou multi spectrales (images satellitaires) et bien d'autres. 1. Reconnaissance des formes : 1.1 Définition : La Reconnaissance des Formes (RDF) repose sur le classement des objets ou formes en les comparant à des formes-types. De manière générale, deux types de RDF se distinguent : - La RDF structurelle qui se base sur une représentation des formes à l’aide de grammaires [1]. - La RDF statistique qui s’appuie sur une représentation numérique des formes [2]. 1.2 Notions de forme ou d’objet : Une forme est une observation réalisée sur le processus. Elle est caractérisée par un ensemble de d paramètres (ou caractères), et représentée par un point dans l’espace de dimension d, défini par les différents paramètres (espace de représentation). Comme les paramètres sont souvent des nombres réels, une forme peut être définie par un vecteur

de , figure ci-dessous.                                                                                                 

                                                  Paramètre d                                        

   

                                                                                              •  

 

 

                                                                                                              Paramètre 1

                                                                                     

 

                                               Paramètre 2

Figure A.1: Représentation d’un objet dans l’espace de dimension d. Ces formes ou objets sont donc caractérisés par ce vecteur appelé vecteur forme. Ils sont issus d’analyses effectuées sur les signaux mesurés par les capteurs implantés sur le système.

Page 144: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

126  

Les formes types (ou prototypes) sont des points représentatifs de cet espace, et le problème de la reconnaissance consiste à associer une forme observée à une forme type connue. A cause des perturbations (bruit de mesure, précision des capteurs,…), une nouvelle observation sera rarement identique à l’un des prototypes. Ainsi, afin de traduire l’influence du bruit, les classes correspondent à des zones dans l’espace, regroupant les formes semblables (Figure V.2).

Figure A.2 : Notions de classes en reconnaissance des formes. 2. Principe de la reconnaissance des formes: Le principe de la reconnaissance est de savoir décider à quelle classe, parmi M classes connues, associer une nouvelle forme (avec d, la dimension de l’espace de représentation) observée. 3. Processus de reconnaissance des formes : Le processus de reconnaissance des formes s’effectue souvent en deux étapes : une phase d’analyse et une phase d’exploitation. 3.1 La phase d’analyse : cette phase consiste à partir de connaissances acquises sur le système à : - Déterminer l’espace de représentation, c’est-à-dire choisir les paramètres sensibles aux différents défauts permettant la meilleure discrimination des classes et ainsi construire le vecteur forme. - Réduire l’espace de représentation, c’est-à-dire déterminer les d’ (d’ < d ) paramètres les plus pertinents pour la reconnaissance, afin d’améliorer les performances et de diminuer le temps de décision relatif au classement d’une nouvelle observation. Cette opération de réduction peut être réalisée soit par des méthodes d’extraction, soit par des méthodes de sélection de caractères. L’extraction consiste à effectuer une transformation de l’espace initial par combinaison des caractères initiaux. La sélection utilise une procédure de recherche selon

Page 145: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

127  

un critère de séparabilité entre les classes et de compacité dans les classes permettant ainsi de sélectionner un sous-ensemble des caractères initiaux. - Déterminer l’espace de décision, c’est-à-dire l’ensemble de toutes les classes possibles. Si l’on dispose de N observations déjà recueillies sur le système (ensemble d’apprentissage) et pour lesquelles on connaît a priori la classe d’origine, c’est-à-dire son mode de fonctionnement correspondant, l’espace de décision est parfaitement déterminé, on parle de RDF en mode supervisé. Dans le cas contraire, on parle de RDF en mode non supervisé, il convient d’extraire cette connaissance manquante de l’ensemble d’apprentissage. Le principe est de détecter dans cet ensemble, une ou des structures de classes disjointes au sens d’un critère de similarité, de telle façon que les observations d’une même classe soient semblables et que celle de classes différentes soient dissemblables. De nombreuses méthodes existent pour mener à bien cette opération de classification automatique appelée « coalescence » [3] [4]. - Choisir une méthode de discrimination qui consiste à construire des frontières entre les différentes classes de l’ensemble d’apprentissage afin d’élaborer une règle de décision. Cette règle décidera d’affecter ou non une nouvelle observation à l’une des classes connues. 3.2 La phase d’exploitation: A la fin de la phase d’analyse, le système RDF peut être exploité. Il est alors possible d’associer une nouvelle observation recueillie sur le système à l’une des classes précédemment définies en appliquant la règle de décision. C’est la phase d’exploitation. La bonne exploitation du système décisionnel dépend de la pertinence du vecteur forme et des performances de la règle de décision. 4. Méthodes utilisées dans le domaine de reconnaissance des formes : 4.1 Constitution du vecteur forme: Cette étape consiste à construire le vecteur forme, c’est-à-dire, sélectionner les d paramètres à extraire à partir des signaux recueillis à l’aide des capteurs. Ces paramètres sont choisis pour optimiser la discrimination des modes de fonctionnement. Il n’existe pas d’outils algorithmiques qui permettent de régler le choix de ce vecteur, seule la connaissance a priori que l’on a du système, permet de retenir les paramètres les plus pertinents. Ainsi l'intervention d'un expert du processus à surveiller est souvent très utile pour orienter cette procédure.

Figure A.3 : Cheminement pour le calcul des paramètres constituant le vecteur forme. Les performances d’un système RDF dépendront de la pertinence des paramètres calculés. Il est donc préférable de disposer de paramètres variant, de manière significative, en fonction

Page 146: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

128  

des différentes conditions de prise des données. Le nombre souvent élevé de paramètres peut être pénalisant en termes de temps de calcul. De plus, tous les paramètres calculés et constituant le vecteur forme initial ne seront pas forcément pertinents vis-à-vis des modes de fonctionnement étudiés. Des méthodes doivent donc être utilisées afin de ne conserver que les paramètres les plus représentatifs. 4.2 Réduction de l’espace de représentation: La réduction de la dimension du vecteur forme consiste à rechercher un sous-ensemble de d’ paramètres (d’ < d ), qui conserve le mieux possible la séparation des classes de l’ensemble d’apprentissage initial. Cette réduction de l'espace de représentation peut être réalisée soit par des méthodes d'extraction de paramètres soit par des méthodes de sélection de paramètres. L’extraction consiste à définir de nouveaux paramètres à partir des d paramètres initiaux. Les nouveaux paramètres sont des combinaisons linéaires des anciens. Parmi les différentes méthodes d'extraction de paramètres, on distingue l'Analyse en Composantes Principales (ACP) ou transformée de Karhunen - Loève discrète. Quelque soit le critère utilisé pour la réduction de l’espace de représentation, celui-ci doit représenter au mieux les classes supposées connues de X, ce qui correspond intuitivement à : - Un regroupement des points d’une même classe, c’est-à-dire à une minimisation de la variance intra-classe (notion de compacité). - Une séparation des différentes classes, soit une maximisation de la variance interclasse (notion de séparabilité). 4.2.1 Analyse en composantes principales : L’analyse en composantes principales (ACP) consiste à déterminer les axes principaux d’un nuage de points (de vecteurs) par la décomposition en valeurs propres de la matrice de covariance du nuage (et non de la matrice d’auto corrélation). Donias [5] utilise cette technique pour déterminer l’orientation principale d’un champ de gradients. Toutefois, ce champ de gradient n’étant pas forcément centré (de moyenne nulle), il remplace le champ de vecteurs par le champ des directeurs, un directeur étant le couple formé d’un vecteur et de son opposé. Cette technique permet d’obtenir un nuage symétrique et de pouvoir effectuer une ACP. On montre en réalité que la matrice de covariance des directeurs est proportionnelle à la matrice d’auto corrélation du champ de vecteurs ; elles possèdent les mêmes espaces propres. La technique tensorielle et l’ACP d’un champ de directeurs sont donc équivalentes. Les méthodes de sélection de paramètres ont pour but de chercher d’ paramètres parmi les d initiaux réalisant la meilleure discrimination possible des classes de . Ainsi le nombre de mesures à effectuer diminue comme la dimension de l’espace de représentation, ce qui présente un double avantage : une réduction des temps de calcul et l’élimination des informations redondantes ou inintéressantes. Les paramètres sélectionnés seront ceux donnant la combinaison optimale au sens d’un critère de séparabilité entre classes et de compacité des classes comme par exemple le critère de Fisher [6], ou l’application d’un algorithme génétique.

Page 147: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

129  

4.2.2 Analyse discriminante linéaire (LDA : Linear Discriminant Analysis) : Appliqué aux images en 1997 par Belhumeur et Al. de la Yale University aux USA, l’algorithme LDA, aussi connu sous le nom de Fisherfaces, est très proche de celui de l’ACP sauf que la séparation de la base d’images en classe s’effectue en amont. Pour séparer en classe la base d’images d’apprentissage de sorte que chaque classe comporte plusieurs images de la même personne, on calcule les matrices de dispersion interclasses et intra classes puis on cherche une projection qui minimise la dispersion intra classes (variation des images d’une même personne) et maximise la dispersion interclasses (variation des images de personnes différentes). Après application de la projection sur les images apprises et les images test, on utilise les mêmes critères que l’ACP pour effectuer l’association entre l’image test et sa classe adéquate. Lorsque le nombre d’individus à traiter est plus faible que la résolution de l’image, les matrices de dispersion peuvent être non inversibles, ce qui rend difficile l’application de la LDA [7]. 4.2.3 Algorithmes génétiques : Les algorithmes génétiques sont des algorithmes d’optimisation s’appuyant sur des techniques dérivées de la génétique et de l’évolution naturelle : croisements, mutations, sélection, etc. [8] [9].Un algorithme génétique recherche le ou les extrema d’une fonction définie sur un espace de données. Pour l’utiliser, on doit disposer des cinq éléments suivants : 1. Un principe de codage de l’élément de population. Cette étape associe à chacun des points de l’espace d’état une structure de données. Elle se place généralement après une phase de modélisation mathématique du problème traité. 2. Un mécanisme de génération de la population initiale. Ce mécanisme doit être capable de produire une population d’individus non homogène qui servira de base pour les générations futures. Le choix de la population initiale est important car il peut rendre plus ou moins rapide la convergence vers l’optimum global. 3. Une fonction à optimiser. Celle-ci retourne une valeur de appelée fitness ou fonction d’évaluation de l’individu. 4. Des opérateurs permettant de diversifier la population au cours des générations et d’explorer l’espace d’état. L’opérateur de croisement recompose les gènes d’individus existant dans la population, l’opérateur de mutation a pour but de garantir l’exploration de l’espace d’états. 5. Des paramètres de dimensionnement : taille de la population, nombre total de générations ou critère d’arrêt, probabilités d’application des opérateurs de croisement et de mutation. 4.3 Détermination de l’espace de décision : Cette étape consiste à partitionner l’ensemble d’apprentissage en classes. Soit un ensemble de N vecteurs constituant l’ensemble de données initiales, l’objectif est donc de structurer ces vecteurs et d’établir une correspondance entre les classes définies et les différents états du système. Lorsque la classe d'origine de chaque observation est connue, l'espace de décision est parfaitement connu et l'apprentissage peut être effectué en mode supervisé. Si au contraire aucune information sur la structuration de l'ensemble d'apprentissage en classes n’est disponible, alors la classification doit être faite en mode non

Page 148: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

130  

supervisé. Il existe différentes méthodes de classification non supervisée, appelées également méthodes de coalescence. Il y des méthodes réalisant une classification exclusive et d’autre une classification non exclusive; dans ce dernier cas, une observation peut appartenir à plusieurs sous-ensemble. Dans le premier cas, une observation appartient à un sous-ensemble (une classe) et à un seul. Dans ce cas de figure, ces méthodes de coalescence se décomposent en deux parties : 4.3.1 Les méthodes de classification par partition : Ces méthodes ont pour but de créer des regroupements d’observations autour de centres de gravité recherchés. Elles sont dérivées d’une classe d’algorithmes connue sous le nom de ‘méthodes des nuées dynamiques’ introduites par [10]. Parmi ces algorithmes, on distingue la coalescence stricte Hard C-Means (HCM) [11]. L’algorithme HCM fonctionne comme suit: 1. Choix du nombre de classes M 2. Partition aléatoire de l’ensemble des observations en M classes 3. Calcul des centres de gravité des M classes Répéter 4. Restructuration des classes par affectation au centre de gravité le plus proche 5. Calcul des nouveaux centres de gravité 6. Calcul du critère d’arrêt Jusqu’à satisfaction du critère d’arrêt 4.3.2 Les méthodes hiérarchiques (ascendantes ou descendantes): Elles réalisent une arborescence dont les éléments à la base sont les observations elles mêmes et l’élément au sommet est composé de l’ensemble d’apprentissage au complet. L'algorithme de classification ascendante procède à un regroupement progressif des éléments, alors que la classification descendante vise plutôt l'éclatement des sous-ensembles. Voici un exemple d’une méthode non supervisée à classification exclusive, les arbres de décision, qui est une méthode hiérarchique descendante. Arbre de décision : Les arbres de décision constituent des outils de classification très employés dans des problèmes de RDF variés tels que la télédétection [12], la reconnaissance de caractères [13], ou encore le pronostic et le diagnostic médical [14][15] a, quant à elle, utilisé les arbres de neurones, qui associent un ensemble de neurones et un arbre de décision binaire pour le diagnostic du pilotage en temps réel d’un réseau téléphonique. Un arbre de décision est composé de plusieurs nœuds internes reliés entre eux par des branches. Ces nœuds internes représentent les états (classes) intermédiaires lors de la construction de l’arbre tandis que les branches représentent le processus de construction. Il possède également un certain nombre de nœuds terminaux ou feuilles, correspondant aux classes finales, auxquels on associe un indicateur de classe (étiquette correspondant à son mode de fonctionnement), parmi les M classes du problème à traiter.

Page 149: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

131  

L’intérêt de la classification par arbres de décision est de diviser les données contenus dans un ensemble d’apprentissage, par des tests définis à l’aide d’attributs (calcul de distance) jusqu’à ce que l’on arrive à des sous-ensembles de points, obtenus en suivant l’évolution d’un critère, ne contenant presque que des données appartenant toutes à la même classe.

Figure A.4 : Représentation d’un arbre de décision.

4.4 Détermination d’une règle de décision : Les deux premières étapes de la phase d’analyse ont permis de structurer l’ensemble d’apprentissage en classes distinctes et de pouvoir étiqueter les données de telle sorte que chacune des observations appartient à une des M classes connues. Soit l’ensemble d’apprentissage initial et l’ensemble des M classes connues. Le problème posé est alors d’affecter une nouvelle observation à l’une des M classes à l’aide d’une règle de décision. Si on souhaite réaliser une présentation non exhaustive des différentes approches de définition d’une règle de décision, il convient tout de même de distinguer les méthodes statistiques, paramétriques ou non paramétriques. 4.4.1 Méthodes paramétriques : Les méthodes paramétriques supposent la connaissance des lois de probabilité des classes et des observations. En effet, tout vecteur suit, dans une classe donnée , une loi de probabilité . Par ailleurs, les classes , (c =1,..., M) sont caractérisées par leurs probabilités a priori probabilité . Parmi ces méthodes, l’approche la plus commune est la théorie Bayesienne de la décision [2]. 4.4.1.1 Classification bayesienne : Dans la classification bayesienne, les classes et les données à classer sont considérées comme des variables aléatoires (VA). Les classes sont en nombre fini. Ce sont donc des variables

Page 150: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

132  

aléatoires discrètes et elles sont décrites par des probabilités. Les données sont des VA continues, donc elles sont décrites par des fonctions de densité de probabilité (FDP). Théorème de Bayes : Le théorème de Bayes donne la probabilité qu’une entrée x (un vecteur de données) appartienne à une classe donnée yi. Cette probabilité est définie par :

Avec , où N est le nombre de classes. - désigne une probabilité et une FDP.

- est appelée probabilité a posteriori de la classe yi. Il s’agit d’une probabilité conditionnelle. - est appelée probabilité a priori de la classe yi. Elle représente la probabilité qu’une donnée (indépendamment de sa valeur) lui appartienne. - est la FDP de la classe yi. Elle représente la façon dont sont réparties les données dans l’espace (de dimension égale à celle des données). - est la somme des FDP pour toutes les classes, pondérées par les probabilités a priori de ces dernières.

4.4.1.2 Méthode du maximum de vraisemblance : Les paramètres de la loi recherchés sont considérés comme " fixes " et le choix optimal est celui qui maximise la probabilité d’obtenir les échantillons fournis pour définir la classe. 4.4.2 Méthodes non paramétriques : Les méthodes précédentes supposent les connaissances totales des lois de probabilités pour les classes et les observations et donc, ne peuvent s’appliquer de façon réaliste que sous l’hypothèse gaussienne. Toutefois si cette connaissance est incomplète, il est nécessaire de s’orienter vers une estimation de ces lois de probabilité. Parmi les estimateurs usuels, on distingue l’estimateur des k – plus proches voisins (k – ppv), qui est une approche facile d’utilisation. 4.4.2.1 Règle des k plus proches voisins : Soit l’ensemble d’apprentissage composé de N vecteurs indépendants, chacun étiqueté à l’une M classes connues. Le principe de la règle des k – ppv est d’affecter une nouvelle observation Xu à la classe majoritairement représentée parmi ses k – plus proches voisins. En réalité, La manière la plus simple d’élaborer cette règle, est de mesurer la distance entre la nouvelle observation et chacun des vecteurs de l’ensemble d’apprentissage. La nouvelle observation sera alors affectée à la classe majoritairement représentée parmi ses k – ppv. La définition de la notion de plus proche voisin est liée au choix d’une distance. 4.4.2.2 Règle des k – plus proches voisins avec rejet :

Page 151: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

133  

Comme évoqué précédemment, le cas où la connaissance sur les classes est exhaustive n’est pas usuel en diagnostic. De ce fait, de nouvelles classes peuvent apparaître au cours du temps, et, dans ce cas, l’affectation systématique d’une nouvelle observation à une classe connue peut conduire à une erreur de diagnostic. Il vaut mieux reporter la décision et affecter à une classe dite de rejet. On parlera alors d’utilisation de règle de décision avec rejet [16]. En réalité, il existe deux grandes notions de rejet : le rejet en ambiguïté qui concerne une nouvelle observation située entre deux ou plusieurs classes de et le rejet en distance qui correspond à une nouvelle observation située à une distance éloignée des classes de . Ces rejets ont été introduits dans la règle des k – ppv et plus généralement, dans les méthodes de diagnostic afin de diminuer les erreurs de classification et, par conséquent, les erreurs de diagnostic. 4.4.2.3 Réduction des temps de calcul : Un des inconvénients de la méthode des k – ppv est qu’elle nécessite le calcul des distances de l’observation à tous les éléments de l’ensemble d’apprentissage et le stockage avant classement. Cette contrainte peut être pénalisante en termes de temps de calcul si l’ensemble d’apprentissage initial est de grande taille. Il est donc préférable de chercher à accélérer cette étape. Dans ce but, de nombreuses études ont été effectuées, d’une part, par la recherche rapide des distances en appliquant des calculs de distance plus courte (distance du max, distance de Manhattan) que la distance euclidienne classique [17][18][19] ou d’autre part, par la réduction de la taille de , ce qui entraîne une diminution des distances à calculer [20]. 5. Schéma général d’un système de reconnaissance des formes : Au final, les différentes phases : la phase d’analyse et la phase d’exploitation, composant un système de reconnaissance des formes, ainsi que l’étape d’actualisation servant à la détection de nouvelles classes peuvent être représentées de la manière suivante :

Page 152: HAMITOUCHE_SALMI

ANNEXE A Reconnaissance des formes   

134  

Figure A.5 : Schéma du principe d’un système par RDF.  

Page 153: HAMITOUCHE_SALMI

ANNEXE B Bases des images d’iris standards   

134  

Nous décrivons les caractéristiques principales des bases de données des images d’iris standards disponibles pour des fins biométriques. A travers des exemples, nous illustrons les types de bruit que les images des bases de données contiennent, ainsi que l’impact de chacun sur les différentes phases à travers lesquelles un système biométrique fonctionne. Enfin, quelques statistiques concernant chaque base. 1. Bases d’images standards : Les recherches biométriques et le développement demandent l’analyse des données humaines. Évidemment, c'est irréaliste d'exécuter le test d'algorithmes dans les données capturées rapidement, dû au malaise énorme que cela impliquerait. De plus, la comparaison juste entre méthodes de reconnaissance demande des données d'entrée semblables à valoriser et évaluer leurs résultats. Par conséquent, quand arrive le test des méthodes de la reconnaissance, les bases de données biométriques standard de haute pertinence deviennent indispensables au processus du développement. Concernant le domaine de reconnaissance par iris, il y a actuellement, six bases de données publiques d’images d'iris disponibles. Dans les subdivisions suivantes nous décrivons les caractéristiques principales de leurs images en se focalisant sur l'analyse du bruit que chaque base de données contient. Nous avons considéré l'analyse de ces facteurs de bruit et l'hétérogénéité des images comme les paramètres les plus importants pouvant influencer sur les résultats de notre travail. 1.1 Base de données BATH : La base de données des images d’iris de l’université BATH [1] est en constante évolution et à présent contient plus de 16000 images d'iris prises à partir des deux yeux de 400 personnes. Il résulte d'un projet qui vise à construire une ressource d’images d'iris de haute qualité. La majorité de la base de données comprend des images prises d'étudiants et du personnel de l'Université Bath. Les images sont de très haute qualité, prises avec un appareil photo professionnel, et montées sur un appareil d’ajustement de position d’hauteur réglable. La lumière (luminosité) a été fournie par une chaîne de diodes infrarouges LEDs, et placée au-dessous de l'appareil photo et mise à un angle tel que les réflexions ont été ajustées vers la pupille. Au cours de cette opération, un filtre de passage infrarouge a été utilisé pour ne laisser passer qu’une partie de la lumière. Cette technique a permis de diversifier et d’augmenter la qualité des images d’iris. Les images de la base de données BATH contiennent exclusivement la plupart des facteurs de bruit reliés avec les obstructions de l'iris (dû aux paupières et aux cils). En outre, les caractéristiques principales de ses images sont assez homogènes, résultantes d'un cadre de prise d'images coopératif.

Page 154: HAMITOUCHE_SALMI

ANNEXE B Bases des images d’iris standards   

135  

Figure B.1 : Exemples d’images d’iris de la base de données BATH.

1.2 Base de données ICE : The Iris Challenge Evaluation (ICE) est un concours conçu pour mesurer l'efficacité de la technologie émergente qui rend la reconnaissance par iris possible. Ses buts sont de promouvoir le développement de reconnaissance par iris et d’estimer le niveau de performance actuel de la technologie. Il est divisé en deux étapes: en premier, il a été demandé aux chercheurs et aux promoteurs de participer dans le projet intitulé : « problèmes de chalenges de reconnaissance d’iris » qui pouvait améliorer leurs algorithmes de reconnaissance. Plus tard, une opportunité de participer à une évaluation indépendante à grande échelle allait être proposée, à travers un nouvel ensemble d’images d’iris et une bibliothèque d’évaluation. La base de données ICE [2] est composée de 2954 images, avec un nombre variable d'images par personne. De la même façon que les bases de données d'iris publiques restantes, ses images ont été capturées, avec comme préoccupation principale la qualité des images, celle-ci simule clairement la coopération des utilisateurs dans l'image capturée. En conséquence, les facteurs de bruit que la base de données ICE contient sont liés presque exclusivement avec les obstructions de la mauvaise position de l’iris par rapport au capteur. D’autant plus qu’il y a quelques images qui ont délibérément subi des rotations et d'autres ont été partiellement capturées.

Figure B.2 : Exemples d’images d’iris de la base de données ICE. 1.3 Base de données MMU : The Multimedia University a développé une petite base de données (MMU) [3] composée de 450 images d'iris. Elles ont été capturées à l’aide d’un appareil photo très performant (LG Iris Access® 2200). C'est un appareil photo semi automatisé de gamme 7-25 cm. Plus tard, une nouvelle base de données (MMU2) composée de 995 images d'iris a été réalisée en utilisant un appareil photo (Panasonic BM-ET100US Authenticam). Les images d'iris sont de 100 volontaires de différents âges et nationalités. Ils viennent d'Asie, Moyen-Orient, Afrique et Europe, dont les images d'iris ont été prises des deux yeux (5 images par œil). Les images sont très homogènes

Page 155: HAMITOUCHE_SALMI

ANNEXE B Bases des images d’iris standards   

136  

et leurs facteurs de bruit sont liés exclusivement avec les obstructions de l'iris dus aux paupières et aux cils.

Figure B.3 : Exemples d’images d’iris de la base de données MMU.

1.4 Base de données UPOL : La base de données d'images d'iris UPOL [4] a été construite au sein de l'Université de Palacki. Olomuc. Ses images ont la particularité d’avoir été capturées à l’aide d’une structure optométriste (TOPCON TRC50IA) et, ce qui leur vaut d’être de haute qualité et convenable pour l'évaluation de reconnaissance par iris dans des environnements sans bruit. La base de données contient 384 images extraites des deux yeux de 64 personnes (trois images par œil). Comme illustré dans la figure VI.4, ses images sont d'une homogénéité maximale et la segmentation est facilitée. Evidemment, ces caractéristiques font de cette base de données la moins appropriée pour la recherche biométrique dans le cas non coopératif.

Figure B.4 : Exemples d’images d’iris de la base de données UPOL.

1.5 Base de données WVU : The West Virginia University a développé une base de données d'images d'iris (WVU) [5] composée de 1852 images de 380 yeux différents. Le nombre d’images capturées de chaque œil est compris entre trois et six grâce au dispositif OKI IrisPass-H. Les images de la base de données WVU ont été capturées dans des conditions de prise d'images peu contraignantes, d’où, la mauvaise qualité d’images comportant des obstructions de l'iris, mauvaise localisation de l’iris dans l’image avec une position angulaire fermé, quelques unes complètement affectées par le reflet des paupières et des cils, ce qui leur vaut d’être les images les plus hostiles au processus de reconnaissance.

Page 156: HAMITOUCHE_SALMI

ANNEXE B Bases des images d’iris standards   

137  

Figure B.5 : Exemples d’images d’iris de la base de données WVU. 1.6 Base de données UBIRIS : La base de données UBIRIS [6] est composée de 1877 images recueillies à partir de 241 personnes au sein de l’Université de Beira Interior, elle est scindée en deux sessions distinctes. Sa caractéristique principale est le fait qu’à l’heure actuelle c’est la base de données publique et gratuite (CASIA et UPOL) la plus large qui existe, elle comporte des images avec plusieurs facteurs de bruit, permettant ainsi l'évaluation de la robustesse des méthodes de reconnaissance de l'iris. Pour la première session de capture d'image, on a tenté de minimiser les facteurs de bruit, en particulier ceux relatifs à la réflexion, la luminosité et le contraste, après avoir installé la capture d'images dans un cadre de chambre noire. Dans la deuxième session, nous avons changé le lieu de capture afin d'introduire des facteurs de luminosité naturelle. Ceci a pour conséquence, l'apparition d'images hétérogènes en terme de réflexion, de contraste et de luminosité.

Figure B.6 : Exemples d’images d’iris de la base de données UBIRIS. 2. Analyse des facteurs de bruit des bases de données: 2.1 Types de bruit: Dans le but de donner une vue d’ensemble des caractéristiques principales des bases de données d’images d’iris, le tableau VI.2 résume les facteurs de bruit que contiennent les images des bases de données décrites précedemment . Chaque colonne représente un facteur de bruit dont le sens est décrit ci-dessous. La lettre "X" signifie que la base de données contient des images présentant le bruit décrit par la colonne correspondante, le signe "-" signifie qu’elle en est depourvue.

Page 157: HAMITOUCHE_SALMI

ANNEXE B Bases des images d’iris standards   

138  

L’analyse du tableau ci-dessous nous permet de conclure que la base de données UBIRIS est la plus bruyante. Cette base contient, mis à part le bruit de type angle fermé, tous les autres types de bruit pouvant être provoqués lors de la phase d’enrôlement non coopérative. Contrairement à UBIRIS, les autres bases de données contiennent moins d’images affectées par le bruit, celles-ci sont de caractéristiques beaucoup plus homogènes. Base d’iris NEO NLO NLR NMB NOA NOI NPF NPI NSR BATH X X - - X - - - - CASIA X X - - - - - - ICE X X - - - - X X - MMU X X - - - - - - - UPOL - - - - - - - - - UBIRIS X X X X - X X X X WVU X X - X X - X X -

Tableau B.1: Vue d’ensemble des facteurs de bruit des bases de données standards. 2.2 Mesure du bruit: Après avoir identifié les types de bruit que les bases de données contiennent, il est indispensable d’avoir une idée sur la quantité moyenne des pixels touchés par le bruit de chaque image d’iris des bases de données. Nous considérons chaque pixel faisant partie de l’iris et touché par un des facteurs de bruit précédemment cités comme un pixel bruité.

Base d’iris Taille Image, pix Rayon Iris, pix Rayon Pupille, pix Bruit, % BATH 1280 x 960 232 101 6.29 CASIA 320 x 280 102 37 12.72

ICE 640 x 480 119 54 6.70 MMU 320 x 240 57 21 7.83 UPOL 768 x 576 286 74 1.03

UBIRIS 800 x 600 206 45 27.62 WVU 800 x 600 204 54 16.10

Tableau B.2 : Quantité moyenne des pixels affectés par le bruit dans les régions d’iris des

images de bases de données.

 

Page 158: HAMITOUCHE_SALMI

ANNEXE C Utilisation des fonctions Matlab dans C#   

139  

L’utilisation des fonctions Matlab dans la plateforme Dot Net est possible grâce à des librairies partagées. La création d’une librairie partagée C est effectuée au niveau de Matlab et les étapes de création de ces librairies sont décrites ci-dessous [1] :

- La sélection du compilateur à utiliser moyennant la commande : mbuild -setup

- La compilation du fichier Matlab à l’aide de la commande : mcc -B csharedlib :mylib <M-file> mylib est le nom de la bibliothèque comportant la fonction écrite sous Matlab. Remarque : <M-file> peut comporter une seule fonction (ex : fonction1.m) ou plusieurs fonctions (ex : fonction1.m fonction2.m … fonctionN.m) si l’on souhaite les regrouper dans une seule bibliothèque.

- Une fois l’instruction de compilation lancée, Matlab crée plusieurs fichiers (mylib.c mylib.h …). Il suffit, ensuite, de copier les fichiers mylib.dll et mylib.ctf dans le dossier /bin/Debug/ du projet C#.

- Avant l’appel de toute librairie à partir de C#, il est nécessaire de faire appel à la

routine d’initialisation du MCR : mclInitializeApplication (null, 0), cette routine externe est importée à partir de la Dll copiée lors de l’installation du logiciel Matlab "mclmcrrt70.DLL".

- Avant de faire appel à une librairie donnée (ex : mylib), il faut l’initialiser en

utilisant : mylibInitialize (), cette routine externe est importée à partir de la Dll "mylib.dll".

- Puis, l’appel d’une fonction de la librairie peut alors être effectué.

mlfFonction1 (param1, param2 … paramK) importée à partir de la Dll "mylib.dll". Remarque : Le premier paramètre est un entier représentant le nombre de paramètres en sortie de la fonction Matlab. Les autres paramètres doivent être des tableaux de pointeurs (IntPtr). Pour ce faire, Matlab propose des fonctions telles que mxCreateDoubleScalar, mxGetPr, mxCreateString, mxCreateDoubleMatrix importées à partir de la Dll "mclmcrrt70.dll".

- Une fois tous les appels aux fonctions de la librairie ont été effectués, il faudra libérer les ressources utilisées par ces fonctions. De ce fait, il est nécessaire de faire appel à la routine de terminaison mcllibTerminate () importée à partir de la Dll "mylib.dll".

- Une fois tous les appels aux Dll de Matlab effectués, effectuer la terminaison du

MCR : mclTerminateApplication () importée à partir de la Dll " mclmcrrt70.dll".   

Page 159: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

140  

Ces taux ont été calculés en utilisant les valeurs par défaut des paramètres pertinents du système. I. Base de données CASIA V1.0 :

Seuil FAR FRR TER 1 0.42767 0 0 0 2 0.45038 0.03289 0.19999 0.11644 3 0.43897 0 0 0 4 0.44285 0 0.13333 0.06666 5 0.44053 0.00074 0.06666 0.0337 6 0.57729 0.01831 0.13333 0.07582 7 0.47865 0.00897 0.13333 0.06722 8 0.47322 0 0.06666 0.03333 9 0.45846 0.00149 0.13333 0.06741 10 0.49149 0.00037 0 0.00018 11 0.42607 0.00111 0.06666 0.03388 12 0.43270 0 0 0 13 0.46171 0.00410 0.19999 0.10204 14 0.47413 0.00111 0 0.00055 15 0.43007 0 0.06666 0.03333 16 0.45308 0.00111 0.06666 0.03333 17 0.41750 0 0 0 18 0.48527 0.05233 0.19999 0.12616 19 0.48543 0.00073 0.13333 0.06703 20 0.46941 0 0 0 21 0.41026 0 0 0 22 0.44158 0 0 0 23 0.43812 0 0 0 24 0.43831 0 0.19999 0.09999 25 0.45712 0 0 0 26 0.43346 0 0 0 27 0.46886 0.00074 0 0.00037 28 0.41285 0 0 0 29 0.42915 0 0 0 30 0.43687 0.00336 0.13333 0.06834 31 0.43546 0 0 0 32 0.41385 0 0 0 33 0.44149 0 0 0 34 0.44752 0 0.06666 0.03333 35 0.44038 0.00373 0.19999 0.10186 36 0.45736 0 0 0 37 0.44076 0 0 0 38 0.46827 0.00709 0.26666 0.13687 39 0.49162 0.03438 0.39999 0.21718 40 0.43602 0 0.06666 0.03333 41 0.49530 0.06690 0.26666 0.16678 42 0.49615 0.06355 0.39999 0.23177 43 0.47559 0.07775 0.13333 0.10554 44 0.43241 0 0.13333 0.06666

Page 160: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

141  

45 0.48090 0.06467 0.19999 0.13233 46 0.42856 0 0 0 47 0.4077 0 0 0 48 0.45667 0 0 0 49 0.43664 0 0 0 50 0.45143 0.01607 0 0.00803 51 0.43438 0 0 0 52 0.45906 0 0 0 53 0.44507 0.00074 0 0.00037 54 0.50060 0 0 0 55 0.45551 0.00523 0.06666 0.03594 56 0.42244 0 0.06666 0.03333 57 0.41427 0 0 0 58 0.47864 0.02279 0.19999 0.11139 59 0.41142 0 0 0 60 0.40355 0 0 0 61 0.43119 0 0 0 62 0.45986 0 0 0 63 0.48251 0.10130 0 0.05065 64 0.44141 0 0 0 65 0.44247 0 0 0 66 0.45717 0 0.19999 0.09999 67 0.52548 0.37756 0.06666 0.22211 68 0.45818 0 0.13333 0.06666 69 0.42624 0.00037 0 0.00018 70 0.48523 0.00148 0.39999 0.20073 71 0.41861 0.00074 0.06666 0.0337 72 0.46628 0.02616 0.33333 0.17974 73 0.43878 0.01083 0.13333 0.07208 74 0.46219 0.00037 0.06666 0.03351 75 0.44976 0 0.06666 0.03333 76 0.44884 0.03252 0.13333 0.08292 77 0.47604 0.11102 0.26666 0.18884 78 0.48435 0 0 0 79 0.50876 0.03364 0 0.01682 80 0.42847 0 0 0 81 0.43526 0 0 0 82 0.43633 0 0.06666 0.33333 83 0.44155 0.00074 0.06666 0.0337 84 0.43499 0 0.06666 0.03333 85 0.42879 0 0.06666 0.03333 86 0.45238 0 0 0 87 0.42905 0 0 0 88 0.42405 0 0 0 89 0.41604 0 0 0 90 0.41959 0 0.13333 0.06666 91 0.53361 0.00336 0.19999 0.10167 92 0.44075 0 0.06666 0.03333

Page 161: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

142  

93 0.42501 0 0 0 94 0.42687 0 0 0 95 0.44550 0 0.06666 0.03333 96 0.43337 0 0 0 97 0.45126 0 0 0 98 0.43133 0.00224 0.06666 0.03445 99 0.45494 0 0.06666 0.03333 100 0.42151 0 0.06666 0.03333 101 0.48982 0.01419 0.06666 0.04042 102 0.46450 0.00074 0.19999 0.10036 103 0.49118 0.13981 0.06666 0.10323 104 0.45165 0.00112 0.19999 0.10055 105 0.45382 0.00672 0.19999 0.10335 106 0.45226 0.04111 0.06666 0.35388 107 0.42654 0 0.13333 0.06666 108 0.48999 0 0.06666 0.03333

 

Tableau D.1 : Taux FAR et FRR individuels (CASIA V1.0).  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Page 162: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

143  

2. Base de données CASIA-IrisV3-Interval :  

Seuil FAR FRR TER 1 0.53857 0.13140 0.125 0.1282 2 0.51043 0.10952 0.125 0.11726 3 0.45590 0 0 0 4 0.54649 0.04606 0 0.02303 5 0.46672 0.00024 0 0.00012 6 0.45518 0.00084 0.06666 0.03375 7 0.48881 0.05209 0.05357 0.05283 8 0.45867 0.00232 0.05357 0.02794 9 0.46450 0.00025 0.14285 0.07155 10 0.47041 0 0 0 11 0.45430 0.03397 0.125 0.07948 12 0.46512 0.00011 0 0.00005 13 0.52739 0.01954 0.19045 0.10499 14 0.49332 0.00108 0.13332 0.06720 15 0.43881 0 0 0 16 0.40925 0 0.5 0.25 17 0.51082 0.14588 0.3 0.22294 18 0.44551 0 0 0 19 0.47558 0.02155 0.03906 0.03030 20 0.48606 0.10507 0.16666 0.13586 21 0.48046 0.0806 0.11111 0.09585 22 0.52916 0.10101 0.25 0.17550 23 0.46433 0.00089 0.5 0.25044 24 0.39509 0 0 0 25 0.42223 0 0 0 26 0.43217 0 0 0 27 0.47762 0 0 0 28 0.50609 0.03605 0.13888 0.08746 29 0.51681 0.07568 0.32142 0.19855 30 0.50304 0.02746 0.08928 0.05837 31 32 0.40038 0 0 0 33 0.42643 0 0 0 34 0.45392 0 0 0 35 0.50249 0.00239 0.33333 0.16786 36 0.47964 0.00103 0.05357 0.0273 37 0.45956 0 0 0 38 0.48773 0.16932 0.3 0.23466 39 0.44101 0 0.125 0.0625 40 0.53424 0.02077 0.5 0.26038 41 42 0.50794 0.04219 0.25 0.14609 43 0.51197 0.09221 0.21875 0.15548 44 0.55646 0.29975 0.33333 0.31654 45 0.51133 0.02774 0.22222 0.12498

Page 163: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

144  

46 0.4185 0 0 0 47 0.52683 0.22208 0.22222 0.22215 48 0.52485 0.04358 0.16666 0.10512 49 0.44687 0 0 0 50 0.40582 0 0 0 51 0.39927 0 0.125 0.0625 52 0.41296 0 0 0 53 0.43994 0 0.01587 0.00793 54 0.46266 0 0 0 55 0.46419 0.00039 0.16666 0.08352 56 0.45728 0.00079 0 0.00039 57 0.44027 0 0 0 58 0.46397 0.00164 0.25 0.12582 59 0.50057 0.10051 0.16666 0.13358 60 0.49741 0.05037 0.08928 0.06982 61 0.44094 0 0 0 62 0.41133 0 0 0 63 0.46919 0.00024 0.12 0.06012 64 0.50314 0.17313 0 0.08656 65 0.43377 0 0.04 0.02 66 0.44673 0.00048 0.04 0.02024 67 0.45895 0.03138 0.1 0.06596 68 0.50773 0.12254 0.36 0.24127 69 0.52217 0.12146 0.04 0.08073 70 0.45565 0.01342 0.24 0.12671 71 0.44626 0.00084 0.04 0.02042 72 0.51493 0.04909 0.08 0.06454 73 0.43989 0.00024 0 0.00012 74 0.50615 0.14596 0.16 0.15298 75 0.50374 0.08772 0.2 0.14386 76 0.47124 0.03489 0.04 0.03744 77 0.44991 0 0 0 78 0.46815 0.00060 0.12 0.06030 79 0.43922 0 0 0 80 0.49026 0.08863 0.32 0.20431 81 0.46877 0.00050 0.08333 0.04191 82 0.50538 0.11419 0.24336 0.17877 83 0.46598 0.03990 0.06666 0.05328 84 0.42895 0 0 0 85 0.51033 0.12237 0.12 0.12118 86 0.52894 0.03102 0.08 0.05551 87 0.48593 0.03860 0.36 0.1993 88 0.42462 0 0 0 89 0.44640 0 0 0 90 0.43373 0 0.2 0.1 91 0.47963 0.08261 0.19999 0.1413 92 0.46557 0.00461 0.16666 0.08563 93 0.47539 0.0001 0.04166 0.02088

Page 164: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

145  

94 0.46858 0.02922 0.08571 0.05746 95 0.45218 0 0.13333 0.06666 96 0.47165 0.05044 0 0.02522 97 0.45298 0.0003 0.06666 0.03348 98 0.46130 0.0004 0.06666 0.03353 99 0.46939 0.00991 0.08333 0.04662 100 0.44892 0.02583 0.02857 0.0272 101 0.48386 0.04281 0.1 0.07140 102 0.42551 0 0 0 103 0.42591 0 0 0 104 0.51799 0.00693 0.1 0.05346 105 0.42948 0.01133 0.1 0.05566 106 0.51143 0.31036 0.1 0.20518 107 0.48116 0.05274 0.2 0.12637 108 0.48409 0.12258 0.33333 0.22795 109 0.53184 0.12116 0.2 0.16058 110 0.44589 0.00872 0.06666 0.03769 111 0.45429 0 0 0 112 0.44101 0.00250 0.03333 0.01791 113 0.46975 0.05314 0.13333 0.09323 114 0.47635 0.01122 0.23333 0.12227 115 0.52647 0.0818 0.07142 0.07661 116 0.45027 0.07771 0.03333 0.05552 117 0.45177 0 0.06666 0.03333 118 0.47755 0.03990 0.13333 0.08661 119 0.5073 0.15763 0.13333 0.14548 120 0.46203 0.00892 0.2 0.10446 121 0.46433 0.00160 0.03333 0.01746 122 0.45535 0.00240 0.16666 0.08453 123 0.48707 0.01804 0.06666 0.04235 124 0.43397 0.0004 0.03333 0.01686 125 0.49891 0.10677 0.30357 0.20517 126 0.48937 0.06136 0.1 0.08068 127 0.4795 0.02184 0.23333 0.12758 128 0.50344 0.05602 0.2 0.12801 129 0.49727 0.10148 0.13333 0.11740 130 0.46720 0.10569 0.1 0.10284 131 0.49681 0.11955 0.2 0.15977 132 0.48557 0.04280 0.08571 0.06425 133 0.49022 0.06774 0.16666 0.1172 134 0.48119 0.03789 0.1 0.06894 135 0.45682 0.00190 0.26666 0.13428 136 0.44378 0.00010 0.02083 0.01046 137 0.46942 0.00060 0.13333 0.06696 138 0.46638 0.01363 0.1 0.05681 139 0.53684 0.02956 0.26666 0.14811 140 0.46163 0.0022 0.26666 0.13443 141 0.48773 0.04379 0.18333 0.11356

Page 165: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

146  

142 0.44460 0 0 0 143 0.42893 0.01253 0 0.00626 144 0.47615 0.15693 0.3 0.22846 145 0.44010 0.01835 0.2 0.10917 146 0.44373 0.03118 0.1 0.06559 147 0.44246 0 0 0 148 0.48760 0.02175 0.26666 0.14420 149 0.50328 0.12855 0.1 0.11427 150 0.51494 0.07253 0.83333 0.45293 151 152 0.47427 0 0.5 0.25 153 0.50075 0.08353 0.16666 0.12509 154 0.47304 0.00015 0.125 0.06257 155 0.55217 0.00059 0.16666 0.08362 156 0.43552 0.02474 0.18749 0.10611 157 0.48548 0.00456 0.05 0.02728 158 0.42159 0 0.33333 0.16666 159 0.53486 0.18062 0.1875 0.18406 160 0.48095 0.05980 0.22409 0.14194 161 0.52869 0.17683 0.125 0.15091 162 0.50172 0.03504 0.10937 0.07220 163 0.55829 0.22113 0.2 0.21056 164 0.48760 0.00828 0.15 0.07914 165 0.50732 0.04509 0.20407 0.12458 166 0.49844 0.04317 0 0.02158 167 0.51210 0.01782 0.08928 0.05355 168 0.48741 0.04791 0.20312 0.12551 169 0.44324 0 0.04687 0.02343 170 0.54413 0.23023 0.16666 0.19844 171 0.41130 0 0 0 172 0.44466 0 0 0 173 0.59546 0.00135 0.49999 0.25067 174 0.54838 0 0.375 0.1875 175 0.41793 0 0 0 176 0.42454 0 0 0 177 0.45171 0 0.5 0.25 178 0.46003 0.01335 0.16666 0.09000 179 0.48923 0.02541 0.16666 0.09603 180 0.43595 0 0.16666 0.08333 181 0.46419 0 0 0 182 0.55010 0.18805 0.14285 0.16545 183 0.51403 0.10414 0.16666 0.1354 184 0.48942 0 0.16666 0.08333 185 0.45546 0 0.16666 0.08333 186 0.44985 0 0 0 187 0.49412 0.00075 0.08333 0.04204 188 0.49911 0.08447 0.08928 0.08687 189

Page 166: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

147  

190 0.48376 0 0 0 191 0.42248 0 0 0 192 0.50025 0.07892 0.16666 0.12279 193 0.46649 0 0 0 194 0.4401 0 0 0 195 0.56696 0 0 0 196 0.48143 0 0 0 197 0.46374 0.00029 0.125 0.06264 198 0.49048 0.00139 0.16666 0.08402 199 0.43964 0.00080 0 0.00040 200 201 0.43201 0 0 0 202 0.49892 0.11307 0.16666 0.13986 203 0.50700 0.15506 0.125 0.14003 204 205 0.50416 0.23738 0.16666 0.20202 206 0.43778 0 0 0 207 0.44397 0 0 0 208 0.48735 0.08868 0.08333 0.08600 209 0.51292 0.06793 0.05357 0.06075 210 0.49505 0.0003 0.16666 0.08348 211 0.50082 0.02667 0.20407 0.11537 212 0.49457 0.15815 0 0.07907 213 214 0.07625 0.06917 0.08333 0.07625 215 0.47183 0.00020 0 0.00010 216 217 0.42883 0 0 0 218 0.50518 0.00060 0.19047 0.09553 219 0.52650 0.04572 0.22448 0.1351 220 0.47190 0.00479 0.2 0.10239 221 0.48146 0.20063 0.33333 0.26698 222 0.4482 0 0 0 223 0.39034 0 0 0 224 0.49853 0.05496 0.17851 0.11673 225 0.48639 0.00060 0.16666 0.08363 226 0.49737 0.00015 0.08333 0.04174 227 0.50924 0.00030 0.125 0.06265 228 0.46153 0.00075 0 0.00037 229 0.54828 0.21364 0.30952 0.26158 230 0.48382 0.00012 0.05 0.02506 231 0.47148 0.0039 0.41666 0.21028 232 0.56396 0.28859 0.66666 0.47759 233 0.52331 0.03506 0 0.01753 234 0.43881 0 0 0 235 0.42647 0 0 0 236 0.49144 0.06710 0.5 0.28355 237 0.43031 0 0 0

Page 167: HAMITOUCHE_SALMI

ANNEXE D Taux FAR et FRR individuels   

148  

238 0.41883 0 0.2 0.1 239 0.49665 0.05739 0.08333 0.07036 240 0.50650 0.00020 0.16666 0.08343 241 0.43235 0 0 0 242 0.53210 0 0 0 243 244 0.44054 0 0 0 245 0.44365 0 0 0 246 0.56666 0.00179 0.5 0.25089 247 0.47643 0.00075 0.33333 0.16704 248 0.48791 0.11989 0.16666 0.14327 249

 

Tableau D.2 : Taux FAR et FRR individuels (CASIA-IrisV3-Interval).