Encore avant-gardistes et confidentiels il y a quelques années, les systèmes biométriques sont aujourd’hui une réalité qui se développe et se démocratise. Avec la sortie de l’iPhone X, et après avoir expérimenté le Touch ID sur ses précédents modèles, la marque Apple s’est  lancée à son tour dans la reconnaissance faciale. Cette technologie, en premier lieu utilisée pour l’authentification de l’utilisateur, ouvre bientôt une nouvelle porte aux systèmes de paiement.

Grâce à l’expertise globale de ses membres, l’association EESTEL permet de comprendre et d’examiner toutes les nouvelles technologies utilisées en matière de transaction numérique. Elle possède une vision globale qui lui permet d’apporter un regard légitime et attentif sur le fonctionnement ainsi que sur les limites de ces nouveaux systèmes de reconnaissance.

 

1 – La sortie attendue de l’iPhone X

En septembre 2017, la présentation de l’iPhone X a constitué un événement médiatique important, comme pour chaque apparition d’un nouveau smartphone de la firme Apple. Cette importance provient aussi des nouvelles technologies de cet iPhone X, notamment en ce qui concerne l’authentification de l’utilisateur, appelée « Face ID » : elle se base sur un nouveau capteur 3D appelé « True Depth 3D » et sur le nouveau processeur A11 « Bionic » qui contient un « moteur neuronal » pour ce qui est du traitement de l’image reçue du capteur.

 

2 – Pourquoi Apple a-t-elle choisi la reconnaissance faciale ?

La reconnaissance de visage a un côté nettement moins « policier » que l’empreinte digitale. Il est assez naturel lorsqu’on veut faire quelque chose avec son smartphone de le regarder et donc de lui donner l’occasion de vous authentifier. On peut rétorquer qu’avec l’authentification par empreintes digitales, il est naturel d’appuyer sur le bouton d’accueil avant de faire quelque chose, et que ce bouton peut contenir un capteur d’empreintes. Pour certains, le choix d’Apple est également esthétique. La marque voulait que la face avant soit totalement en verre. Il n’était donc pas question de mettre un capteur d’empreintes de l’autre côté, comme le font nombre de fabricants de smartphones Android. Or il semble difficile avec les technologies actuelles d’intégrer ce type de capteur derrière la glace de la face avant du smartphone. Touch ID a donc été abandonné.

 

3 – Des paiements numériques authentifiés par Face ID

Apple prévoit d’utiliser Face ID non seulement pour l’accueil de l’utilisateur du smartphone, mais aussi pour Apple Pay et d’autres applications sécuritairement sensibles. Apple indique que Face ID est plus sûr que Touch ID puisque le taux de faux acceptés serait de 1/1 000 000, au lieu de 1/50 000. Cette annonce est évidemment difficile à valider, tant l’évaluation de systèmes biométriques est complexe : un taux de 10-6  doit être prouvé avec plusieurs millions de photos, non pas ici des photos 2D mais des photos 3D !  Par ailleurs, Face ID comme Touch ID ou la plupart des systèmes biométriques de smartphone garde la référence biométrique du visage ou de l’empreinte dans une de ses mémoires permanentes sécurisées et le traitement de comparaison entre image captée et l’image de référence se fait en interne dans le smartphone par un processus sécurisé : Apple utilise la dénomination « secure enclave » liée au processeur A11. Donc à priori pas de problèmes de captation et divulgation d’informations d’identification !

 

4 – Les autres applications possibles de la vision 3D

True Depth 3D n’a pas comme unique application la reconnaissance faciale. Apple a développé par exemple une application de jeu où des figurines d’animaux suivent les expressions du visage de l’utilisateur de façon très réaliste. D’autres applications sont certainement possibles, dans le domaine de la photo, des jeux et de la réalité augmentée : des capteurs du type de celui utilisé pour l’iPhone X existent déjà en tant qu’add-on pour les tablettes avec de nouvelles applications : voir par exemple https://structure.io/  ou https://occipital.com/. La méthode « Structured Light » utilisée dans True Depth 3D a été inventée par la société Israélienne PrimeSense, rachetée par Apple en 2013 (https://en.wikipedia.org/wiki/PrimeSense). Ce qui tendrait à prouver qu’Apple a depuis déjà un certain temps misé sur la vision 3D comme porteuse d’avenir dans de nombreuses applications sur smartphone ou tablette.

 

5 – Comment fonctionne la technologie True Depth 3D ?

True Depth 3D est donc un genre de « lidar »  (light detection and ranging) ultra simple : un capteur d’image 3D. Comment les ingénieurs d’Apple ont-ils pu réaliser une telle fonction dans un appareil aussi petit et fin qu’un smartphone, et où la consommation électrique doit être aussi minime ?

5.1 – Un système d’Interprétation des images

La figure 1 rappelle (à gauche) la façon dont est classiquement mesurée la distance par maints appareils grand public (appareils photos, smartphones, mètres…) : le temps de l’aller-retour entre le capteur et l’objet d’une trame lumineuse.  A droite de la figure apparaît la méthode de triangulation appelée « Structured Light » qui ne mesure pas que la distance en un seul point de l’objet, mais sur toute la surface de l’objet. Un faisceau de rayons parallèles (proche infrarouge, invisibles à l’oeil nu) projette sur l’objet à mesurer (par exemple un visage) une grille carrée de points (30 000 environ) dont l’image est captée par la matrice led du smartphone et y est interprétée par un logiciel approprié. En effet l’image de la grille de points subit des déformations en fonction du relief existant sur l’objet sur lequel elle est projetée.                                                                       

 Figure 1

 

Des informations complémentaires peuvent être trouvées dans les brevets US 8,384,997 B2 et Apple’s patent application 20170324949

 

5.2 – Une consommation minimale grâce à Dot projector

La figure 2 montre sur une ligne de la grille que les points images subissent, du fait de la distance existante entre l’émetteur et le capteur des rayons, un décalage (d) en fonction de la profondeur (p) du relief de l’objet.

La figure 3 présente la face avant de l’IPhone X avec l’émetteur ou « dot projector » qui émet le faisceau infrarouge, et le capteur « infrared camera ». Le « dot projector » génère le faisceau infra-rouge qui éclaire l’objet. Ce projecteur se base sur une technologie avancée : un « laser array » appelé « vcsel » (vertical cavity surface emitting laser) mieux adapté du point de vue consommation et encombrement qu’une diode laser avec des dispositifs optiques.

 

6 – Les limites de la reconnaissance biométrique

6.1 – Des empreintes digitales facilement récoltables et falsifiables

La biométrie par empreintes digitales est largement utilisée depuis quelques années, dans beaucoup de smartphones. Elle est bien acceptée dans les systèmes où le capteur est intégré au bouton d’accueil. Mais le défaut de cette technologie vient de sa fragilité sécuritaire. Le smartphone, avec sa surface lisse, est recouvert de traces de doigt et notamment de l’empreinte digitale qui sert pour l’authentification. En cas de vol, par exemple, il semble assez facile pour des voleurs très outillés de reconstituer de faux doigts qui peuvent être authentifiés. Ce défaut existait dans une mesure bien moindre avec les premiers capteurs d’empreintes (Galaxy S5 par exemple) où il fallait glisser le doigt sur une barrette de capteurs. Mais ces capteurs avaient une ergonomie plus discutable.

 

6.2 – La reconnaissance faciale, une technologie encore faillible

La biométrie faciale existe déjà depuis longtemps, même pour les smartphones. Cependant la fragilité de l’authentification de visage vient de l’absence de 3D et du fonctionnement en lumière visible. Beaucoup de logiciels d’authentification peuvent être trompés par une simple photographie ! C’est le cas de certains logiciels du Galaxy S8. Le rajout d’une information 3D à la photo est certainement un bon moyen d’améliorer le procédé. D’autre part, les techniques neuronales dont l’utilisation est mentionnée par Apple ont une faculté d’apprentissage et d’auto-adaptation, permettant sans doute plus de flexibilité et d’efficacité dans la reconnaissance, notamment en ce qui concerne le taux de vrais rejetés.

 

6.3 – Des débuts prometteurs pour Face ID qui reste toutefois fragile

A ce propos, les retours d’expérience d’utilisateurs d’iPhone X semblent positifs. Dans n’importe quelle condition de lumière, l’appareil reconnaît bien son maître, quel que soit son état de fatigue, la qualité de son rasage, ou le maquillage… ! Des articles intéressants sur ce sujet apparaissent dans :

Mais il a été rapporté récemment que le procédé Face ID reste assez fragile. Il suffirait d’avoir une photo, de la coller judicieusement, par morceaux, sur un masque 3D pour que l’authentification fonctionne !

En conclusion, le système idéal d’authentification biométrique ne semble pas exister encore, même si on s’en rapproche, alors que les usages sécuritairement sensibles deviennent de plus en plus fréquents avec les smartphones : paiement et transactions sensibles de toute nature, démarches administratives, vote, etc. Il faut cependant noter que la combinaison de deux procédés d’authentification peut grandement améliorer les performances en termes de faux acceptés.

En se projetant dans l’avenir, on peut tout à fait imaginer des processus d’achats qui fonderaient l’authentification sur une combinaison de systèmes de reconnaissances biométriques. Qui n’a jamais rêvé de faire un achat d’un simple coup d’oeil ? Dans cette véritable révolution des paiements, l’association EESTEL est particulièrement attentive à ces nouvelles possibilités de transactions ainsi qu’à leurs possibles dérives.

 

Jean-Claude Paillès, Consultant

Partager sur :
X