Les systèmes de reconnaissance faciale envahissent notre quotidien. On les retrouve pour débloquer son smartphone, valider un paiement ou passer une frontière. Aux États-Unis, pays très en avance dans le domaine, de nombreux services publics, comme celui qui gère les allocations-chômage, y ont même recours pour identifier les demandeurs d’aide. Mais selon la société de vérification d’identité ID. me, plus de 80.000 tentatives de fraudes ont été relevées sur le territoire américain entre juin 2020 et janvier 2021.
L’intelligence artificielle au cœur de la technologie
Avec l’analyse des données personnelles, la reconnaissance faciale au service de l’identification des personnes est l’utilisation la plus courante de l’intelligence artificielle. Le principe est assez simple. Un algorithme modélise le visage d’une personne afin de relever des points uniques et de dessiner une empreinte faciale, à la manière d’une empreinte digitale.
Une fois que ce portrait-robot est enregistré, il suffit de scanner de nouveau un individu et de comparer son visage numérique à ceux présents dans la base de données du système. Pour le moment, la reconnaissance d’une personne isolée est plus fiable que lorsque le visage se trouve dans une foule, mais la technologie fait des progrès rapides et l’identification de masse avance, notamment en Chine.
Création et vol d’identité
Hélas, ces nouveaux systèmes attirent les escrocs. L’une des fraudes les plus répandues est celle qui consiste à amalgamer des visages différents en combinant les traits de nombreuses personnes, en utilisant, là encore, l’intelligence artificielle. On appelle cette pratique le « deepfake ». L’idée est de créer des « visages Frankenstein », explique l’entreprise Experian dans son rapport publié en mars 2021.
Ces experts en sécurité informatique estiment en outre qu’une nouvelle fraude est en train de proliférer : celle à la fausse identité synthétique. Cette pratique a longtemps été utilisée par des activistes militants contre la surveillance de masse. Ceux-ci utilisent des maquillages asymétriques afin de tromper les systèmes et de ne pas être reconnus. Aujourd’hui, les escrocs y ont recours pour se façonner une nouvelle identité. Il est aussi relativement aisé de se faire passer pour un autre individu afin d’accéder à son portefeuille numérique ou à son compte en banque, afin d’entrer dans des hôtels, des centres d’affaires, des bureaux ou des hôpitaux.
Click Here: mens f1 polo,classic f1 shirtsDes systèmes trop faibles
Selon le récent rapport d’Adversa, société spécialisée dans la sécurisation de l’IA, « tout système de contrôle d’accès qui a remplacé les agents humains par des caméras de reconnaissance faciale est potentiellement à risque ». Les failles de la reconnaissance faciale résident essentiellement dans la robustesse – ou la faiblesse – des algorithmes. Certains sont tellement peu sûrs qu’ils peuvent être trompés en imprimant simplement la photo de la personne ciblée pour s’en servir comme masque après avoir découpé les yeux. Ces systèmes, que l’on retrouve notamment sur les plateformes de trading, analysent le mouvement du regard pour vérifier s’il s’agit bien de personnes réelles. Par cette méthode, des escrocs chinois ont ainsi pu tromper le fisc et détourner 77 millions de dollars.
Grâce à sa caméra qui projette plus de 30.000 points afin de créer une carte 3D d’un visage, le système Face ID d’Apple reste le plus robuste selon les scientifiques, mais des techniques plus évoluées de contournement circulent. Faire progresser les algorithmes, en leur apprenant à reconnaître, par exemple, un faux visage, est coûteux et les entreprises rechignent à faire les mises à jour nécessaires. Amazon, Idemia, Thales ou encore AnyVision vendent ainsi leur technologie aux entreprises du monde entier, mais leurs services représentent un poste non négligeable.