Des chercheurs de la Carnegie Mellon University de Pittsburgh ont présenté des lunettes spécialement conçues pour tromper les logiciels de reconnaissance faciale les plus modernes.
Fatigué d’être automatiquement tagué avec le système de reconnaissance faciale de Facebook ? Porter une paire de lunettes spéciale pourrait aider. Des chercheurs de la Carnegie Mellon University de Pittsburgh ont récemment mené une étude montrant qu’une paire de lunettes spéciale pouvait tromper les logiciels de reconnaissance faciale les plus modernes en faisant croire au logiciel que l’utilisateur est quelqu’un d’autre.
Dans un article présenté lors d’une conférence sur la sécurité le 28 octobre, les chercheurs ont montré qu’ils pouvaient tromper les systèmes de reconnaissance faciale. Avec une paire de lunettes, l’équipe a forcé un logiciel de reconnaissance faciale a identifier la mauvaise personne avec un taux de réussite de 100%. Les chercheurs ont eu le même succès en leurrant le logiciel Face ++, que le géant chinois du e-commerce Alibaba utilise pour sa fonction « Smile to Pay ».
Le logiciel de reconnaissance faciale moderne s’appuie sur des réseaux de neurones profonds, une technologie d’intelligence artificielle qui apprend des modèles de millions de données. Lorsqu’on lui montre des millions de visages, le logiciel apprend l’idée d’un visage, et comment les différencier.
Comme le logiciel apprend ce à quoi ressemble un visage, il s’appuie lourdement sur certains détails – comme la forme du nez et des sourcils. Les lunettes de Carnegie Mellon ne couvrent pas seulement ces traits du visage, mais sont imprimés avec un motif qui est perçu par l’ordinateur comme les détails du visage d’une autre personne.
Dans leur test, un sujet de sexe masculin blanc portant les lunettes a été identifié comme l’actrice Milla Jovovich, avec 87,87% de précision. Une femme asiatique portant ces mêmes lunettes a trompé l’algorithme en se faisant détecter comme un homme du Moyen-Orient avec la même précision. Parmi les personnes notables dont les visages ont été utilisés, en plus de Milla Jovovich, il y a Carson Daly, Colin Powell et John Malkovich. Les chercheurs ont utilisé environ 40 images de chaque personne pour produire les lunettes utilisées.
Le test n’était pas théorique: la CMU imprimait les lunettes sur un papier photo glacé et les personnes portaient la paire devant une caméra dans un scénario destiné à simuler l’accès à un bâtiment nécessitant une reconnaissance faciale. Chaque paire de lunettes coûte 0,22 $ à produire. Lorsque les chercheurs ont testé leur prototype face à un système commercial de reconnaissance faciale, Face ++, qui a des partenaires comme Lenovo et Intel et qui est utilisé par Alibaba pour les paiements sécurisés, ils ont été en mesure de générer des lunettes réussies qui personnifiées quelqu’un d’autre dans 100% des tests. Cependant, ceci a été testé numériquement – les chercheurs ont édité les lunettes sur une image, donc dans le monde réel, le taux de succès pourrait être moindre.
Le travail du CMU s’appuie sur des recherches antérieures de Google, OpenAI et de la Pennsylvania State University qui ont constaté des défauts récurrents avec la façon dont les réseaux neuronaux profonds sont formés. En exploitant ces vulnérabilités avec des données intentionnellement malveillantes appelées « exemples contradictoires », comme l’image imprimée sur les lunettes dans cet essai du CMU, les chercheurs ont toujours été en mesure de forcer l’IA à prendre des décisions qu’il ne ferait pas autrement.
Dans ce cas précis, cela signifie qu’une femme âgée de 40 ans peut se faire passer pour John Malkovich, mais leur exploit pourrait également être utilisé par quelqu’un qui tente de pénétrer dans un bâtiment ou de voler des fichiers à partir d’un ordinateur.