Skip to main content

La technologie de reconnaissance faciale utilisée par la police britannique, y compris à Londres, se trompe d’identité 81% du temps.

Selon les conclusions de l’Université d’Essex, la technologie de reconnaissance faciale cible à tort quatre innocents sur quatre comme innocents recherchés. Le rapport, commandé par Scotland Yard, a révélé que la technologie utilisée par la police métropolitaine du Royaume-Uni est erronée à 81% et conclut qu’il est « hautement possible » que le système soit déclaré illégal s’il était contesté devant un tribunal.

Le rapport, obtenu par Sky News, constitue la première évaluation indépendante du programme depuis sa première utilisation au carnaval de Notting Hill en août 2016. Depuis lors, il a été utilisé dans 10 lieux différents, notamment à Leicester Square et lors des cérémonies de la Journée nationale du souvenir des victimes et des héros de la déportation. Les chercheurs ont mesuré la précision de la technologie à six de ces endroits et ont découvert que sur 42 « correspondances suspectes », seuls huit étaient corrects, ce qui donne un taux d’erreur de 81%.

Cependant, le Met mesure l’exactitude d’une manière différente, en comparant les correspondances réussies et non réussies avec le nombre total de visages traités par le système. Si interprété de cette manière, le taux d’erreur n’est que de 0,1%. Les auteurs du rapport, quant à eux, ont déclaré que leurs conclusions posaient « d’importantes préoccupations ». Ce n’est pas la première fois que la police britannique est sous le feu des critiques pour de telles inexactitudes. En 2018, la police du Pays de Galles du Sud du Pays de Galles a mal identifié 2 300 personnes comme des criminels potentiels.

L’utilisation de la technologie de reconnaissance faciale a explosé ces derniers temps, avec l’installation de systèmes dans les centres de transports en commun et lors de grands événements. Malgré quelques « succès » apparents, tels que l’identification d’un voyageur illégal à l’aéroport de Dulles trois jours seulement après le lancement du système, la technologie continue de poser un certain nombre de dilemmes éthiques et juridiques. En Chine, par exemple, la reconnaissance faciale est utilisée pour surveiller les minorités ethniques et suivre le comportement des enfants en classe. Entre-temps, un certain nombre de géants de la technologie ont clairement exprimé leurs appréhensions à propos de la technologie. Microsoft a exprimé sa volonté d’une réglementation appropriée, tandis que Apple et Google ont exprimé des préoccupations similaires. Comme le montre ce nouveau rapport, la technologie a encore beaucoup de chemin à parcourir avant de pouvoir être considérée comme réellement fiable.