Clearview AI, une startup spécialisée dans la reconnaissance faciale, fait l’objet d’une enquête de la part des autorités britanniques et australiennes.
Clearview AI est de nouveau surveillée de près pour ses pratiques d’extraction de données. Cette fois, l’Australie et le Royaume-Uni étudient conjointement les méthodes de collecte biométrique de l’entreprise. Comme cela a été le cas aux États-Unis, les deux pays examinent si la collecte par Clearview de données faciales à partir des réseaux sociaux viole la vie privée.
Le Bureau du commissaire à l’information du Royaume-Uni (ICO) et le Bureau du commissaire à l’information australien (OAIC) enquêtent sur la question, mais n’ont pas publié beaucoup d’informations concernant les objectifs de l’enquête ou ce que les deux organisations souhaitent apprendre. La seule chose connue est que l’enquête se rapporte à la loi britannique sur la protection des données de 2018 et à la loi australienne sur la vie privée de 1988. L’OIC et l’OAIC ont indiqué qu’ils étaient prêts à travailler avec d’autres pays ayant des préoccupations similaires.
Clearview AI affirme disposer d’une base de données contenant plus d’un milliard d’images collectées principalement sur Internet, en particulier sur des sites Web tels que YouTube, Facebook, Instagram et Twitter. La base de données et le logiciel de reconnaissance faciale qui l’utilise sont vendus aux forces de l’ordre pour identifier les suspects criminels. Cependant, les méthodes de collecte ont suscité beaucoup de controverse avec les plateformes exigeant qu’il arrête de collecter les données de leurs utilisateurs.
Les problèmes vont plus loin que simplement «emprunter» des informations biométriques à des personnes sans leur consentement. Plus tôt cette année, la base de données de Clearview a été piratée, exposant sa liste de clients, qui comprenait des entreprises et des organisations notables comme le ministère de la Justice américain, Macy’s, Best Buy et des gouvernements étrangers. Des informations personnelles n’auraient pas été divulguées.
Dans un autre cas de mauvaises pratiques de sécurité, les chercheurs ont trouvé un référentiel d’informations qui n’était pas suffisamment sécurisé. Il contenait des séquences de vidéosurveillance de test et même le code source du logiciel. La sécurité des données biométriques, quelle que soit la manière dont elles ont été obtenues, est une responsabilité à laquelle l’entreprise ne semble pas prête à faire face.
Clearview AI est déjà la cible d’une enquête en matière de confidentialité dans le Vermont. La startup sera probablement confrontée à davantage de poursuites dans les années à venir. Le PDG de la société et inventeur du logiciel Ton-That a soutenu que l’extraction d’informations personnelles sur l’Internet ouvert est protégé par le premier amendement de la Constitution américaine. Bien sûr, le juridique n’est pas égal à l’éthique.