fbpx

Un espion a utilisé un visage généré par l’IA pour se connecter à ses cibles

Par

le

L’Associated Press a déclaré avoir trouvé la preuve de ce qui semble être un espion potentiel utilisant une photo de profil générée par l’IA pour tromper ses contacts sur LinkedIn.

Depuis quelques temps, la croissance des fakes réalisés à partir d’une intelligence artificielle, comme les deepfakes, inquiète beaucoup de gens, certains experts avertissant même que cette technologie pourrait être utilisée pour répandre des mensonges et de la désinformation en ligne. Mais les preuves réelles de cet effet ont été jusqu’ici minces, c’est pourquoi un nouveau rapport de l’Associated Press révèle des éléments intéressants sur le sujet.

L’AP a déclaré avoir trouvé la preuve de ce qui semble être un espion potentiel utilisant une photo de profil générée à l’aide d’une IA pour tromper ses contacts sur le réseau social LinkedIn.

L’agence indique que le faux profil, nommé Katie Jones, était associé à un certain nombre d’experts en politiques à Washington. Parmi ceux-ci figuraient des personnalités gouvernementales ou bien encore un économiste actuellement candidat à un poste au sein de la Réserve fédérale.

Il est courant d’utiliser LinkedIn pour ce type d’espionnage à faible risque, les États-Unis et l’Europe étant particulièrement préoccupées par les opérations de grande envergure lancées par la Chine. Comme l’a déclaré William Evanina, directeur du centre de contre-espionnage national et de sécurité américain, à l’AP: «Au lieu d’envoyer des espions dans un parking aux États-Unis pour recruter une cible, il est plus efficace de s’asseoir derrière un ordinateur à Shanghai et d’envoyer des demandes d’amis à 30 000 cibles. « 

Mais ce qui rend le cas de «Katie Jones» inhabituel, c’est l’utilisation d’une méthode d’IA connue sous le nom de réseaux adverses génératifs (generative adversarial networks en anglais, ou GAN) pour créer la fausse image de profil du compte.

L’utilisation de GAN pour créer de faux visages est devenue incroyablement facile ces dernières années, comme en témoigne la popularité de sites Web tels que ThisPersonDoesNotExist.com. Bien que les espions utilisant LinkedIn puissent facilement saisir des images de bibliothèques en ligne ou des photos aléatoires de réseaux sociaux pour créer leur compte, l’utilisation d’un cliché réalisé avec une IA ajoute une couche de protection. Étant donné que chaque image est unique, il est impossible de la tracer vers une source avec une recherche d’image inversée pour repérer la supercherie.

Et bien que ces contrefaçons semblent convaincantes au premier abord, elles se révèlent facilement lorsque vous regardez de plus près. Dans le cas de «Katie Jones», vous pouvez voir que le visage est légèrement asymétrique avec un fond indistinct. Les bords de ses cheveux et de son oreille sont également flous et il y a des traînées étranges sur la chair. Plusieurs experts avec lesquels l’AP s’est entretenu ont conclu que l’image était définitivement créée à l’aide de techniques de machine learning.

Un tel incident ne prouve pas, bien sûr, que les fakes ayant recours à l’IA vont détruire notre notion de vérité et de preuve. Mais cela montre que ces préoccupations ne sont pas que théoriques et que cette technologie, comme toutes les autres, va être lentement adaptée par des acteurs malveillants.

Toutefois, s’agissant des espions de LinkedIn, le grand danger n’est pas l’imitation artificielle mais l’inattention. Paul Winfree, économiste et futur membre du conseil de la Réserve fédérale, a déclaré à l’AP: « Je suis probablement le pire utilisateur de LinkedIn dans l’histoire de LinkedIn … J’accepte littéralement toutes les demandes d’amis que je reçois. »

Articles recommandés