Des chercheurs en sécurité ont découvert un immense réseau d’échange de faux nus sur l’application Telegram.
Une étude récente a révélé plus de 100 000 fausses photos nues de femmes basées sur des images des réseaux sociaux, qui ont ensuite été partagées en ligne.
Ce type de technologie deepfake n’est pas une nouveauté. Des logiciels similaires ont malheureusement été utilisés pour produire de faux contenus pornographiques de célébrités depuis des années.
Cette nouvelle augmentation spectaculaire des images provient d’un « bot deepfake » résidant dans une chaîne privée de l’application de messagerie Telegram. Les utilisateurs peuvent envoyer des photos classiques de femmes, et le bot les déshabillera et les diffusera sur la plateforme de messagerie.
L’administrateur du service, connu sous le nom de « P » en ligne, a répondu à ce rapport: « Je m’en fiche. C’est un divertissement qui ne comporte pas de violence. » P a poursuivi en disant que la qualité des images était suffisamment irréaliste pour ne pas être utilisée pour le chantage et a minimisé le préjudice de l’application, déclarant: « Il y a des guerres, des maladies, beaucoup de mauvaises choses qui sont nuisibles dans le monde. »
Sensity, la société de renseignement qui effectue des recherches sur ce récent phénomène, a déclaré qu’entre juillet 2019 et 2020, 104 852 femmes auraient été ciblées par des images partagées publiquement. Une recherche de suivi sur les pages sur lesquelles le bot deepfake a été annoncé a révélé que ce nombre pourrait en fait être plus proche des 680 000 personnes ciblées.
« Avoir un compte sur les réseaux sociaux avec des photos publiques suffit à n’importe qui pour devenir une cible », a averti le directeur général de Sensity, Giorgio Patrini. Bien que la technologie ne soit pas nouvelle, Patrini dit que cibler les particuliers est une pratique «relativement nouvelle».
Des journalistes de la BBC ont essayé ce robot avec le consentement des participants et ont trouvé que les résultats étaient «médiocres», y compris une image d’une «femme avec un nombril sur son diaphramme».

Certaines des images révélées dans cette enquête semblaient être celles de mineures, « suggérant que certains utilisateurs utilisaient principalement le bot pour générer et partager du contenu pédophile. »
En tant qu’administrateur, P a déclaré que le contenu pédophile était supprimé s’il était trouvé et a même affirmé qu’il supprimerait bientôt toutes les images partagées sur la plateforme.
Des enquêtes auprès des utilisateurs de ce bot-service ont montré que 70% des quelque 101 000 membres venaient de pays russes et ex-URSS où Telegram est une application de messagerie populaire. Les recherches de Sensity ont également montré que le bot faisait beaucoup de publicité sur le site Web des médias russes, VK.
« Beaucoup de ces sites Web ou applications ne se cachent pas ou ne fonctionnent pas sous terre, car ils ne sont pas strictement interdits », a déclaré Giorgio Patrini de Sensity. « Jusqu’à ce que cela se produise, j’ai peur que cela ne fasse qu’empirer. »
Les victimes de fake porno peuvent être gravement touchées à la fois personnellement et professionnellement, et par conséquent, certains États américains ont interdit la loi, bien qu’elle ne soit pas interdite au niveau national.
Un rapport de l’Université de Durham et de l’Université du Kent a décrit l’état d’avancement des protections juridiques contre les deepfakes et la vengeance pornographique au Royaume-Uni comme étant « incohérent, dépassé et déroutant ».
Les auteurs du rapport Sensity ont apparemment partagé ces informations avec les forces de l’ordre, la plateforme et les groupes de médias en question, mais n’ont reçu aucune réponse.



