Skip to main content

Pour lutter contre le « revenge porn », Facebook veut étendre son programme de machine-learning au monde entier, avec de nouvelles fonctionnalités.

A l’automne dernier, Facebook a fait parler de lui lorsqu’il a été révélé que le réseau social testait une approche non conventionnelle pour lutter contre le « revenge porn ». Celle-ci consiste à demander aux utilisateurs de télécharger des photos intimes sur les serveurs de l’entreprise. Aujourd’hui, la division de la sécurité officielle de Facebook dit étendre ce programme pilote, initialement réservé à l’Australie, aux pays suivants : États-Unis, au Royaume-Uni et au Canada.

Dans un message publié sur le compte Facebook Safety, Antigone Davis, chef de la sécurité chez Facebook, affirme que l’entreprise «s’associe aux organisations de sécurité pour que les gens puissent soumettre en toute sécurité des photos qu’ils craignent d’être partagées sans leur consentement sur Facebook, Instagram et Messenger.»

Ici, Facebook utilise une approche technique connue sous le nom de hashing pour marquer des photos sexuellement explicites qu’un utilisateur craint de voir circuler sans son consentement. Un hachage est une représentation numérique d’un fichier qui, selon Facebook, ne peut pas être lu par des humains, et l’image réelle visible est ensuite supprimée des serveurs de l’entreprise une fois le hachage enregistré.

Facebook dit que cela peut être fait une fois qu’une image a déjà circulé ou dans le cas où un utilisateur soupçonne un tiers malveillant, comme un ex-partenaire ou quelqu’un abusant et harcelant une victime en ligne. Le processus implique de contacter l’un des partenaires de confiance de Facebook, dont le bureau australien du commissaire eSafety, la Cyber ​​Civil Rights Initiative et le National Network to End Domestic Violence aux États-Unis, le UK Revenge Porn Helpline et le YWCA Canada. L’utilisateur remplit alors le formulaire, reçoit un lien de téléchargement unique et peut ensuite télécharger les images.

Facebook insiste sur le fait qu’une équipe d’employés passe en revue les photos manuellement, pour confirmer que le contenu est en violation des conditions de service de l’entreprise et constitue une description généralement acceptée de «l’image intime non consensuelle» impliquant généralement de la nudité à des degrés variés. Le processus de hachage garantit ensuite que Facebook est averti chaque fois que le fichier est téléchargé à une date ultérieure. « Une fois que nous avons créé ces hachages, nous informons la victime par e-mail et supprimons les images de nos serveurs, au plus tard sept jours », explique Davis. « Nous stockons les hachages de sorte que chaque fois que quelqu’un essaie de télécharger une image avec la même empreinte digitale, nous pouvons l’empêcher d’apparaître sur Facebook, Instagram ou Messenger. »

Ce que Davis ne mentionne pas, c’est tout ce qui concerne Cambridge Analytica et le scandale actuel de confidentialité des données qui a ébranlé la confiance dans Facebook en tant que gardien des données personnelles des utilisateurs. Bien qu’il n’y ait aucune raison de croire que Facebook agirait si négligemment avec des données aussi sensibles que des photos explicites de ses utilisateurs, on ne peut pas dire à quel point le scandale de Cambridge Analytica a été dommageable pour la perception générale de l’entreprise. Le cours de l’action de la société s’est largement redressé et le réseau social ne semble pas y avoir enregistré un départ d’utilisateurs massif. Pourtant, le sentiment général à l’égard de Facebook, au moins anecdotique, peut ne pas être aussi positif qu’à l’automne dernier, ce qui laisse croire que les utilisateurs seraient moins enclins à faire confiance à Facebook avec des photos intimes d’eux-mêmes.

Davis dit que l’approche est constamment amélioré, et que l’équipe de sécurité de Facebook a parcouru le monde pour écouter les histoires des victimes sur l’impact du « revenge porn » et toutes les formes que cela peut prendre en ligne. « C’est une étape pour aider les gens qui craignent qu’une image intime soit partagée sans leur consentement », écrit Davis. «Nous sommes impatients d’apprendre de ce projet pilote et d’améliorer davantage nos outils pour les personnes dans des situations dévastatrices comme celles-ci. »