Skip to main content

Alors que Facebook continue de lutter contre les contenus haineux, spams ou montrant de la nudité sur sa plateforme, l’entreprise dévoile quelques chiffres concernant la modération du réseau social.

Le mois dernier, Facebook a publié pour la première fois ses lignes directrices internes de ses standards de la communauté et, hier, l’entreprise a fourni quelques chiffres pour montrer à quoi ressemble réellement cette application. Dans un nouveau rapport qui sera publié tous les trimestres, Facebook recense ses efforts dans six domaines principaux: la violence graphique, la nudité adulte et l’activité sexuelle, la propagande terroriste, le discours de haine, le spam et les faux comptes. Le rapport détaille combien de ce contenu a été vu par les utilisateurs de Facebook, combien de celui-ci a été supprimé et combien a été supprimé avant qu’un utilisateur de Facebook ne le signale.

Les faux comptes et le spam ont été les plus répandus et au premier trimestre de cette année, Facebook a supprimé 837 millions de spams et 583 millions de faux comptes. En outre, la société a agi sur 21 millions de contenus liés à la nudité et à l’activités sexuelles, 3,5 millions de messages présentant un contenu violent, 2,5 millions d’exemples de discours de haine et 1,9 million de contenus terroristes.

Dans certains cas, les systèmes automatisés de Facebook ont ​​fait du bon travail en trouvant et en signalant le contenu avant que les utilisateurs ne puissent le signaler. Ses systèmes ont recensé près de 100% des spams et de la propagande terroriste, près de 99% des faux comptes et environ 96% des messages concernant la nudité et l’activité sexuelle d’adultes. Pour la violence graphique, la technologie de Facebook représentait 86% des rapports. Cependant, en matière de discours de haine, la technologie de l’entreprise ne signale que 38% des messages sur lesquels elle a pris des mesures et Facebook note qu’elle a encore du travail à faire. « Comme l’a dit Mark Zuckerberg à la F8, nous avons encore beaucoup de travail à faire pour éviter les abus », a déclaré Guy Rosen, vice-président de la gestion des produits chez Facebook. « C’est en partie que la technologie comme l’intelligence artificielle, bien que prometteuse, est encore loin d’être efficace pour le plus mauvais contenu parce que le contexte est très important. »

Tout au long du rapport, Facebook indique comment les chiffres du dernier trimestre se comparent à ceux du trimestre précédent, et s’il y a des changements importants, la société note pourquoi cela pourrait être le cas. Par exemple, avec la propagande terroriste, Facebook affirme que son taux de suppression accru est dû à des améliorations dans la technologie de détection de photos qui peuvent repérer à la fois le contenu ancien et le contenu nouvellement affiché.

Vous pouvez lire le rapport complet ici et Facebook a également fourni un guide pour le rapport ainsi qu’un article sur les questions difficiles sur la façon dont il mesure l’impact de son application. « C’est un excellent premier pas », a déclaré Jillian York de l’Electronic Frontier Foundation au Guardian. « Cependant, nous n’avons pas d’idée sur le nombre de suppressions incorrectes ni combien d’appels aboutissant à la restauration du contenu. Nous aimerions également que les utilisateurs reçoivent de meilleurs messages lorsqu’une action a été effectuée sur leur compte, afin qu’ils puissent connaître la violation spécifique. »

« Nous croyons qu’une transparence accrue tend à accroître la responsabilisation et la responsabilité au fil du temps, et la publication de cette information nous permettra également de nous améliorer plus rapidement », a écrit Rosen. « Ce sont les mêmes données que nous utilisons pour mesurer nos progrès en interne, et vous pouvez maintenant le voir pour juger de nos progrès pour vous-mêmes. »