Skip to main content

Une fois de plus, Facebook modifie la façon dont les posts se propagent dans le fil d’actualité, afin de réduire la portée du contenu clickbait.

Facebook modifie la façon dont les posts se propagent dans le fil d’actualité des utilisateurs, afin d’éviter que des articles «sensationnalistes et provocateurs» ne soient trop visibles. L’objectif n’est pas simplement de réduire le nombre de clics, mais de réduire la désinformation et les messages problématiques.

Dans un article de blog, Mark Zuckerberg, PDG de Facebook, écrit que les gens font naturellement circuler davantage le contenu sensationnel à leurs amis. Au lieu de revoir ses conditions sur ce qui doit être interdit sur la plateforme, Facebook va modifier ses algorithmes de distribution. Les publications que l’IA de Facebook considère comme étant inutilement provocantes seront diffusées de moins en moins, ce qui les empêchera de constater une hausse de l’engagement.

Zuckerberg pense que cela dissuadera les gens de créer et de publier ce type de contenu, ce qui conduira finalement à une meilleure expérience pour les utilisateurs et à une polarisation moindre.

Facebook utilise le terme «contenu limite» pour décrire les posts qui seront affectés par ce changement. L’article du blog donne deux exemples: «des photos proches de la ligne de nudité, comme avec des vêtements révélateurs ou des positions sexuellement suggestives» et «des articles qui n’entrent pas dans notre définition du discours de haine, mais qui restent offensants». Zuckerberg ne dit explicitement que l’algorithme a été ajusté quand il s’agit de la nudité, mais l’implication est qu’il s’applique aux reportages et plus.

Les changements ont été annoncés aujourd’hui aux côtés d’une foule d’autres mises à jour sur la manière dont Facebook traite le contenu problématique. Facebook a déclaré qu’il élargirait son processus d’appel en matière de modération du contenu; La société créera également un conseil de surveillance indépendant destiné essentiellement à jouer le rôle de Cour suprême lorsqu’il s’agira de résoudre des problèmes de modération, afin de résoudre partiellement le problème de Facebook.
Voici un tableau totalement non scientifique créé par Facebook pour illustrer son fonctionnement: