Skip to main content

Facebook a annoncé l’utilisation du machine learning pour arrêter la propagation des fake news et canulars sur sa plateforme.

La lutte de Facebook contre les fake news, les canulars et les spammeurs semble être une lutte sans fin, mais l’entreprise fait de son mieux pour maintenir la pression sur les personnes à l’origine de ces articles. Hier, le réseau social a annoncé un certain nombre de nouvelles mesures, y compris l’utilisation du machine learning pour repérer les articles de canular copiés et collés par différents comptes.

Ce n’est pas la première fois que Facebook annonce utiliser l’I.A. pour cibler un contenu trompeur. Et même si la technologie ne peut pas vérifier automatiquement les articles ou faire des jugements nuancés sur les titres trompeurs, elle peut tout de même reconnaître des signaux facilement identifiables qui suggèrent qu’un compte est frauduleux. Comme, par exemple, repérer des copies d’histoires que les « fact-checkers » humains ont déjà identifiés comme faux.

Dans une interview accordée à BuzzFeed News, la responsable de l’intégrité du fil d’actualité, Tessa Lyons, est allée plus en détail sur cette utilisation du machine learning, affirmant que ses filtres essayaient maintenant de prédire quelles pages seraient « susceptibles » de partager du mauvais contenu. Cela inclut la recherche d’administrateurs de page qui vivent dans un pays mais ciblent les utilisateurs dans un autre pays, un moyen courant pour les spammeurs des pays d’Europe de l’Est de gagner de l’argent. « Ces administrateurs ont souvent des comptes suspects qui ne sont pas faux mais qui sont identifiés dans notre système comme ayant une activité suspecte », a déclaré M. Lyons.

Lyons a admis qu’il était possible que ces systèmes automatisés puissent cibler des sites légitimes par accident, mais elle a dit que la compagnie se sentait «plutôt confiante» pour éviter les erreurs. Facebook dit prendre des mesures contre les pages et les sites qui propagent fausses nouvelles et canulars en « réduisant leur portée et en supprimant leur capacité à monétiser. » Cette dernière partie est essentielle, car la plupart de ces sites n’existeraient même pas sans la promesse d’une récompense financière.

Dans son blog, Facebook a détaillé un certain nombre d’autres nouvelles mesures prises. Il s’agit notamment de travailler avec des fact-checkers tiers dans plus de pays (le site opère maintenant dans 14 pays et «prévoit de passer à d’autres … d’ici la fin de l’année») et d’élargir les essais de vérification des photos et vidéos individuelles présentées hors contexte (par exemple, présenter des images d’une guerre plus ancienne comme si elles présentaient un conflit d’aujourd’hui).

En fin de compte, ce sont des systèmes comme ceux-ci, qui impliquent des fact-checkers humains, qui sont les plus efficaces pour identifier les fausses informations. Mais l’I.A. peut toujours fournir une aide utile.