L’algorithme de YouTube est conçu pour vous permettre de regarder des vidéos aussi longtemps que possible, même si cela signifie proposer du contenu de plus en plus extrême.
Tout a commencé par une simple recherche via le mot clé «transgenre» sur YouTube. Alex venait juste de se révéler en tant que trans et cherchait des vidéos d’autres personnes qui avaient vécu une expérience similaire. YouTube a été utile au début, mais a rapidement servi une série de vidéos décrivant la transsexualité comme une maladie mentale et une source de honte.
« YouTube m’a rappelé pourquoi je me suis caché pendant tant d’années », a déclaré Alex, ajoutant que la plateforme « restera toujours un lieu qui rappelle aux personnes LGBT qu’elles sont détestées et fournit aux personnes intolérantes le moyen de vivre de leurs discours de haine » . «
L’algorithme de recommandation de YouTube, qui génère 70% du trafic du site, est conçu pour maximiser les revenus publicitaires tout en permettant aux internautes de regarder du contenu aussi longtemps que possible, même si cela implique de leur proposer un contenu de plus en plus extrême. Alex, qui est identifié ici par un pseudonyme, fait partie des centaines de personnes qui ont été choquées par l’algorithme et ont partagé leurs histoires avec la fondation Mozilla, une organisation à but non lucratif basée à San Francisco qui demande à YouTube de privilégier la sécurité des utilisateurs plutôt que les bénéfices. (l’organisation est également l’unique actionnaire de Mozilla Corp., qui développe le navigateur Web Firefox.)
Un utilisateur de YouTube qui était curieux de connaître des vidéos de découvertes scientifiques a été aspiré dans un réseau de théories du complot et de contenu marginal. Une autre personne à la recherche de «vidéos d’échec» humoristiques s’est vue recommandé des images en rafale d’horribles accidents mortels. Un troisième qui a visionné des vidéos pour développer sa confiance d’une drag queen a fini dans une chambre d’écho de diatribes homophobes.
Grâce à la compilation de nombreuses anecdotes sur ce sujet, qui reflète les conclusions de reportages d’investigation de médias tels que le New York Times, le Washington Post et HuffPost, la fondation Mozilla a pour objectif de montrer à quel point l’algorithme de recommandation peut être puissant.
Plus tôt cette année, YouTube a annoncé qu’il modifierait son algorithme afin de réduire la propagation de la désinformation préjudiciable et du «contenu limite», ainsi que de faire figurer les sources faisant autorité plus en évidence dans les résultats de recherche. La société appartenant à Google a rejeté les recherches de Mozilla et a déclaré que de tels changements avaient déjà donné lieu à des progrès.
« Bien que nous souhaitions davantage de recherches sur ce sujet, nous n’avons pas vu les vidéos, les captures d’écran ou les données en question et nous ne pouvons pas examiner correctement les revendications de Mozilla », a déclaré le porte-parole de YouTube, Farshad Shadloo. «En règle générale, nous avons conçu nos systèmes de manière à garantir que le contenu des recommandations apparaisse clairement dans les recommandations», a-t-il ajouté, soulignant que le nombre de vues de contenu limite a été réduit de moitié depuis que YouTube a modifié son algorithme.
« Les chercheurs indépendants n’ont aucun moyen de vérifier cette affirmation, ce qui les oblige à s’en remettre à des données largement anecdotiques, et c’est une partie du problème », a déclaré Brandi Geurkink, une militante de Mozilla basée en Europe.
La Fondation Mozilla, qui a rencontré YouTube le mois dernier pour discuter de ces questions, se joint à d’autres organisations et activistes pour lancer un appel à la plateforme afin de fournir aux chercheurs un accès à des données sur l’engagement et les impressions, ainsi qu’à des archives historiques de vidéos.
«Ce qui manque vraiment, ce sont des données qui permettent aux chercheurs d’étudier ce problème à grande échelle de manière fiable», a déclaré Geurkink, soulignant la limite de débit de l’API (interface de programmation d’application) de YouTube, qui rend difficile la collecte de données significatives sur le type de contenu promu par YouTube. « Il n’y a pas assez de transparence. »