Selon une nouvelle étude réalisée par la fondation Mozilla, YouTube continue de recommander des vidéos nuisibles.
Que le flux de recommandations YouTube basé sur le machine learning puisse fréquemment faire apparaître les résultats d’un penchant énervé ou même radicalisé n’est plus vraiment une question. YouTube lui-même a poussé des outils qui, selon lui, pourraient donner aux utilisateurs plus de contrôle sur leur flux et de transparence sur certaines recommandations, mais il est difficile pour les étrangers de savoir quel type d’impact ils ont. Maintenant, après avoir passé une grande partie de l’année dernière à collecter des données à partir de l’extension RegretsReporter (disponible pour Firefox ou Chrome), la Fondation Mozilla a plus d’informations sur ce que les gens voient lorsque l’algorithme fait le mauvais choix et a publié un rapport détaillé (pdf).
En septembre 2020, l’extension a été lancée, adoptant une approche de crowdsourcing pour trouver du contenu «regrettable» que les gens rencontrent via le moteur de recommandation. Après avoir reçu 3 362 rapports (ainsi que des données de personnes qui ont installé l’extension mais n’ont pas soumis de rapports), les tendances des données montrent le danger de l’approche de YouTube.
Bien que la fondation affirme avoir délibérément gardé le concept de « regret » vague, elle a estimé que 12,2 % des vidéos signalées enfreignaient les propres règles de YouTube en matière de contenu, et a noté qu’environ 9 % d’entre elles (près de 200 au total) ont été supprimées de YouTube, après avoir accumulé plus de 160 millions de vues. En ce qui concerne la raison pour laquelle ces vidéos ont été publiées en premier lieu, une explication possible est qu’elles sont populaires, Mozilla a noté que les vidéos signalées comptaient en moyenne 70 % de vues de plus par jour que les autres vidéos regardées par des bénévoles.
Le directeur principal du plaidoyer de Mozilla, Brandy Guerkink, a déclaré: « YouTube doit admettre que son algorithme est conçu de manière à nuire et à désinformer les gens. » Pourtant, deux statistiques en particulier m’ont sauté aux yeux de l’étude : » Mozilla dit « dans 43,3% des cas où nous avons des données sur les pistes qu’un volontaire a regardé avant un Regret, la recommandation n’avait aucun rapport avec les vidéos précédentes que le volontaire a regardées. » De plus, le taux de vidéos regrettables signalées était 60 % plus élevé dans les pays où l’anglais n’est pas la langue principale. Malgré la petite taille de l’échantillon et le biais de sélection possible des données, cela indique qu’il y a plus à regarder dans les endroits où les personnes qui parlent principalement anglais ne font même pas attention.
NBC News a inclus une déclaration de YouTube concernant le rapport qui affirmait que « au cours de la seule année écoulée, nous avons lancé plus de 30 changements différents pour réduire les recommandations de contenu préjudiciable ». Ils ont eu une réponse similaire lorsque le projet a été lancé l’année dernière. Les réformes suggérées par Mozilla incluent des rapports de transparence et la possibilité de refuser la personnalisation, mais avec YouTube tirant plus de 6 milliards de dollars par trimestre de la publicité, s’éloigner du profilage semble douteux.