Selon Bloomberg, YouTube a ignoré les appels de ses employés à traiter et à supprimer des vidéos toxiques afin de garder l’attention des utilisateurs.
YouTube a peut-être récemment mis en place un certain nombre de mesures pour lutter contre les vidéos sur les vidéos toxiques et les théories du complot, mais la plateforme n’a pas toujours été aussi pressée de le faire. Selon un nouveau rapport, la société a ignoré les avertissements de ses employés concernant ce type de contenu, car elle souhaitait renforcer l’engagement des utilisateurs.
Bloomberg a parlé à 20 travailleurs actuels et anciens de YouTube, qui ont déclaré que ces derniers avaient formulé des suggestions sur la manière de traiter les vidéos toxiques et fake au cours des dernières années. Toutefois, les dirigeants n’ont pas voulu arrêter de les recommander aux internautes ou de suivre leur popularité, craignant que cela n’affecte les chiffres de l’engagement du site.
L’une des idées était de cesser de recommander ces vidéos troublantes mais qui ne contrevenaient pas à la politique du site sur le discours de haine. La société a rejeté le plan en 2016 et n’a décidé de mettre en œuvre que quelque chose de similaire en janvier de cette année.
Les avocats ont conseillé aux employés de YouTube qui ne faisaient pas partie des équipes de modération de ne pas rechercher de vidéos toxiques. S’il n’y avait aucune preuve que le personnel savait que ce contenu existait, la société serait moins responsable.
Une personne a déclaré qu’avant l’acquisition de YouTube par Google en 2006, le site Web traitait rapidement les vidéos problématiques, mais que cela a changé après la prise de contrôle et que la société a commencé à mettre les bénéfices avant tout.
La situation est devenue tellement difficile que cinq cadres supérieurs ont quitté la société à cause de « l’incapacité de YouTube à gérer des vidéos extrêmes et dérangeantes ». Une ancienne employée a déclaré que la chef de la direction, Susan Wojcicki, n’avait jamais traité le contenu, préférant seulement se concentrer sur la gestion de la société. Certains ont qualifié le problème de «mauvaise viralité».
Un porte-parole de YouTube a déclaré que la société avait commencé à modifier son algorithme de recommandation en 2016 et avait démonétisé les chaînes qui hébergeaient des vidéos toxiques un an plus tard.
Bien que des vidéos troublantes restent sur le site, YouTube en fait plus pour riposter, supprimant 8,8 millions de chaînes pour violation de ses consignes au quatrième trimestre 2018.
Mise à jour du jeudi 4 avril à 19h08:
Voici la déclaration du porte-parole de YouTube France.
« Nous avons eu pour objectif principal au cours des deux dernières années de nous attaquer à des défis extrêmement complexes relatifs aux contenus sur notre plateforme, en tenant compte des commentaires et des préoccupations des utilisateurs, des créateurs, des annonceurs, des experts et des employés. Nous avons pris un certain nombre de mesures importantes, comme notamment la mise à jour de notre système de recommandations pour empêcher la propagation de fausses informations nuisibles; l’amélioration de la diffusion d’informations en provenance de médias sur YouTube; le fait d’atteindre le nombre de 10 000 personnes travaillant sur les problématiques de retrait de contenu chez Google; l’investissement dans l’apprentissage automatique afin de pouvoir trouver et supprimer encore plus rapidement les contenus non autorisés ainsi que la révision et la mise à jour de nos Règles de la communauté – nous avons réalisé plus de de 30 mises à jour en 2018. Et ce n’est pas fini, être responsable reste notre priorité numéro un. »