fbpx

Les modérateurs de Facebook sont impactés psychologiquement par le contenu contrôlé

Par

le

Certains modérateurs de Facebook souffrent de symptômes de stress post-traumatique et commencent à croire aux théories du complot bizarres en raison de documents perturbants qu’ils doivent visionner.

Selon un nouveau rapport, les modérateurs de Facebook qui consultent des contenus troublants sur le site souffrent d’attaques de panique et de troubles mentaux dus au stress de l’emploi.

Les modérateurs, qui travaillent pour la plupart à contrat et perçoivent de bas salaires, gèrent le stress en prenant des drogues, en buvant de l’alcool, en faisant des blagues offensantes et en ayant des rapports sexuels sur le lieu de travail, selon une enquête du site Web The Verge.

S’exprimant sur le site technologique américain, les employés ont déclaré qu’ils estimaient que les activités thérapeutiques et les conseils fournis par Facebook pour faire face à leur exposition à du contenu inapproprié en ligne étaient inadéquats. Le rapport ajoute qu’un modérateur a reçu un diagnostic de stress post-traumatique et qu’il dort maintenant avec une arme à la main, à la suite du traumatisme provoqué par la vidéo d’un homme poignardé à mort.

D’autres anciens sous-traitants ont déclaré qu’une exposition répétée aux théories du complot sur Facebook les avait rendus plus enclins à croire en ces théories elles-mêmes. Certains modérateurs croyaient en des mensonges, notamment que l’Holocauste n’avait jamais eu lieu et que l’attaque terroriste du 11 septembre à New York faisait partie d’un complot après avoir lu du contenu connexe sur Facebook.

Le Harvard Digital Journal of Law & Technology a écrit l’année dernière que le recours croissant aux entreprises de modération était «préoccupant».

« L’un des plus gros problèmes lors de l’évaluation des systèmes existants est que nous disposons de peu d’informations à leur sujet. Les sociétés sont intentionnellement opaques et résistent à toute tentative des autres d’enquêter sur les procédures existantes. Il existe de plus en plus de preuves que la modération du contenu, telle qu’elle est actuellement constituée, comporte des risques psychologiques considérables pour l’employé. »

Facebook a redoublé d’efforts pour supprimer les publications liées aux crimes violents, à la pornographie violente et aux discours de haine, en s’appuyant sur des sociétés partenaires spécialisées pour passer au crible le déluge de contenu potentiellement offensant et décider de sa suppression.

L’entreprise de Mark Zuckerberg fournit aux contractants de modération des copies de ses règles indiquant le contenu à supprimer et les messages autorisés à rester sur le réseau social. Mais The Verge a indiqué qu’il était souvent difficile de déterminer dans certains cas si certains contenus étaient autorisés sur le site.

Facebook a depuis reconnu qu’il devait faire davantage pour soutenir le bien-être des modérateurs qui retirent les contenus préjudiciables du réseau social.

Justin Osofsky, vice-président des opérations mondiales de Facebook, a déclaré: « Nous nous sommes engagés à travailler avec nos partenaires pour exiger un niveau élevé de soutien de leurs employés; c’est notre responsabilité et nous le prenons au sérieux. »

Articles recommandés