Facebook a supprimé 8,7 millions d’images pédopornographiques au dernier trimestre grâce à l’IA

Par

le

Facebook a déclaré que les modérateurs de la société au cours du dernier trimestre avaient supprimé 8,7 millions d’images pédopornographiques à l’aide d’un logiciel qui marque automatiquement ces photos.

Facebook a déclaré mercredi que les modérateurs de la société au cours du dernier trimestre avaient supprimé 8,7 millions d’images d’utilisateurs liées à de la pédopornographie, à l’aide d’un logiciel non divulgué auparavant qui marque automatiquement de telles photos.

L’outil de machine learning déployé au cours de la dernière année identifie les images contenant à la fois de la nudité et un enfant, ce qui permet de mieux appliquer l’interdiction de Facebook sur les photos montrant des mineurs dans un contexte sexualisé. Un système similaire également divulgué mercredi identifie les comptes qui impliquent des interactions potentiellement inappropriées avec des enfants sur Facebook.

Dans une interview à Reuters, Antigone Davis, responsable de la sécurité mondiale pour Facebook, a déclaré que la « machine nous aide à hiérarchiser les priorités » et à « mettre plus efficacement en file d’attente » un contenu problématique pour l’équipe de modérateurs formée de l’entreprise.

La société envisage d’appliquer la même technologie à son application Instagram.

Sous la pression des régulateurs et des législateurs, Facebook s’est engagé à accélérer l’élimination des contenus extrémistes et illicites. Des programmes de machine learning qui parcourent les milliards de contenus postés chaque jour par les utilisateurs sont essentiels à sa planification.

Le machine learning est imparfait, et les agences de presse et les annonceurs sont parmi ceux qui se sont plaints cette année des systèmes automatisés de Facebook qui bloquaient à tort leurs publications.

Davis a déclaré que les systèmes de sécurité pour enfants feraient des erreurs, mais les utilisateurs pourraient faire appel.

« Nous préférerions faire preuve de prudence en ce qui concerne les enfants »
, a-t-elle déclaré.

Depuis des années, les règles de Facebook interdisent même les photos de famille d’enfants légèrement vêtus chargés de «bonnes intentions», inquiets de la manière dont d’autres pourraient utiliser ces images.

Avant le nouveau logiciel, Facebook comptait sur les utilisateurs ou ses filtres de nudité pour adultes pour repérer des images d’enfants. Un système distinct bloque la pornographie enfantine qui avait déjà été signalée aux autorités.

Facebook n’a pas encore divulgué de données sur les retraits de contenus pédopornographiques, bien que certains auraient été comptés parmi les 21 millions de messages et commentaires supprimés au premier trimestre pour activité sexuelle et nudité pour adultes.

Michelle DeLaune, directrice des opérations du Centre national pour les enfants disparus et exploités (NCMEC), a déclaré que l’organisation s’attend à recevoir 16 millions de contenus sur la maltraitance d’enfants dans le monde cette année. L’année dernière, l’association recevait 10 millions de contenus.

Avec cette augmentation, le NCMEC a annoncé sa collaboration avec Facebook pour améliorer le logiciel et permettre de décider quels critères évaluer en premier sur les images abusives. Néanmoins, DeLaune a reconnu que les applications de chat cryptées et les sites Web « secrets » sur lesquels se nichent une grande partie de la nouvelle pornographie enfantine constituent un angle mort crucial.

Le cryptage des messages sur WhatsApp appartenant à Facebook, par exemple, empêche leur apprentissage par les outils de les analyser.

DeLaune a déclaré que le NCMEC éduquerait les entreprises de technologie et « espère qu’elles utiliseront la créativité » pour résoudre le problème.

Articles recommandés