fbpx

Google met en ligne sa nouvelle IA de détection d’images pédophiles

Par

le

La dernière tentative de Google pour lutter contre la diffusion en ligne de matériel pédopornographique se présente sous la forme d’une IA capable d’identifier rapidement les images qui n’ont pas encore été répertoriées.

L’éradication de la diffusion de matériel pédopornographique est une priorité pour les grandes entreprises du Web. Mais c’est aussi un travail difficile et pénible pour ceux qui sont en première ligne : les modérateurs humains qui doivent identifier et supprimer les contenus abusifs. C’est pourquoi Google publie aujourd’hui un logiciel d’IA gratuit conçu pour aider ces personnes.

La plupart des solutions technologiques dans ce domaine fonctionnent en vérifiant les images et les vidéos par rapport à un catalogue de matériel abusif précédemment identifié. Ce type de logiciel, appelé «robot d’exploration», constitue un moyen efficace d’empêcher les utilisateurs de partager des fichiers illicites déjà identifiés. Mais il ne peut pas y repérer le contenu qui n’a pas déjà été classé comme illégal. Pour cela, les modérateurs humains doivent intervenir et revoir eux-mêmes le contenu.

C’est là que le nouvel outil d’IA de Google sera utile. Grâce à l’expertise de la société en matière de vision industrielle, cela aiderait les modérateurs à trier les images et les vidéos marquées et à «hiérarchiser le contenu qui le plus susceptible d’être pédopornographique pour une analyse». Cela devrait permettre un processus de révision beaucoup plus rapide. Dans un essai, explique Google, l’outil d’IA a aidé un modérateur à «agir sur 700% de contenu abusif de plus au cours de la même période».

Fred Langford, directeur général adjoint de l’Internet Watch Foundation (IWF), a déclaré que le logiciel «aiderait des équipes comme la nôtre à déployer nos ressources limitées de manière beaucoup plus efficace ». «Pour le moment, nous utilisons uniquement des êtres humains pour parcourir le contenu », dit Langford. « Cela aidera avec le tri. »

L’IWF est l’une des plus grandes organisations dédiées à stopper la diffusion de contenus pédopornographiques en ligne. Elle est basée au Royaume-Uni mais financée par les contributions de grandes entreprises technologiques internationales, y compris Google. Elle emploie des équipes de modérateurs humains pour identifier les images d’abus et exploite des lignes directrices dans plus d’une douzaine de pays pour permettre aux internautes de signaler des contenus suspects. Elle mène également ses propres opérations d’enquête; identifie les sites où le contenu abusif est partagé et travaille avec les forces de l’ordre pour les arrêter.

Langford dit qu’en raison de la nature des «revendications fantastiques faites à propos de l’IA», l’IWF testera minutieusement le nouvel outil IA de Google pour voir comment il fonctionne et correspond au flux de travail des modérateurs. Il a ajouté que des outils comme celui-ci constituaient une étape vers des systèmes entièrement automatisés capables d’identifier des éléments inédits sans interaction humaine. « Ce genre de classificateur est un peu comme le Saint Graal dans notre domaine. »

Toutefois, pour lui, de tels outils ne devraient être utilisés que dans des cas «clairement définis» pour éviter de laisser passer des informations abusives. «Il y a quelques années, j’aurais dit qu’il faudrait encore attendre cinq ou six ans pour ce genre de classificateur», dit Langford. « Mais maintenant, je pense que nous n’en sommes qu’à un ou deux ans de créer quelque chose qui est entièrement automatisé dans certains cas. »


Articles recommandés