Facebook a créé un réseau social parallèle rempli de faux utilisateurs pour l’aider à sonder ses propres systèmes de sécurité.
Facebook veut empêcher les gens d’abuser de son système, et a donc crée un réseau social parallèle rempli de robots qui peuvent les imiter. Les chercheurs de l’entreprise ont publié un article sur une «Web Enabled Simulation» (WES) pour tester la plateforme, soit un Facebook fantôme où les utilisateurs inexistants peuvent liker, partager et amis (ou harceler, abuser et arnaquer) loin des utilisateurs humains.
Facebook décrit la construction d’une simulation réduite et murée de sa plateforme peuplée de faux utilisateurs modélisant différents types de comportements réels. Par exemple, un bot «fraudeur» peut être formé pour se connecter avec des bots «cibles» qui présentent des comportements similaires à ceux des véritables victimes d’arnaques sur Facebook. D’autres bots peuvent être entraînés à envahir la vie privée des faux utilisateurs ou à rechercher un «mauvais» contenu qui enfreint les règles de Facebook.
Les simulations logicielles sont évidemment courantes et Facebook développe un outil de test automatisé plus ancien appelé Sapienz. Mais il appelle les systèmes WES distincts parce qu’ils libèrent beaucoup de robots sur quelque chose de très proche d’une plateforme sociale réelle, et non une maquette imitant ses fonctions. Bien que les robots ne cliquent pas sur une application ou une page Web littérale, ils envoient des actions comme les demandes d’amis via le code Facebook, déclenchant les mêmes types de processus qu’un véritable utilisateur le ferait.
Cela pourrait aider Facebook à détecter les bugs. Les chercheurs peuvent créer des utilisateurs WES dont le seul objectif est de voler des informations à d’autres robots, par exemple, et de les diffuser sur le système. S’ils trouvent soudain des moyens d’accéder à plus de données après une mise à jour, cela pourrait indiquer une vulnérabilité pour les escrocs humains à exploiter, et aucun utilisateur réel n’aurait été affecté.
Certains robots pouvaient obtenir un accès en lecture seule au «vrai» Facebook, tant qu’ils n’accédaient pas à des données enfreignant les règles de confidentialité. Ils pourraient alors réagir à ces données en lecture seule uniquement. Dans d’autres cas, cependant, Facebook souhaite créer un graphique social parallèle complet. Au sein de ce faux réseau à grande échelle, ils peuvent déployer «des robots entièrement isolés qui peuvent présenter des actions et des observations arbitraires», et ils peuvent modéliser la façon dont les utilisateurs pourraient réagir aux changements de la plate-forme, ce que Facebook fait souvent en déployant de manière invisible des tests sur de petits nombres de vraies personnes.
Les chercheurs mettent toutefois en garde contre le fait que «les bots doivent être convenablement isolés des utilisateurs réels pour garantir que la simulation, bien qu’exécutée sur du code de plateforme réel, n’entraîne pas d’interactions inattendues entre les bots et les utilisateurs réels».
Facebook appelle son système WW, que le protocole définit comme une abréviation pour «WES World». Mais comme cette phrase l’indique clairement, Facebook ne construit pas du tout Westworld ici. La société fait un simulacron: un monde d’unités de personnalité artificielle conçues pour nous en apprendre davantage sur nous-mêmes.