Le 23 juillet 2020, Facebook a présenté dans un article de blog la WES (Web-Enabled Simulation), un simulateur à l’échelle de Facebook, conçu pour reproduire et détecter les comportements nuisibles.

WES est composé de millions de bots

Les chercheurs de Facebook AI Research font le constat que le comportement des utilisateurs évolue et qu’il est même différent d’une zone géographique à l’autre. De quoi compliquer la tâche aux modérateurs. Pour tenter de mieux comprendre les comportements des internautes, Facebook a mis au point la WES. Déjà annoncée il y a quelques mois, cette nouvelle méthode de travail permet de réaliser une simulation à très grande échelle et de manière très réaliste, grâce à l’intelligence artificielle et à des millions de bots.

Les bots sont formés grâce au machine learning pour reproduire les comportements des humains sur les réseaux sociaux. Dans cet environnement de simulation, ils peuvent envoyer des messages à d’autres bots, commenter des publications ou publier leur propre contenu. Bref, c’est une reproduction parfaite d’un réseau social. Précisons tout de même que cette plateforme n’offre aucune interaction avec Facebook et que les bots ne peuvent pas interagir avec de vrais utilisateurs. Les chercheurs du Facebook AI Research peuvent explorer des scénarios complexes dans cet environnement simulé. Ils expliquent que :

« Si le projet est encore à un stade de recherche pour le moment, nous espérons qu’un jour il nous aidera à améliorer nos services et à repérer les éventuels problèmes de fiabilité ou d’intégrité avant qu’ils n’affectent les personnes utilisant réellement la plateforme ».

Comprendre pour mieux anticiper

Pour accélérer les travaux de ce simulateur, Facebook a décidé d’inviter des universitaires et des scientifiques pour qu’ils proposent de nouvelles idées afin d’améliorer les performances de WES et du premier prototype baptisé WW, un nom censé montrer qu’il s’agit d’une version réduite du World Wide Web. Les chercheurs du réseau social ont obtenu 85 propositions de chercheurs provenant de 17 pays du monde entier. Cet engouement témoigne de l’importance et de la nécessité de lancer un tel projet.

Ce que veut éviter Facebook ce sont des comportements comme celui de LeadCloak, et de son fondateur Basant Gajjar, qui a conçu un logiciel capable de contourner les systèmes de sécurité du réseau social. En décembre 2019, le réseau social poursuivait également ILikeAd : une société hongkongaise qui incitait les gens à cliquer sur de faux liens. On pense aussi au scandale lié à une société sud-coréenne nommée Rankwawe qui analysait le score d’influence sociale des utilisateurs de Facebook et récoltait des données à des fin de ciblage publicitaire.