Ces dernières années, Facebook a souvent été critiqué pour laisser certains utilisateurs abuser du fonctionnement de sa plateforme. L’entreprise américaine prends d’ailleurs position contre ces pratiques et a notamment fait le choix de poursuivre LeadCloak en justice, car l’entreprise contournait ses règles pour promouvoir des arnaques. Afin de mieux protéger ses utilisateurs, Facebook dévoile que la création d’un système pour lutter contre les trolls et les arnaques, actuellement en cours de développement.

Des chercheurs de Facebook publient un article sur “une Simulation activée par le Web”

Dans un article publié sur le blog de Facebook Research, des chercheurs de l’entreprise ont évoqué une nouvelle plateforme. Ils évoquent ainsi leur nouvel outil : une “Simulation activée par le Web” (WES) qui va permettre de tester une version invisible de Facebook et évaluer sa fiabilité et l’intégrité des données partagées par de faux utilisateurs. La vérification du respect de la vie est aussi au programme.

Pour leurs tests, les chercheurs ont utilisé plusieurs logiciels d’apprentissage automatique, ils ont également mis en place des systèmes où des robots jouent différents rôle, celui d’arnaqueur pour l’un, celui d’un utilisateur pour cible pour l’autre. Le test réalisé consiste à reproduire le comportement et les échanges entre les deux parties. D’autres robots ont aussi été pensé pour détecter les bugs. Concrètement, leur seule mission est de voler les données d’autres utilisateurs et de les partager ensuite dans le système.

Certains robots auraient accès au vrai réseau social

Les chercheurs indiquent dans leur article que certains robots auraient eu accès au “vrai Facebook”, cela tant qu’ils n’enfreignaient aucune règle en terme de confidentialité. Le réseau social a ainsi demandé à ses robots de subir un test, de façon invisible. Ce même test est habituellement effectué sur un certain nombre de vrais utilisateurs.

Par ailleurs, les chercheurs précisent tout de même que les robots utilisés doivent être correctement isolés des vrais utilisateurs afin que la simulation soit effectuée correctement. Ils indiquent également limiter les interactions afin d’éviter tout impact pouvant s’avérer catastrophique sur le réseau social. En somme, ce n’est pas de suite qu’un souci sera créer par un robot sur le réseau social.