« Crosscheck » ou « XCheck », ce sont les deux noms d’un programme interne de Facebook qui permet d’appliquer des règles de modération particulières à une liste de personnalités. Un deux poids deux mesures révélé par une vaste enquête publiée le 13 septembre par le Wall Street Journal. Le réseau social s’en défend.

Des utilisateurs célèbres exemptés de sanctions

Selon le média américain, 5,8 millions de personnes en 2020 bénéficiaient d’un traitement de faveur. Parmi eux, des célébrités, des personnalités politiques, des internautes en vues, ainsi que des journalistes et des militants. Pour en faire partie, la grande majorité l’ignore par ailleurs, quelques critères seraient retenus : « digne d’intérêt », « influent ou populaire », « risqué en termes de relations publiques ».

Facebook a agacé plus d’un utilisateur avec des suppressions précipitées de contenus voire de compte. Pourtant, quelques privilégiés avaient, eux, la chance d’avoir un délai de 24 heures pour enlever un contenu interdit publié. Andy Stone, porte-parole de Facebook, explique que ce service n’existe plus, sans préciser depuis quand.

Tout le monde ne semble pas logé à la même enseigne par la firme de Mark Zuckerberg. Une série de comptes ne semblait même pas être modérée, tandis que de nombreux profils « VIP » pouvaient voir un de leurs contenus litigieux supprimés, souvent avec un délai étonnant, sans autres types de sanctions.

En 2019, le footballeur Neymar a, par exemple, publié sur Instagram des photos nues d’une jeune femme l’accusant de viol. Une pratique strictement interdite. Les clichés ne disparaîtront qu’au bout d’une journée, après 56 millions de vues. Le compte de la star du Paris-Saint-Germain ne sera pas suspendu. Au total, en 2020, 16,4 milliards de contenus violant les règles de la plateforme ont été publiés avant d’être supprimés selon un document interne récupéré par le Wall Street Journal.

Un examen interne de Facebook, daté de 2019, confidentiel, admet sans détour : « Contrairement au reste de notre communauté, ces personnes peuvent violer nos normes sans aucune conséquence ». Les auteurs pointaient du doigt un favoritisme « non défendable publiquement ». Un mémo daté de décembre 2020 n’y va, quant à lui, pas par quatre chemins : « Facebook fait régulièrement des exceptions pour les acteurs puissants ».

Facebook redoute surtout le battage médiatique lié à la modération de gros comptes

Initialement, XCheck devait permettre un contrôle de meilleure qualité sur les comptes VIP pour éviter une modération susceptible d’engendrer une polémique médiatique. Éviter par exemple d’être accusé de censure par un homme politique, laisser un journaliste s’exprimer sur des sujets difficiles, etc. Le système a été mis en place pour parer aux limites de Facebook sur la modération, son incapacité malgré ses IA et ses équipes à contrôler ses trois milliards d’utilisateurs dans le monde.

Le problème, c’est que le nombre de personnes présentes sur liste blanche a constamment augmenté. Résultat, un document de 2019 explique : « Nous examinons actuellement moins de 10 % du contenu XChecké ». Andy Stone a indiqué une amélioration depuis, sans révéler de quel ordre.

La ligne de défense de Facebook est simple : une vérification plus fine est nécessaire pour les gros comptes, le réseau social est parfaitement transparent et les soucis de modération sont en cours d’amélioration.

Guy Rosen, le vice-président « intégrité » de Facebook admet volontiers les failles dans la modération, d’où la création d’une « couche supplémentaire de contrôle pour les situations sensibles ». Une couche supplémentaire qui, dans de nombreux cas, aurait la forme d’une passoire selon le Wall Street Journal.

Andy Stone, dans une série de tweet, a partagé un article de 2018 du blog du réseau social expliquant le programme publiquement : « Crosscheck ne protège pas un profil, page ou contenu contre la suppression. C’est simplement pour s’assurer que notre décision est correcte ». Pour Guy Rosen et lui, le Wall Street Journal sort des informations en réalité publique ou « périmées », des problèmes sur lesquels travaille déjà Facebook.

Des informations si périmées que cela ?

Effectivement, le média américain précise bien que le réseau social a bien eu l’intention de supprimer l’immunité totale de certains comptes pour les cas les plus graves avant parution de l’article… au premier semestre 2021. Une échéance relativement récente.

Lorsque Facebook a décidé d’exclure Donald Trump en janvier 2021, son conseil de surveillance, censé être indépendant, mais payé par le réseau, a été saisi. En mai, l’Oversight Board, c’est son nom, a fourni à Facebook une série de dix-neuf recommandations en lien avec l’affaire. Quatre seulement n’ont pas été jugées faisables, l’une d’elles concerne le Crosscheck.

Le Conseil de surveillance a réagi à l’article en déclarant avoir notifié à plusieurs reprises « ses préoccupations concernant le manque de transparence dans les processus de modération de contenu de Facebook, en particulier en ce qui concerne la gestion incohérente par l’entreprise des comptes de grande envergure ».

Facebook ne serait pas prêt à traiter indifféremment un compte populaire et celui d’un utilisateur lambda. Le réseau social aura bientôt beaucoup de chats à fouetter, le Wall Street Journal promet d’ailleurs une série de nouveaux articles, « The Facebook files » basées sur les documents internes récupérés et les interviews de plusieurs anciens et actuels employés.