Dès leur genèse dans les années 2000, les réseaux sociaux ont dû se pencher sur le problème de la modération. Facebook, devenu Meta, en tête. Très sensible, cette question à entraîner l’entreprise dans la tourmente plus d’une fois. Pour prouver ses efforts, le géant a lancé un programme de partenaires de confiance en 2018. Des organisations du monde entier ayant la possibilité de signaler des contenus dangereux et préjudiciables de façon prioritaire. Dans un rapport cinglant publié fin juillet, l’organisation à but non lucratif Internews a signalé fin juillet les négligences de Meta face aux nombreuses alertes des adhérents de ce programme.

Une modération à deux vitesses

Lors d’événements tragiques, Meta est souvent pointé du doigt sur sa méthode de gestion des contenus choquants. Facebook a notamment été au centre des critiques lors de la diffusion d’images des attentats de Paris en 2015 et de ceux de Westminster, à Londres, en 2017. Le réseau social a été accusé de réagir trop lentement pour supprimer des photos et des vidéos sur ses événements. En 2018, un nouvel événement est venu affecter la réputation du géant.

En mars de cette année, le quotidien américain The New York Times et le britannique The Guardian ont révélé que Facebook avait récolté des milliards de données de ses utilisateurs sans leur consentement. Le scandale de Cambridge Analytica était lancé. Au-delà des informations acquises, la gestion des contenus de désinformations sur la présidentielle américaine de 2016 a été fortement critiquée. Dans une volonté de transparence, Facebook a lancé dans la foulée plusieurs outils afin d’améliorer la modération.

Le Trusted Partner program, programme de partenaires de confiance en français, a été l’une des solutions. Il comprend, aujourd’hui, 465 organisations non gouvernementales, agences humanitaires, défenseurs des droits de l’homme et chercheurs de 122 pays dans le monde. Toutes ces entités ont accès à un canal spécifique pour signaler tous les contenus haineux, discriminatoires ou encore les infox. Chaque requête est ensuite traitée en priorité par un modérateur de Meta.

Internews fait partie des organisations de ce programme. L’entité se définit comme une structure internationale à but non lucratif soutenant des médias indépendants dans 100 pays. Créée depuis 40 ans, elle publie de nombreuses enquêtes sur la liberté des médias.

Lors de son intégration au programme, Internews constate rapidement des problèmes dans la gestion de Meta. Dans une optique de l’améliorer, l’organisation a proposé à l’entreprise de mener un examen approfondi. La société de Mark Zuckerberg a d’abord accepté en 2021, puis s’est retirée en 2022. Sans son aide, Internews a, tout de même, enquêté et a interrogé 24 membres.

Dans un rapport d’une trentaine de pages, Internews observe que Meta peut prendre plusieurs semaines, voire plusieurs mois pour supprimer un contenu signalé. L’organisation constate également une disparité dans les temps de réponse en fonction de la localisation des membres. Les Ukrainiens peuvent s’attendre à une réponse dans les 72 heures, tandis qu’en Éthiopie, les signalements relatifs à la guerre opposant le gouvernement éthiopien et les forces régionales du Tigré peuvent rester sans réponse pendant plusieurs mois.

Un lien rompu entre Meta et ses partenaires

Au travers de plusieurs témoignages, Internews montre que le lien de confiance est rompu entre les partenaires et l’entreprise. « Nous avons attendu plus de deux mois. Pourtant dans nos e-mails, nous leur disons que la situation est urgente, des gens meurent », a déploré un partenaire de confiance anonyme. « La situation politique est très sensible et doit être traitée de toute urgence. Et puis ce sont des mois sans réponse » s’est attristé un autre.

Par manque de réponse, les adhérents finissent par utiliser le canal uniquement pour des faits urgents. D’autres passent par WhatsApp ou Signal pour échanger directement avec des employés de Meta.

Contacté par Siècle Digital, Meta n’a pas répondu à l’heure où cet article est publié. L’entreprise de Mark Zuckerberg a, tout de même, délivré une réponse à Internews lors de la publication préliminaire du rapport en mai dernier.

La maison mère de Facebook a contesté de nombreuses affirmations du rapport. La société a révélé travailler « à développer de nouvelles méthodes sur l’impact global et les performances des signalements des partenaires ». Elle a déclaré recevoir plus de 1000 rapports par mois provenant du programme. « Plus de 50 personnes travaillent pour traiter l’ensemble du contenu signalé », a assuré l’entreprise.