Twitter a annoncé, via un billet de blog publié le 7 décembre, du changement pour son système de signalement de contenus. Le réseau social n’a pas procédé à des modifications approfondies de son système depuis un moment. Le but est d’affiner la modération de la plateforme.

Des signalements « symptoms-first »

Les aficionados de Twitter connaissent bien le système de signalement de Twitter. Après avoir indiqué un tweet problématique, l’utilisateur a le choix entre plusieurs catégories : ne m’intéresse pas, suspect ou spam, propos inappropriés ou dangereux, exprime une intention suicidaire ou autodestructrice et plus récemment induire en erreur sur une élection.

Page actuelle de signalement. Crédit : Siècle Digital

Twitter estime que cette façon de faire n’est plus satisfaisante sur la base de retours utilisateurs et selon des chercheurs. Renna Al-Yassini, membre de l’équipe ayant travaillé sur le nouveau système, explique « La grande majorité de ce que les gens signalent s'inscrit dans un spectre gris beaucoup plus large qui ne répond pas aux critères spécifiques des violations de Twitter, mais ils signalent quand même ce qu'ils vivent comme profondément problématique et très bouleversant ».

L’objectif est de se détacher des cases correspondant aux règles d’utilisation de la plateforme, pour laisser l’opportunité aux personnes d’expliquer ce qu’il s’est passé. La méthode est appelée symptoms-first, « symptôme d’abord ». Sur son blog Twitter détaille, « L'idée est la suivante : essayons d'abord de découvrir ce qui se passe au lieu de vous demander de diagnostiquer le problème ».

Une fois le signalement effectué, l’utilisateur pourra décrire plus précisément le problème et ensuite Twitter va suggérer la ou les règles enfreintes par le contenu. Il y aura la possibilité de notifier si rien ne correspond, une réponse qui permettra aux équipes de la société d’affiner son processus.

Le nouveau système de signalement de Twitter en image. Crédit : Twitter

Twitter espère qu’ainsi sa modération sera plus efficace pour endiguer rapidement des phénomènes de cyberharcèlement, de diffusion de fausses nouvelles, de propos intolérants. Ce nouveau système est en cours de test au sein d’un petit groupe aux États-Unis et devrait être étendu plus largement au cours de l’année 2022.

Twitter multiplie les nouveautés en matière de modération

Depuis l’arrivée de Parag Agrawal à la tête de l’entreprise, plusieurs changements ont été opérés dans la modération. Toujours le 7 décembre, un post a annoncé une nouvelle option en test pour permettre d’ajouter des avertissements sur photos et vidéos publiés. Les personnes l’ayant choisi pourront ainsi éviter d’être exposées à l’image potentiellement choquante.

Le lendemain de l’arrivée du nouveau PDG, un autre système a été mis en place pour lutter contre le cyberharcèlement. Il permet de signaler et supprimer rapidement les photos et vidéos publiées sans l’accord des personnes qui y figurent. Dans ce cas, comme celui du changement de signalement d'incident, Twitter n'a pas indiqué si ces décisions induisaient le recrutement de modérateurs humains. TechCrunch rapporte qu'un mélange entre modération humaine et automatisée sera à l'œuvre.

Twitter est régulièrement pointé du doigt pour la toxicité des échanges, sur le harcèlement de masse, ou la diffusion de fausses nouvelles, les mesures proposées par la plateforme semblent modestes pour limiter ces phénomènes. Si elles donnent des gages de bonne volonté, cette dernière reste toutefois timide.