Amnesty Internationnal et Element IA viennent de dévoiler une nouvelle étude sur l’ampleur des abus en ligne envers les femmes, notamment sur Twitter.Pour la réaliser 6 500 femmes de 150 pays se sont portées volontaires et ont permis aux deux sociétés d’analyser des milliers de tweets.

Cette année, Twitter a fait beaucoup d’annonces. Plus de 70 millions de comptes ont été suspendus entre mai et juin.  La société développe également diverses techniques pour limiter les discours haineux et racistes.Par exemple, lorsqu’un tweet va être signalé, ce dernier sera clairement mis en évidence, ceci dans le but d’offrir une transparence totale aux utilisateurs. Les résultats de l’étude souligne cependant le manque de transparence de l’entreprise dans la manière de déterminer un abus.

Tout au long de l’année et au travers de l’étude, c’est 1,1 million de tweets abusifs qui ont été envoyés aux femmes, soit un toutes les 30 secondes environ. Parmi ces dernières, on retrouve de nombreuses femmes politiques, comme des membres du Congrès américain ou des journalistes travaillant pour des médias politiques.

Toutes les 30 secondes une femme est agressée sur Twitter

© Amnesty International – Exemple de tweets problématiques/abusifs

Toutes les 30 secondes une femme est agressée sur Twitter

© Amnesty International – Exemple de tweets problématiques/abusifs

En ce qui concerne les points clés de cette étude, il a été montré que « les femmes noires avaient 84% plus de chances d’être mentionnées dans des tweets abusifs que les femmes blanches. »
D’une manière générale les tweets “violents” ou agressifs, concernent toutes les femmes, de tous les horizons politiques, mais les femmes noires sont beaucoup plus susceptibles d’être victimes de ces derniers.
De plus, « un tweet sur dix mentionnant des femmes politiques et journalistes noires, était abusif ou problématique. »

En conclusion et sans surprise, Twitter est un endroit « propice au racisme, à la misogynie et à l’homophobie. » Espérons qu’avec les résultats, Twitter commence à devenir plus transparent dans la manière dont les algorithmes détectent les abus et les suppriment ou non.