En matière de transparence et de sécurité, Twitch a beaucoup de retard à rattraper. La preuve : c’est le tout premier rapport de transparence publié par le réseau social en dix ans… Dans ce document, la plateforme détenue par Amazon donne de nombreux détails sur ses efforts pour protéger ses 26 millions d’utilisateurs quotidiens. La croissance explosive de Twitch en 2020 est aussi son plus grand défi.

Le premier rapport de transparence de Twitch

La pandémie de Covid-19 aura aidé Twitch à devenir une plateforme de référence pour le live streaming dans plusieurs domaines, notamment pour les jeux vidéo et la musique. Comme pour Zoom il y a quelques mois, cette croissance s’est accompagnée d’un autre défi pour Twitch : celui de la sécurité de sa plateforme. Le réseau social démontre dans ce rapport comment il tente d’éradiquer le harcèlement et la haine.

Comme vous le savez, contrairement aux vidéos enregistrées, le contenu en direct est beaucoup plus spontané. Devant des milliers, voire des dizaines de milliers de spectateurs en direct, des enfants âgés d’à peine 11 ans, jouent parfois en direct à Minecraft. Ils sont évidemment exposés à des prédateurs sexuels potentiels. Twitch ne cache pas qu’il s’agit d’un véritable défi et pour la première fois, la plateforme donne quelques détails sur la façon dont la modération est opérée.

Une année mouvementée pour la plateforme

Quelques chiffres : le nombre de personnes déclarant avoir été harcelées par un message direct sur Twitch aurait diminué de 70% entre le premier et le dernier semestre de l’année 2020. Les signalements d’utilisateurs malveillants ont augmenté entre ces deux mêmes périodes. Ils sont passés de 5,9 millions à 7,4 millions. Twitch attribue cela à sa croissance. Au cours du dernier semestre, il y a eu 3,9 millions de chaînes bloquées contre 2,3 millions au premier semestre de l’année 2020.

Le nombre de messages privés a également augmenté entre le semestre 1 et 2. Au premier semestre 2020, 24,4 milliards de messages ont été envoyés sur Twitch, et au second semestre, ce nombre est passé à 32,6 milliards (soit une augmentation de 33%). 61,5 millions de messages ont été bloqués au premier semestre contre 98,8 millions au second semestre, ce qui correspond à une forte augmentation de 61%…

Les modérateurs humains travaillent aux côtés de l’IA

Nous pouvons également lire qu’en 2016, Twitch a introduit l’outil AutoMod. Il s’agit d’une intelligence artificielle activée par défaut sur tous les comptes de la plateforme qui permet de bloquer les messages jugés inappropriés. Pour le développement de cette intelligence artificielle, Twitch s’appuie sur le machine learning. Évidemment, des modérateurs humains sont aussi derrière la plateforme pour s’assurer que les contenus dangereux soient bien signalés.

Twitch publie un graphique sur lequel nous pouvons constater la répartition des actions de modération en fonction du semestre 1 ou 2 de l’année 2020. On constate logiquement que la modération humaine et la modération par AutoMod ont augmenté entre ces deux semestres. Voici le détail :

Répartition de la modération entre le semestre 1 et 2 de l’année 2020.

Plusieurs études ont démontré au cours des dernières années que près de la moitié des utilisateurs de la plateforme étaient victimes de harcèlement. Un rapport publié en 2020 par GamesIndustry.Biz laissait même entendre que certains cadres de l’entreprise ne souhaitaient pas spécialement mettre l’accent sur les outils de sécurité, tandis que d’autres seraient carrément « indifférents aux préoccupations liées aux discours haineux ». Ce rapport tente de démontrer le contraire.