TikTok renforce ses efforts pour venir à bout des contenus problématiques sur sa plateforme. Le réseau social chinois a annoncé, ce 9 juillet 2021, qu'aux États-Unis et au Canada, la suppression des vidéos contenant de la nudité, de la violence ou encore des scènes de sexe, sera bientôt faite de façon automatique, sans passer d'abord entre les mains de modérateurs humains.

TikTok change de stratégie pour modérer plus efficacement ses contenus

Jusqu'à présent, sur les territoires nord-américains et canadiens, TikTok soumettait toutes les vidéos potentiellement problématiques à des modérateurs humains. Ces derniers avaient pour mission de vérifier manuellement si les contenus en question enfreignaient ou non les règles communautaires de la plateforme, et d'agir en conséquence.

Désormais, les choses se passeront différemment. L'algorithme qui identifie les contenus inappropriés a été amélioré pour supprimer automatiquement ces derniers. Si les utilisateurs estiment que leurs contenus respectent bel et bien les règles du réseau social et que leur suppression est une erreur, alors ils pourront demander un examen manuel.

Le réseau social chinois souhaite protéger les modérateurs des contenus "pénibles", mais pas seulement

Pour TikTok, ce changement vise en partie à limiter les "volumes de vidéos pénibles" auxquels sont confrontés ses modérateurs. Et le moins que l'on puisse dire, c'est que le volume actuel est impressionnant. Lors de son dernier rapport de transparence, le réseau social chinois a révélé que plus de 89 millions de vidéos avaient été supprimées en seulement six mois.

Rappelons qu'avant TikTok, d'autres grands réseaux sociaux ont été confrontés à des problématiques majeures quant à l'impact psychologique que pouvaient avoir certains contenus sur leurs employés. En 2020, Facebook avait, par exemple, dû verser 52 millions de dollars à ses modérateurs en dédommagement aux traumatismes subis dans le cadre de leurs missions.

En outre, l'automatisation de la suppression de vidéos problématiques peut également être plus efficace dans le cadre de contenus propageant de fausses informations. De fait, ces contenus sont particulièrement difficiles à examiner pour les modérateurs humains qui peuvent ne pas avoir les connaissances exactes pour prendre des décisions justes.

Malheureusement, les algorithmes ne sont jamais parfaits en ce qui concerne ce type de missions. Il se peut, qu'à terme, certaines communautés soient massivement et injustement touchées par les erreurs de suppression automatique. Pour rassurer ses utilisateurs, TikTok a affirmé que cette technologie ne serait d'abord utilisée que sur des thématiques où elle s'est avérée fiable. Déjà testé au Brésil ou encore Pakistan, ce système d'automatisation n'aurait enregistré qu'une marge de 5% d'erreur.