Le Financial Times a révélé le 15 avril dernier que TikTok était de nouveau la cible d’une enquête. La très populaire application de partage de courtes vidéos fait l’objet d’une investigation du Département de la Sécurité intérieure des États-Unis (DHS) sur la présence et le partage de contenus d’abus sexuels sur mineurs au sein du réseau social. Le Département de la Justice des États-Unis étudie également la fonctionnalité de confidentialité « Moi uniquement », utilisée par des personnes mal intentionnées pour diffuser ce type de contenus.

TikTok, une application de choix pour les pédocriminels

Si les prédateurs utilisent principalement TikTok plutôt qu’un autre réseau social, c’est avant tout à cause de sa jeune base d’utilisateurs. « C’est l’endroit idéal pour les prédateurs afin de rencontrer et de gagner la confiance d’enfants », signale Erin Burke, chef de la section des enquêtes sur l’exploitation des mineurs au sein du département de cybercriminalité du DHS.

Le nombre d’investigations effectuées par les autorités américaines impliquant TikTok a été multiplié par sept entre 2019 et 2021, témoignant de son utilisation croissante par les pédocriminels.

Par le passé, TikTok avait déjà renforcé ses mesures de protection des mineurs en activant automatiquement les paramètres de messages privés des utilisateurs de 16 et 17 ans sur « personne ». Dès lors, les adolescents ne peuvent ni envoyer ni recevoir de messages sans activer d’eux-mêmes cette option.

Des fonctionnalités de confidentialité détournées

Ces utilisateurs malveillants ont recours à une fonctionnalité intitulée « Moi uniquement » pour arriver à leurs fins. Elle permet à la seule personne connectée au compte d’avoir accès aux vidéos publiées. Aux travers de mots-clés dans la description de leurs vidéos publiques, dans leurs noms d’utilisateurs et dans leurs biographies, ils arrivent à se reconnaître entre eux. C’est grâce à cela que les prédateurs se procurent et échangent des contenus. Ils partagent ensuite le mot de passe de ces profils aux autres pédocriminels, parfois même aux victimes.

« TikTok applique une politique de tolérance zéro quant aux contenus pédopornographiques », a indiqué l’application. « Lorsque nous faisons face à une tentative de publier, d’obtenir ou de partager de contenus impliquant des abus sexuels sur mineurs, nous les supprimons, bannissons les comptes et les appareils, et rapportons immédiatement les comptes au National Center for Missing and Exploited Children (NCMEC). Nous collaborons avec les forces de l’ordre si nécessaire. »

La modération au cœur des débats

La succursale de ByteDance affirme pourtant que 96 % du contenu enfreignant les règles de protection des mineurs est retiré avant que quelqu’un ne puisse le voir. La majorité de ces suppressions concerne des vidéos de mineurs en train de fumer ou boire de l’alcool.

Pour autant, l’enquête des autorités américaines démontre que le réseau social a du mal à gérer la cadence. Pour un milliard d’utilisateurs actifs par mois, TikTok ne possède que 10 000 modérateurs à travers le monde afin de vérifier l’avalanche de contenus publiés sur l’application.

D’après l’article du Financial Time, TikTok a fait remonter au NCMEC près de 155 000 vidéos à caractère pédopornographique l’année dernière. Pour le même nombre d’utilisateurs actifs, son concurrent direct, Instagram, en a rapporté 20 fois plus : 3,4 millions. L’application chinoise n’aurait pas reçu de demande de la part du NCMEC pour retirer des vidéos de sa plateforme contrairement à Facebook, Instagram et YouTube.

Si pour TikTok son travail de modération est plus que correct, pour ses modérateurs, il laisse un goût amer. En mars dernier, d’anciens employés ont accusé le réseau social et sa maison-mère ByteDance de ne pas les avoir suffisamment protégé des vidéos auxquels ils étaient confrontés.