TikTok devient le premier grand réseau social à lancer un outil permettant d’indiquer si du contenu a été généré par une intelligence artificielle (IA). Objectif : « trouver un moyen clair, intuitif et nuancé de tenir la communauté informée du contenu généré par l’IA », indique l’entreprise dans un billet de blog.

Prévenir les dangers de l’IA

Alors que de plus en plus de modèles permettent de générer du contenu, ils peuvent aussi être exploités à des fins malveillantes, pour propager de fausses informations par exemple. Afin de prévenir ce danger, TikTok introduit un nouvel outil pour aider les créateurs à étiqueter leur contenu généré par l’IA. Elle l’a testé dans des marchés distincts avant son déploiement officiel.

« L’IA offre d’incroyables possibilités créatives, mais elle peut aussi semer la confusion ou induire les spectateurs en erreur s’ils ne savent pas que le contenu a été généré ou édité à l’aide de l’IA. L’étiquetage du contenu permet de remédier à ce problème, en indiquant clairement aux téléspectateurs quand le contenu a été considérablement altéré ou modifié par la technologie de l’IA », explique la plateforme.

L’option « contenu généré par l’IA » apparaîtra lors du téléchargement d’une vidéo ou de photos. Le créateur pourra alors l’activer. « Le nouveau label aidera les créateurs à présenter les innovations qui se cachent derrière leur contenu, et ils peuvent l’appliquer à tout contenu qui a été entièrement généré ou modifié de manière significative par l’IA », continue TikTok.

En parallèle, l’application commence à tester un label « généré par l’IA » qui sera appliqué automatiquement aux contenus édités ou créés par un modèle d’IA. TikTok dispose d’un mécanisme pour les détecter, bien que sa fiabilité soit encore méconnue.

Les autres plateformes devraient suivre

TikTok est le premier des plus importants réseaux sociaux à instaurer une telle mesure. Instagram développe également ses propres étiquettes, qui devraient être rendues obligatoires. Pour sa part, YouTube conçoit de nouveaux outils pour faire face au « tsunami de l’intelligence artificielle », tandis que X s’appuie sur les notes de la communauté pour aider à tenir les utilisateurs informés du contenu généré par l’IA.

Les réglementations de la technologie qui voient le jour à travers le monde considèrent ces labels comme essentiels pour prévenir les risques posés par celle-ci. Il s’agit de l’un des points de la législation européenne sur l’IA, alors que 15 entreprises américaines se sont engagées, à la Maison-Blanche, à permettre aux consommateurs d’identifier le contenu généré par la machine grâce à un système de filigrane.