Meta a annoncé plusieurs mesures visant à mieux identifier les contenus générés par l’intelligence artificielle (IA) sur ses plateformes. L’enjeu est de taille, alors que les citoyens de nombreux pays se rendront aux urnes au cours de l’année.

Meta appelle à l’étroite collaboration de toute l’industrie

L’entreprise est sur le pied de guerre face aux contenus générés par l’IA et les deepfakes pullulant sur la toile. Hors de question de reproduire les mêmes erreurs qu’en 2016 et 2020, lorsque ses réseaux sociaux ont été exploités pour propager de fausses informations. L’enjeu est ici de taille, alors que l’intelligence artificielle et les images photoréalistes qu’elle crée se sont immiscées dans le quotidien des internautes.

Nick Clegg, président des affaires globales de Meta, a ainsi annoncé l’étiquetage prochain des contenus générés par l’IA sur Facebook, Threads et Instagram. La firme voit plus grand et appelle à une étroite collaboration de toute l’industrie. Dans ce sens, elle développe actuellement des « normes techniques communes pour identifier les contenus créés grâce à l’IA, y compris les contenus vidéo et audio ».

Ces spécificités techniques, nommées IPTC et C2PA, ajoutent un filigrane invisible dans les métadonnées du contenu. Les fournisseurs d’IA sont tous invités à adopter ces standards pour les fichiers audio, vidéo et photo que leurs systèmes génèrent. L’objectif est de permettre aux réseaux sociaux d’identifier le contenu issu de l’IA et d’en informer les utilisateurs.

Si elles sont adoptées à grande échelle, les normes aideraient à reconnaître le contenu généré par Google, OpenAI, Microsoft, Adobe ou encore Midjourney. Meta a précisé qu’un filigrane serait aussi ajouté à son propre générateur d’images, Imagine.

La démocratie à l’épreuve de l’intelligence artificielle

Des technologies permettent néanmoins de supprimer les filigranes, un problème connu de Meta. « Nous travaillons d’arrache-pied pour mettre au point des classificateurs qui nous aideront à détecter automatiquement les contenus générés par l’IA, même s’ils ne comportent pas de marqueurs invisibles. Parallèlement, nous cherchons des moyens de rendre plus difficile la suppression ou l’altération des filigranes invisibles », indique Nick Clegg. Le dirigeant appelle en outre à un étiquetage des informations et des médias pour attester de leur authenticité et de leur véracité.

États-Unis, Union européenne, Indonésie, Inde… 2024 sera une année électorale particulièrement chargée. Plus que jamais, les experts craignent que l’IA ne soit utilisée à des fins malveillantes de désinformation. Une méthode déjà employée outre-Atlantique cette année, avec un deepfake audio de Joe Biden appelant les démocrates à ne pas se rendre aux urnes pour les élections de leur candidat présidentiel.

Réprimandée à de nombreuses reprises pour son laxisme en termes de modération, Meta veut s’imposer comme leader dans la lutte contre la diffusion de fausses informations générées par l’IA. L’entreprise s’estime parfaitement positionnée ; en plus d’opérer les plus grands réseaux sociaux du monde, elle développe également des outils d’IA depuis plusieurs années. La tâche s’avère particulièrement complexe, reconnaît-elle, particulièrement vis-à-vis des fichiers audio et vidéo.