Victime de son succès, ChatGPT, le modèle de langage d’OpenAI reposant sur l’intelligence artificielle (IA), soulève de nombreuses interrogations. Capable de répondre à n’importe quelle question, de rédiger des dissertations et des morceaux de code, l’outil peut être utilisé à des fins malveillantes. Pour empêcher ces dérives, un chercheur invité par OpenAI a annoncé, en décembre dernier, que l’entreprise spécialisée dans l’IA était en train de développer un moyen d’identifier lorsque du texte est généré par ChatGPT.

Un filigrane subtil pour authentifier les textes générés par ChatGPT

Lancé en décembre 2022, ChatGPT est parvenu à montrer au grand public les progrès réalisés au cours de l’année en matière d’intelligence artificielle. Jugé perfectible, la génération de contenus malveillants par le modèle de langage est surveillée de près.

Dans la même catégorie

À ce sujet, OpenAI travaille sur plusieurs solutions pour mettre un terme aux mauvais usages de l’outil, allant de la triche à un examen à la rédaction de mails d’arnaques. Scott Aaronson, chercheur en sciences de l’informatique invité par OpenAI, a révélé que l’une d’entre elles était la mise en place « d’une signature invisible lors de la génération d’un texte rédigé par un modèle de langage reposant sur de l’IA ». Il précise qu’un prototype créé par Hendrik Kirchner, ingénieur au sein d’OpenAI, est déjà fonctionnel.

« Nous voulons qu’il soit beaucoup plus difficile de prendre les résultats d’un modèle de langage IA et de les faire passer pour des résultats humains », déclare Scott Aaronson. Il explique que « cela pourrait être utile pour empêcher le plagiat académique, évidemment, mais aussi la génération massive de propagande - par exemple, en spammant chaque blog avec des commentaires soutenant l’invasion de l’Ukraine par la Russie, ou encore l’imitation du style d'écriture de quelqu’un afin de l’incriminer ».

La solution d'OpenAI trop limitée ?

L’outil proposé par OpenAI utilise une approche cryptographique. En d’autres termes, lors de l’écriture du texte, il appose un filigrane lorsqu’une structure de mots définis apparaît au moment de la génération. Le dispositif permet de prouver que le document a été rédigé par une intelligence artificielle. Toutefois, ce dernier comporte des limites.

Srini Devadas, professeur en sciences de l’informatique au Massachusetts Institute of Technology, affirme à TechCrunch « qu’il serait assez facile de le contourner en reformulant, en utilisant des synonymes, etc. ». De plus, le système est situé côté serveur, impliquant qu’il pourrait ne pas fonctionner pour certaines personnes.

Un chercheur à l’Allen Institute for AI, Jack Hessel, fait remarquer au média américain qu’il est difficile de choisir une signature réellement imperceptible. Si celle-ci est trop évidente et spécifique, elle impacterait la fluidité du discours du modèle, tandis que si elle est trop subtile, elle pourrait laisser une trop grande place au doute. « Une empreinte numérique idéale ne serait pas discernable par un lecteur humain et permettrait une détection fiable », note Jack Hessel, « en fonction de la façon dont elle est mise en place, il se pourrait qu’OpenAI soit la seule capable de l’apposer » sur d’autres modèles de langage.

Une réflexion qui place la question de la confiance au centre du débat. Les autres entreprises du secteur, comme Cohere et AI21Labs, pourraient ne pas vouloir se servir d’un outil conçu par leur principal concurrent. Il est par ailleurs impossible pour OpenAI de rendre public le code source de son système auquel cas tout le monde serait en position de le comprendre et de le contourner.

D’ici à ce que l’utilisation des modèles de langage reposant sur l'intelligence artificielle se soit démocratisée, les géants de l’industrie ont le temps de trouver un terrain d’entente et de nouvelles solutions. Scott Aaronson, lui, reste optimiste, « nous avons vu au cours des 30 dernières années que les grandes entreprises de l’Internet peuvent se mettre d’accord sur certaines normes minimales, par crainte d’être poursuivies en justice, d’être considérées comme responsables, ou pour toute autre raison ».