OpenAI a dévoilé un outil qui indique si un texte a été généré par une intelligence artificielle (IA) ou rédigé par un humain. Toutefois, l’entreprise américaine prévient qu’il n’est pas fiable à 100 %.


Culture Numérique est disponible sur SpotifyApple PodcastsDeezerGoogle PodcastsAcast.

ChatGPT inquiète le corps enseignant

Lancée au mois de décembre, ChatGPT est une IA conversationnelle capable de formuler des réponses similaires à celles d’un humain, mais également de reconnaître ses erreurs. Depuis son déploiement, l’outil est plébiscité dans le monde, à tel point que la valorisation de l’entreprise qui l’a développé, OpenAI, a largement augmenté. De son côté, Microsoft a annoncé investir 10 milliards de dollars dans la société, et prévoit d’intégrer ChatGPT à sa suite Azure ainsi qu’à Bing.

Les performances de l’IA inquiètent autant qu’elles fascinent, particulièrement les personnes évoluant dans le secteur de l’éducation, ChatGPT pouvant être utilisé par les élèves pour rédiger des textes. En conséquence, les écoles new-yorkaises ont interdit son utilisation, tout comme Sciences Po en France. Consciente de cette tendance, OpenAI vient donc de dévoiler son nouvel outil.

« Nous savons que l’identification de textes écrits par l’IA a été un point de discussion important parmi les enseignants, et il est tout aussi important de reconnaître les limites et les impacts des classificateurs de textes générés par l’IA en classe », écrit l’entreprise dans un billet de blog.

Un outil pas encore tout à fait fiable

Le modèle qui alimente l’outil a été entraîné en utilisant « des paires de textes écrits par des humains et des textes écrits par l’IA sur le même sujet », indique OpenAI. Pour l’utiliser, il faut disposer d’un compte gratuit sur le site de l’entreprise, puis de simplement coller le texte que l’on souhaite analyser, de 1 000 caractères au moins afin que son efficacité soit optimale. Le dispositif donnera ensuite sa réponse.

Attention tout de même. « Notre classificateur n’est pas entièrement fiable. Lors de nos évaluations sur un ensemble de textes anglais, il a correctement identifié 26 % des textes écrits par l’IA comme étant « probablement écrits par l’IA », alors qu’il a incorrectement étiqueté des textes écrits par des humains comme étant écrits par l’IA dans 9 % des cas. La fiabilité de notre classificateur s’améliore généralement à mesure que la longueur du texte d’entrée augmente », explique OpenAI.

D’autres modèles de langage arriveront sur le marché

« Bien que cette ressource soit destinée aux éducateurs, nous nous attendons à ce que notre classificateur et les outils de classification associés aient un impact sur les journalistes, les chercheurs en matière de désinformation et d’autres groupes », précise l’entreprise. En effet, des médias américains ont d’ores et déjà annoncé que ChatGPT serait utilisé pour créer du contenu.

Les modèles de traitement de langage sont voués à révolutionner plusieurs domaines. Si pour l’heure, ChatGPT en est l’exemple le plus frappant, il devrait être concurrencé par d’autres systèmes à l’avenir. Google travaille depuis plusieurs années sur LaMDA, également une IA conversationnelle qui a causé quelques soucis en interne ; la firme de Mountain View a licencié l’un de ses employés qui affirmait que le modèle était capable de ressentir des émotions. Pour l’heure, LaMDA n’est disponible que de manière très limitée. En Chine, Baidu développe aussi son propre ChatGPT.