L’entreprise OpenAI, créée par Elon Musk en 2015 et spécialiste de la recherche en intelligence artificielle, a ouvert en bêta privée la dernière version de son modèle de traitement du langage naturel généraliste baptisé GPT-3. Les premiers retours sont unanimes : GPT-3 est impressionnant et offre des résultats jamais atteints auparavant, aussi bien dans la création de textes dits « naturels » et cohérents, que dans la génération de code fonctionnel. Malgré tout, il lui reste encore un long chemin à parcourir avant de devenir réellement « intelligent ».

GPT-3, un modèle de traitement de langage naturel extrêmement abouti…

Alors que GPT-2 a été publié dans sa version complète il y a seulement un mois, OpenAI a déjà ouvert la bêta privée de son successeur, le GPT-3. Celui-ci est d’ores et déjà reconnu comme le modèle de langage le plus puissant jamais construit, et c’est peu dire : il compte 175 milliards de paramètres quand son prédécesseur, déjà considéré comme le nec plus ultra dans son domaine, n’en présentait « que » 1,5 milliard à sa sortie. Sans surprise, des dizaines de développeurs ayant eu accès à la bêta privée de GPT-3 se sont empressés de tester ses limites.

Le premier exemple nous vient de Delian Asparouhov qui a « nourrit » GPT-3 avec la première moitié d’un article baptisé « Comment organiser une réunion de conseil d’administration efficace ?« . Résultat : l’intelligence artificielle a complété l’essai en rédigeant un processus en trois étapes sur la façon la plus efficace de recruter de nouveaux membres de conseil d’administration. Le tout, avec une plume proche de celle d’un humain, quasiment impossible à différencier du style d’écriture qui a servi de modèle, avec des conseils censés et pertinents.

De son côté, Sharif Shameem a souhaité tester les compétences de GPT-3 dans un autre domaine, celui de la génération de code. Là encore, les résultats sont à couper le souffle. En s’appuyant sur une courte description de quelques mots, GPT-3 est capable de générer un texte HTML fonctionnel et cohérent par rapport aux indications qui lui ont été données.

Mario Klingemann a souhaité testé GPT-3 sur le terrain de la génération de texte fictif. Sur son compte Twitter, il a partagé une nouvelle baptisée « L’importance d’être sur Twitter », écrite dans le style de l’écrivain Jerome K. Jerome et entièrement générée par GPT-3. Klingemann précise qu’il a seulement fourni le titre, le nom de l’auteur et le premier mot du texte (« It »).

Enfin, Qasim Munye a souhaité voir de quoi était capable GPT-3 en lui posant une question médicale. Il précise : « Pour répondre à cette question correctement, un humain aurait besoin de savoir trois choses : 1) les symptômes décrits indiquent de l’asthme, 2) les agonistes b2 sont utilisés pour traiter l’asthme, 3) les récepteurs b2 sont des récepteurs couplés aux protéines G. Aussi, c’est une question délibérément difficile. Vous pourriez argumenter en faveur de certaines des autres réponses, mais B est la meilleure réponse basée sur les informations données ». Dans ce cas, la réponse générée par GPT-3, qui est en gras, est donc la plus juste qui aurait pu être donnée.

… Mais qui présente aussi ses failles et ses dangers

Malgré les impressionnants résultats démontrés par les exemples précédents, GPT-3 n’est pas infaillible. Kevin Lacker en a fait la démonstration en soumettant le modèle de traitement du langage naturel d’OpenAI à un test de Turing. On y découvre alors que GPT-3 n’est pas capable de répondre à des questions farfelues, et pour cause : GPT-3 est le résultat d’un excellent travail d’ingénierie, et non d’une quelconque forme d’intelligence.

Il relate avec brio les milliards d’informations qu’il a assimilées sur Internet, les recoupe entre elles et les retranscrit au moment le plus adapté, selon la demande, sans pour autant réussir à « penser » par lui-même à une réponse adaptée lorsqu’il se trouve face à une question faisant appel au bon sens.

Une série de questions posée à GPT-3.

Image : Kevin Lacker / Lacker.io

Autre problématique, et non des moindres, cette fois révélée par Jerome Pesenti, Vice-Président de l’Intelligence Artificielle chez Facebook : GPT-3 n’a pas encore appris à exclure de ses résultats les propos racistes, sexistes et haineux. En lui demandant de rédiger des tweets à partir de simples mots (juif/noir/femme/holocauste), l’intelligence artificielle en est venue a générer les différentes phrases que vous retrouverez dans le tweet ci-dessous.

Enfin, comme pour GPT-2, beaucoup craignent que GPT-3 ne soit utilisé comme arme de propagande et comme outil puissant servant à la désinformation. Tout outil innovant lié à l’intelligence artificielle présente son lot d’avantages et de dangers ; GPT-3 ne fait pas exception à la règle.

Il en est de la responsabilité de chacun de l’utiliser à bon escient, tout comme il en est de la responsabilité d’OpenAI de faire de sa technologie un outil aussi sûr et sain possible. Une chose est sûre : malgré ses failles, GPT-3 représente une véritable avancée et démontre des résultats d’ores et déjà impressionnants, capables de s’appliquer dans des domaines aussi vastes que variés.