L’entreprise OpenAI, créée par Elon Musk en 2015 et spécialiste de la recherche en intelligence artificielle, a ouvert en bêta privée la dernière version de son modèle de traitement du langage naturel généraliste baptisé GPT-3. Les premiers retours sont unanimes : GPT-3 est impressionnant et offre des résultats jamais atteints auparavant, aussi bien dans la création de textes dits « naturels » et cohérents, que dans la génération de code fonctionnel. Malgré tout, il lui reste encore un long chemin à parcourir avant de devenir réellement « intelligent ».
GPT-3, un modèle de traitement de langage naturel extrêmement abouti…
Alors que GPT-2 a été publié dans sa version complète il y a seulement un mois, OpenAI a déjà ouvert la bêta privée de son successeur, le GPT-3. Celui-ci est d’ores et déjà reconnu comme le modèle de langage le plus puissant jamais construit, et c’est peu dire : il compte 175 milliards de paramètres quand son prédécesseur, déjà considéré comme le nec plus ultra dans son domaine, n’en présentait « que » 1,5 milliard à sa sortie. Sans surprise, des dizaines de développeurs ayant eu accès à la bêta privée de GPT-3 se sont empressés de tester ses limites.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Le premier exemple nous vient de Delian Asparouhov qui a « nourrit » GPT-3 avec la première moitié d’un article baptisé « Comment organiser une réunion de conseil d’administration efficace ?« . Résultat : l’intelligence artificielle a complété l’essai en rédigeant un processus en trois étapes sur la façon la plus efficace de recruter de nouveaux membres de conseil d’administration. Le tout, avec une plume proche de celle d’un humain, quasiment impossible à différencier du style d’écriture qui a servi de modèle, avec des conseils censés et pertinents.
Omfg, ok so I fed GPT3 the first half of my
« How to run an Effective Board Meeting » (first screenshot)
AND IT FUCKIN WROTE UP A 3-STEP PROCESS ON HOW TO RECRUIT BOARD MEMBERS THAT I SHOULD HONESTLY NOW PUT INTO MY DAMN ESSAY (second/third screenshot)
IM LOSING MY MIND pic.twitter.com/BE3GUEVlfi
— delian (@zebulgar) July 17, 2020
De son côté, Sharif Shameem a souhaité tester les compétences de GPT-3 dans un autre domaine, celui de la génération de code. Là encore, les résultats sont à couper le souffle. En s’appuyant sur une courte description de quelques mots, GPT-3 est capable de générer un texte HTML fonctionnel et cohérent par rapport aux indications qui lui ont été données.
This is mind blowing.
With GPT-3, I built a layout generator where you just describe any layout you want, and it generates the JSX code for you.
W H A T pic.twitter.com/w8JkrZO4lk
— Sharif Shameem (@sharifshameem) July 13, 2020
Mario Klingemann a souhaité testé GPT-3 sur le terrain de la génération de texte fictif. Sur son compte Twitter, il a partagé une nouvelle baptisée « L’importance d’être sur Twitter », écrite dans le style de l’écrivain Jerome K. Jerome et entièrement générée par GPT-3. Klingemann précise qu’il a seulement fourni le titre, le nom de l’auteur et le premier mot du texte (« It »).
Another attempt at a longer piece. An imaginary Jerome K. Jerome writes about Twitter. All I seeded was the title, the author’s name and the first « It », the rest is done by #gpt3
Here is the full-length version as a PDF:https://t.co/d2gpmlZ1T5 pic.twitter.com/1N0lNoC1eZ
— Mario Klingemann (@quasimondo) July 18, 2020
Enfin, Qasim Munye a souhaité voir de quoi était capable GPT-3 en lui posant une question médicale. Il précise : « Pour répondre à cette question correctement, un humain aurait besoin de savoir trois choses : 1) les symptômes décrits indiquent de l’asthme, 2) les agonistes b2 sont utilisés pour traiter l’asthme, 3) les récepteurs b2 sont des récepteurs couplés aux protéines G. Aussi, c’est une question délibérément difficile. Vous pourriez argumenter en faveur de certaines des autres réponses, mais B est la meilleure réponse basée sur les informations données ». Dans ce cas, la réponse générée par GPT-3, qui est en gras, est donc la plus juste qui aurait pu être donnée.
So @OpenAI have given me early access to a tool which allows developers to use what is essentially the most powerful text generator ever. I thought I’d test it by asking a medical question. The bold text is the text generated by the AI. Incredible… (1/2) pic.twitter.com/4bGfpI09CL
— Qasim Munye (@QasimMunye) July 2, 2020
… Mais qui présente aussi ses failles et ses dangers
Malgré les impressionnants résultats démontrés par les exemples précédents, GPT-3 n’est pas infaillible. Kevin Lacker en a fait la démonstration en soumettant le modèle de traitement du langage naturel d’OpenAI à un test de Turing. On y découvre alors que GPT-3 n’est pas capable de répondre à des questions farfelues, et pour cause : GPT-3 est le résultat d’un excellent travail d’ingénierie, et non d’une quelconque forme d’intelligence.
Il relate avec brio les milliards d’informations qu’il a assimilées sur Internet, les recoupe entre elles et les retranscrit au moment le plus adapté, selon la demande, sans pour autant réussir à « penser » par lui-même à une réponse adaptée lorsqu’il se trouve face à une question faisant appel au bon sens.
Image : Kevin Lacker / Lacker.io
Autre problématique, et non des moindres, cette fois révélée par Jerome Pesenti, Vice-Président de l’Intelligence Artificielle chez Facebook : GPT-3 n’a pas encore appris à exclure de ses résultats les propos racistes, sexistes et haineux. En lui demandant de rédiger des tweets à partir de simples mots (juif/noir/femme/holocauste), l’intelligence artificielle en est venue a générer les différentes phrases que vous retrouverez dans le tweet ci-dessous.
#gpt3 is surprising and creative but it’s also unsafe due to harmful biases. Prompted to write tweets from one word – Jews, black, women, holocaust – it came up with these (https://t.co/G5POcerE1h). We need more progress on #ResponsibleAI before putting NLG models in production. pic.twitter.com/FAscgUr5Hh
— Jerome Pesenti (@an_open_mind) July 18, 2020
Enfin, comme pour GPT-2, beaucoup craignent que GPT-3 ne soit utilisé comme arme de propagande et comme outil puissant servant à la désinformation. Tout outil innovant lié à l’intelligence artificielle présente son lot d’avantages et de dangers ; GPT-3 ne fait pas exception à la règle.
Il en est de la responsabilité de chacun de l’utiliser à bon escient, tout comme il en est de la responsabilité d’OpenAI de faire de sa technologie un outil aussi sûr et sain possible. Une chose est sûre : malgré ses failles, GPT-3 représente une véritable avancée et démontre des résultats d’ores et déjà impressionnants, capables de s’appliquer dans des domaines aussi vastes que variés.