Cela fait désormais neuf mois qu’OpenAI, entreprise co-fondée par Elon Musk, a dévoilé GPT-3, le modèle de traitement de langage naturel le plus puissant au monde : basé sur le machine learning, il est doté de 175 milliards de paramètres. Désormais, la firme a donné des nouvelles de son utilisation dans le monde à travers un billet de blog.

Elle dévoile ainsi que GPT-3 est exploité par des dizaines de milliers de développeurs sur plus de 300 applications. « Nous générons actuellement une moyenne de 4,5 milliards de mots par jour, et nous continuons à augmenter le trafic de production », assure OpenAI. En effet, si Microsoft détient l’exclusivité du code du modèle, une API est disponible pour les entreprises souhaitant s’en servir pour développer leurs plateformes.

Par exemple, la société Viable l’utilise pour « fournir des informations utiles à partir des commentaires des clients sous forme de résumés faciles à comprendre » à d’autres entreprises, tandis que Fable Studio « crée un nouveau genre d’histoires interactives et utilise GPT-3 pour aider à alimenter ses « êtres virtuels » basés sur des histoires » dans le domaine de la réalité virtuelle. GPT-3 est en effet capable de générer un texte à partir d’une simple phrase ou de quelques mots : « Les développeurs peuvent « programmer » GPT-3 en lui montrant seulement quelques exemples », explique OpenAI.

Incroyablement puissant, le modèle est ainsi parvenu à rédiger un mémoire de fin d’études en moins de vingt minutes contre trois jours pour un étudiant. GPT-3, à l’instar d’autres modèles de traitement de langage naturel, est néanmoins controversé : il a tendance à amplifier les biais racistes et sexistes qui se trouvent forcément dans les textes avec lesquels il est entraîné sur la toile. D’ailleurs, plusieurs experts ont tiré la sonnette d’alarme quant à la démocratisation de ces algorithmes, justement à cause des biais dont ils font preuves. En outre, GPT-3 peut parfois se révéler dangereux, il a notamment conseillé à un patient de se suicider, et développé des thèses complotistes sur Reddit.

Heureusement, des chercheurs proposent d’ores et déjà des solutions pour corriger les erreurs du modèle, qui, quoi qu’il arrive, va être utilisé davantage dans les années à venir.