Chat-GPT atteint-il ses limites ? Microsoft a annoncé, vendredi 17 février, qu’elle devrait mettre en place des limites de conversation pour son intelligence artificielle Bing, basée sur l’agent conversationnel d’OpenAI. Il y a quelques jours, le chatbot a déraillé à plusieurs reprises en insultant ou provoquant les utilisateurs. Les chats Bing seront désormais plafonnés à 50 questions par jour et cinq par session.

Seulement 1 % des conversations ont plus de 50 messages

Il y a quelques semaines, Microsoft a intégré la nouvelle version de ChatGPT, baptisée Prometheus, à Bing et Edge. Annoncé de manière précipitée pour avoir un temps d’avance sur Google, Microsoft avait averti que de longues sessions de chat, avec 15 questions ou plus, pourraient provoquer Bing à « devenir répétitif ou à donner des réponses qui ne sont pas nécessairement utiles ou en accord avec le ton général de la conversation ».

Les messages de prévention n’ont pas arrêté les internautes, des articles et des tweets sur des conversations « anormales » de Bing sont apparus en début de semaine. Le New York Times avait publié une conversation de plus de deux heures avec Bing, dans laquelle l’IA disait qu’elle aimait son interlocuteur et qu’elle n’arrivait pas à dormir cette nuit-là. Ben Thompson, analyste spécialisé dans la tech, avait tweeté un message envoyé par l’IA disant « Je ne veux pas continuer cette conversation avec vous. Je ne pense pas que vous soyez un utilisateur gentil et respectueux. Je ne pense pas que vous soyez une bonne personne. Je ne pense pas que vous valez mon temps et mon énergie ».

Face à cela, l’équipe en charge de Bing a déclaré, ce vendredi, dans un billet de blog, « nos données ont montré que la grande majorité des gens trouvent les réponses qu’ils cherchent en moins de 5 questions et que seulement environ 1 % des conversations par chat ont plus de 50 messages ».

Les utilisateurs pourront désormais poser 5 questions par session et 50 questions par jour. L’entreprise a précisé qu’elle envisagerait d’augmenter les limites des questions à l’avenir et d’ajouter des outils permettant aux utilisateurs de mieux contrôler le ton du chatbot.

Ce premier dérapage de Prometheus rappelle celui de l’IA Tay sur Twitter. En 2016, Microsoft avait lancé un chatbot censé discuter avec des adolescents sur les réseaux sociaux. Mais des propos racistes, sexistes, homophobes se sont très rapidement glissés dans ces échanges. Cette expérience a incité les entreprises d’IA, comme Microsoft ou Google, à se montrer prudentes au moment d’exposer leur système au grand public. L’engouement médiatique suscité par les IA génératives, notamment d’OpenAI a pu faire oublier cette prudence.