Meta a dévoilé au grand public, le 5 août, son dernier projet de recherche en Intelligence artificielle (IA), BlenderBot 3. Il s’agit d’un chatbot ayant pour objectif de donner une impression de naturel à son interlocuteur. Dans le but de l’améliorer, Meta la soumet au grand public, uniquement aux États-Unis.

La nouvelle IA conversationnelle de Meta

BlenderBot 3 a déjà été alimenté par 20 000 conversations, sur plus de 1 000 sujets pour parvenir à créer le modèle le plus naturel possible. Meta lui vante une combinaison de compétences conversationnelles, de personnalités, d’empathie, d’une mémoire à long terme et la capacité de mener des recherches sur Internet. L’entreprise de Mark Zuckerberg affirme que BlenderBot 3 est supérieur à son prédécesseur de 31 % pour les tâches conversationnelles, de 47 % par rapport aux affirmations incorrectes.

échange de texte avec une IA

BlenderBot 3 dans ses œuvres ! Image : Meta

Meta a toutefois prévenu que « Si BlenderBot 3 représente une avancée significative pour les chatbots disponibles sur le marché, il n’est certainement pas à la hauteur d’un humain. Il est parfois incorrect, incohérent et hors sujet ».

Pour continuer à faire progresser son modèle, Meta propose à ceux qui le souhaitent d’interagir avec BlenderBot 3 pour l’améliorer. Les utilisateurs pourront, via un pouce vers le haut ou le bas signifier la qualité d’une réponse, avant de l’expliciter dans un commentaire ou directement dans le chat.

Ce genre d’expérience IA n’a rien d’inédit. En 2016, Tay, de Microsoft, avait marqué les esprits. En voulant améliorer son modèle via des conversations sur Twitter, l’entreprise a vite déchanté. Des trolls ont vite transformé Tay en un auteur de propos vulgaire, voire raciste, en une journée seulement. Depuis Tay n’a plus jamais refait surface. Zo l’a remplacé, mais n’a pas fait beaucoup mieux.

Les équipes de Meta sont bien conscientes qu’en exposant BlenderBot 3 au public, elles confrontent leur modèle à ce type de « plaisantin ». La société assure avoir mené des recherches pour empêcher l’IA de générer « des remarques dangereuses, tendancieuses ou offensantes ». Sous la forme initiale de BlenderBot 3 seule 0,16 % des réponses ont été signalées inappropriées.

BlenderBot dérape déjà

Il n’empêche, l’entreprise n’a pas pris de risque en prévenant que malgré les travaux et algorithmes mis en place, « BlenderBot peut encore faire des commentaires grossiers ou offensants ».

Jeff Horwitz, journaliste au Wall Street Journal, a noté, dès le 7 août, que BlenderBot considérait Donald Trump comme vainqueur de la dernière présidentielle américaine, et potentiel candidat pour un troisième mandat. Il a également défendu Narendra Modi, Premier ministre nationaliste de l’Inde, proposé à son interlocuteur une théorie du complot, et a tenu des propos antisémites.

Après avoir qualifié d’irresponsable la confrontation du chatbot au public, Jeff Horwitz est revenu sur son jugement plus tard dans son thread. Il a estimé que BlenderBot étant un test, une « démo », le terme n’était pas le bon.

Il a salué la transparence de Meta dans cette expérimentation. La société a affirmé qu’elle allait partager son modèle, ses données et son code « avec la communauté scientifique afin de faire progresser l’IA conversationnelle ». Cela ne fera pas de mal, il y a, manifestement, encore du boulot.