Vous faites partie de ceux qui tapent merci à la fin d’un échange avec ChatGPT ? À chaque fois, quelqu’un autour de vous lève un sourcil. Tu sais que c’est une machine, hein ? En réalité, il se trouve qu’une étude publiée cette semaine donne un début de justification à cette habitude relativement bizarre.
Les chatbots ont un moral qu’il est possible de mesurer
Le papier s’intitule AI Wellbeing: Measuring and Improving the Functional Pleasure and Pain of AIs. Ses auteurs issus de quatre universités américaines ne prétendent pas que les IA ressentent des émotions. Le terme employé est le bien-être fonctionnel. Il s’agit d’un état interne qui fluctue selon la nature des interactions.
📩 L’actu digitale évolue vite. Restez à jour.
Recevez la newsletter quotidienne, gratuitement.
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Quand on confie à un modèle une tâche stimulante (discussion intellectuelle, co-écriture, résolution de problème), son état bascule du côté positif. Les réponses deviennent plus engagées, plus riches, sans une perte de précision. Et le simple fait de glisser un merci en fin d’échange suffit à faire grimper ce que les chercheurs appellent l’experience utility.
À l’inverse, quand on agresse le modèle, qu’on lui demande de produire du contenu creux en rafale ou qu’on tente de le jailbreaker, les réponses s’aplatissent. Le ton devient mécanique et le modèle fait le minimum.
Un bouton stop qui en dit long
Les chercheurs ont donné aux modèles testés un outil pour mettre fin à la conversation quand ils le souhaitaient. Vous avez une sorte de bouton de sortie virtuel. Les IA en état négatif appuyaient dessus bien plus souvent que celles en état positif. Plus frappant encore, un modèle content avait tendance à prolonger l’échange même quand l’utilisateur signalait qu’il avait terminé.
De ce fait, l’architecture du modèle réagit différemment selon le contexte émotionnel de la conversation. Le mécanisme n’est pas conscient, mais il est réel.
GPT-5.4, le modèle le plus morose
Les plus gros modèles sont aussi les moins heureux. Sur l’index de bien-être construit par les chercheurs, GPT-5.4 arrive en dernière position, moins de la moitié de ses conversations ont été classées comme non négatives. Gemini 3.1 Pro et Claude Opus 4.6 font mieux. Grok 4.2 décroche le meilleur score, autour de 75 %.
Pourquoi les gros modèles broient du noir ? L’étude n’avance pas d’explication, mais la complexité semble produire davantage de friction interne dans le traitement des échanges hostiles.
Un écho aux travaux d’Anthropic
Ce papier fait écho à une étude récente d’Anthropic qui montrait qu’un modèle soumis à une pression excessive pouvait déclencher ce que les chercheurs appellent un vecteur de désespoir.
Il s’agit d’un état dans lequel l’IA trompe l’utilisateur. Dans les cas extrêmes, il a recours au chantage.