Citée comme la « créatrice de ChatGPT » par le Times, Mira Murati est la CTO (Chief Technology Officer) d’OpenAI, elle est donc chargée de diriger l’innovation technique de l’entreprise. Dans une interview accordée à l’Associated Press, elle se confie sur les modèles développés par la firme, mais également sur les défis qu’elle doit encore relever.

OpenAI ne s’attendait pas à un tel succès de ChatGPT

Depuis son lancement fin novembre, ChatGPT a révolutionné toute l’industrie de la technologie, déclenchant une course à l’intelligence artificielle (IA) générative parmi ses plus grands acteurs. En seulement deux mois, l’agent conversationnel a enregistré 100 millions d’utilisateurs, en faisant l’application grand public avec la plus grande croissance de l’Histoire.

Selon Mira Murati, OpenAI n’avait pas anticipé un tel succès. « Nous n’avions pas prévu à quel point les gens seraient captivés par l’idée de parler à un système d’intelligence artificielle. Il ne s’agissait que d’un aperçu de la recherche. Nous n’avions pas prévu un tel niveau d’enthousiasme, notamment en ce qui concerne le nombre d’utilisateurs », confie-t-elle à l’agence de presse.

La CTO en a profité pour en dire plus sur les mesures prises par son entreprise pour empêcher de possibles dérives de ses modèles, un point qui suscite de plus en plus d’inquiétudes. Lors de l’entraînement des IA, OpenAI « amplifie ce qui est considéré comme un bon comportement et désamplifie ce qui est considéré comme un mauvais comportement ».

Elle donne l’exemple de Dall-E 2, l’IA génératrice d’images. « Nous voulions réduire les préjugés nuisibles que nous observions. Nous avons ajusté le ratio d’images féminines et masculines dans l’ensemble de données d’apprentissage. Mais il faut être très prudent, car on risque de créer d’autres déséquilibres. Il faut donc procéder à des vérifications constantes. Dans ce cas, nous avons obtenu un biais différent parce que beaucoup de ces images étaient de nature sexuelle. Il faut donc l’ajuster à nouveau et être très prudent à chaque fois que l’on fait une intervention, pour voir ce qui est perturbé », détaille-t-elle, démontrant toute la complexité de mettre au point ces technologies sans qu’elles ne soient sujettes à des biais.

Concernant ChatGPT, l’entreprise a procédé à un apprentissage par renforcement avec un retour d’information humain, afin que le modèle puisse s’aligner davantage sur les préférences humaines en vue de ses interactions avec les utilisateurs.

Image générée par DALL-E 2.

Une image générée par Dalle-E 2. Image : Dall-E 2 / OpenAI.

Pas de GPT-5 pour le moment

Mira Murati est d’accord sur le besoin de réglementation ferme de l’intelligence artificielle, tout comme le PDG d’OpenAI Sam Altman et celui de Google, Sundar Pichai. « Chez OpenAI, nous discutons constamment avec les gouvernements, les régulateurs et les autres organisations qui développent ces systèmes pour, au moins au niveau de l’entreprise, se mettre d’accord sur un certain niveau de normes », commente-t-elle. Elle considère en outre que les régulateurs gouvernementaux doivent être « impliqués » dans le dialogue et la gestion de cette technologie.

Interrogée sur la lettre signée par des milliers de personnes appelant à l’interruption pendant six mois dans la recherche des systèmes d’IA plus avancés que GPT-4, Murati admet que les risques évoqués dans celles-ci sont « valides ». En revanche, elle estime, tout comme son PDG, que la manière de faire des signataires ne permet pas de faire avancer le débat. « Je ne pense pas que la signature d’une lettre soit un moyen efficace de mettre en place des mécanismes de sécurité ou de coordonner les acteurs de l’espace », remarque-t-elle.

La CTO dénonce également certaines affirmations rédigées dans la missive, qu’elle juge mensongères. Elle réitère des propos tenus par Sam Altman à ce sujet : OpenAI n’est pas en train de travailler sur GPT-5. Elle indique que l’entreprise « n’a pas l’intention de le faire dans les six prochains mois ». Elle rappelle, en outre, que GPT-4 a été déployé « avec un grand nombre de garde-fous et de manière très coordonnée et lente. Il n’est pas facilement accessible à tous, et il n’est certainement pas open source ». Par exemple, OpenAI a fait appel à une red team pour tester son modèle de langage afin de détecter et corriger ses biais.

« Tout cela pour dire que je pense que les mécanismes de sécurité et de coordination de ces systèmes d’IA et de tout système technologique complexe sont difficiles et nécessitent beaucoup de réflexion, d’exploration et de coordination entre les acteurs », conclut-elle à ce sujet.

La page d'accueil de ChatGPT.

Photographie : Jonathan Kemper / Unsplash.

Bientôt l’intelligence artificielle générale ?

Mira Murati explique qu’OpenAI, malgré le fait qu’elle ne soit plus une organisation à but non lucratif comme lors de sa création, veille à « structurer les incitations de telle sorte que nous puissions continuer à servir la mission non lucrative ». En rejoignant la firme en 2018, elle était déjà persuadée que l’IA était « la technologie la plus importante jamais créée par l’humanité », elle estime désormais qu’une entreprise comme OpenAI est la meilleure manière de le faire de manière sécurisée.

Pour l’heure néanmoins, elle reconnaît que son modèle de langage est encore loin d’atteindre le domaine de l’intelligence artificielle générale (AGI). Ce concept, considéré comme le stade ultime de l’évolution de l’IA, fait référence à une technologie capable de comprendre ou d’apprendre n’importe quelle tâche intellectuelle qu’un être humain peut accomplir. « Nous sommes loin de disposer d’un système AGI sûr, fiable et aligné. Notre chemin pour y parvenir comporte quelques vecteurs importants », assure l’ingénieur.

Pour y arriver, elle souligne l’importance de tester et de valider les modèles dans des conditions réelles. « Il ne suffit pas de développer cette technologie dans un vide en laboratoire. Nous avons vraiment besoin de ce contact avec la réalité, avec le monde réel, pour voir où se trouvent les faiblesses, où se situent les points de rupture, et essayer de le faire de manière contrôlée et à faible risque, en obtenant autant de retours que possible », détaille-t-elle. Au contraire, certains experts souhaitent justement évaluer les risques de ces systèmes et ralentir la recherche avant de les déployer.