Le PDG d’OpenAI Sam Altman a finalement répondu à la lettre signée par plus de 1 000 personnes, dont d’éminents chercheurs en intelligence artificielle (IA), appelant à interrompre la recherche sur les systèmes d’IA plus avancés que GPT-4.

La course à l’IA dénoncée par de nombreux experts

Le lancement de ChatGPT en novembre 2022 a chamboulé toute l’industrie de la tech, entraînant une course effrénée à l’intelligence artificielle générative. Microsoft, à travers un investissement massif dans OpenAI, intègre progressivement la technologie à ses outils, tandis que Google multiplie également ses efforts afin de ne pas être devancée.

C’est justement cette course qui suscite les inquiétudes de nombreux experts. Dans leur lettre, ils appellent à l’interruption pendant au moins six mois du développement des IA plus avancées que GPT-4. Selon eux, « les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », citant notamment les risques de la technologie sur l’emploi et la désinformation.

Parmi les signataires de la lettre, qui cible principalement le modèle de langage GPT d’OpenAI, figurent Elon Musk, le cofondateur d’Apple Steve Wozniak, le cofondateur de Skype Jaan Tallinn, ainsi qu’un certain nombre de chercheurs et de PDG réputés dans le domaine de l’IA.

Sam Altman, qui ne s’était pas encore exprimé sur la missive, a finalement pris la parole lors d’une apparition vidéo dans le cadre d’un événement du MIT. Il estime que la lettre, publiée par l’ONG Future of Life, est « dépourvue de la plupart des nuances techniques concernant les domaines dans lesquels nous avons besoin d’une pause ».

Sam Altman admet que la sécurité de ces outils doit être améliorée

« Je pense qu’il est très important d’agir avec prudence et de faire preuve d’une plus grande rigueur en ce qui concerne les questions de sécurité », concède le PDG, mais affirme que la lettre n’a pas « été le meilleur moyen d’aborder la question ». Par le passé, Altman a déjà reconnu que l’IA posait des risques si elle n’était pas régulée efficacement. Ses propos vont toujours dans ce sens.

« Je suis également d’avis qu’à mesure que les capacités deviennent de plus en plus sérieuses, la barre de sécurité doit être relevée », a-t-il jugé. Il considère néanmoins que la fixation sur son entreprise n’est pas normale : « Nous faisons d’autres choses en plus de GPT-4 qui, à mon avis, posent toutes sortes de problèmes de sécurité qu’il est important d’aborder et qui ont été totalement oubliés dans la lettre », a-t-il dénoncé. Il a également nié le fait que son entreprise prévoyait de lancer prochainement GPT-5.

Ll’IA générative aura un impact sur tout le monde, et le plus grand nombre possible de personnes devraient participer aux tests et à l’apprentissage de ces systèmes, assure-t-il. « Nous pensons que le fait d’impliquer tout le monde dans la discussion, de mettre ces systèmes dans le monde, même s’ils sont profondément imparfaits dans leur état actuel, afin que les gens puissent les expérimenter, y réfléchir, comprendre les avantages et les inconvénients, vaut la peine, même si nous avons tendance à nous embarrasser en public et à devoir changer d’avis fréquemment avec de nouvelles données », a conclu le PDG. Son approche est donc diamétralement opposée à celle des chercheurs dans leur lettre ; plutôt que de freiner la recherche, il souhaite que celle-ci concerne bien plus de personnes afin de se familiariser au plus vite avec la technologie.