Plusieurs dirigeants d’entreprises et scientifiques viennent de signer une lettre succincte mettant en garde contre la menace que représente pour l’humanité l’intelligence artificielle (IA), alors que la technologie est déployée à grande échelle.

Un risque d’« extinction »

« Diminuer le risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires ». Voilà la phrase cosignée par plus de 350 dirigeants, chercheurs et ingénieurs spécialisés dans l’IA, dont Sam Altman d’OpenAI, Demis Hassabis de Google DeepMind et Dario Amodei d’Anthropic. Elle a été publiée par l’ONG Center for AI Safety.

Geoffrey Hinton et Yoshua Bengio, qui ont remporté un prix Turing pour leurs travaux sur les réseaux neuronaux et sont souvent décrits comme les « parrains » de l’IA, ont également signé le document. Début mai, Hinton démissionnait de chez Google afin d’alerter sur les risques posés par la technologie, qui évolue et s’améliore extrêmement rapidement.

Cette nouvelle lettre fait suite à une pétition cosignée par des milliers de personnes, dont Elon Musk et d’éminents chercheurs en IA, appelant à une pause dans la recherche liée aux systèmes d’IA avancés. Craignant pour l’emploi ou la diffusion de fausses informations, certains experts estiment que l’IA pourrait devenir suffisamment puissante pour créer des perturbations à l’échelle sociétale d’ici quelques années si rien n’est fait pour la ralentir.

Selon le New York Times, certains estiment même que l’intelligence artificielle générale, un type d’IA capable d’égaler ou de dépasser les performances humaines dans quasiment toutes les tâches, n’est plus très loin.

De plus en plus d’appels pour réguler l’IA, alors que la technologie connaît un essor inédit

Ces derniers temps, les dirigeants des entreprises menant le boom de l’IA comme Google, OpenAI ou Microsoft, ont appelé à une régulation de la technologie. Sundar Pichai, le PDG de Google, estime qu’elle doit être encadrée de la même manière que les armes nucléaires, tandis que Brad Smith, président de Microsoft, a exhorté le gouvernement américain à agir rapidement.

La vice-présidente américaine Kamala Harris a rencontré plusieurs personnalités éminentes du secteur pour discuter d’une éventuelle régulation, tandis que Sam Altman a été entendu par le Congrès sur la question. Il appelle notamment à une coopération entre les principaux fournisseurs d’IA, à davantage de recherche technique sur les grands modèles de langage et à la formation d’une organisation internationale de sécurité, semblable à l’Agence internationale de l’énergie atomique, qui cherche à contrôler l’utilisation des armes nucléaires.

Le PDG d’OpenAI s’est également prononcé en faveur de règles qui obligeraient les fabricants d’IA avancées à s’enregistrer pour obtenir une licence délivrée par le gouvernement. L’Union européenne travaille pour sa part à l’AI Act, une vaste législation qui régulera l’usage de ces modèles sur le Vieux Continent.

Bien qu’ils appellent à une réglementation rapide de l’IA car elle représente un risque pour l’humanité, plusieurs géants technologiques sont lancés dans une course effrénée pour déployer la technologie au plus vite dans leurs produits.