À l’occasion de la première édition du AI Safety Summit se déroulant les 1er et 2 novembre 2023, 28 pays ont signé une déclaration les engageant à mieux encadrer le développement de l’intelligence artificielle (IA). Tous sont conscients des risques majeurs que peuvent poser cette technologique, mais aussi du potentiel énorme qu’elle propose.
Une déclaration pour inciter les signataires à limiter les risques liés au développement de l’intelligence artificielle
Les regards des acteurs de l’IA sont tournés vers Bletchley, la ville britannique qui organise le premier sommet mondial de la sécurité dans l’intelligence artificielle. Au sein du domaine de Bletchley Park, les représentants de 28 pays, dont les États-Unis, la Chine, la France, l’Allemagne, le Royaume-Uni, accompagnés de l’Union européenne, ont mis le doigt sur « le besoin urgent de comprendre et gérer collectivement les risques » de l’intelligence artificielle. La signature de cette déclaration a été actée quelques jours seulement après que le G7 ait adopté un code de bonne conduite pour mieux encadrer l’IA.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
« Cette déclaration historique marque le début d’un nouvel effort mondial visant à renforcer la confiance du public dans l’IA en veillant à ce qu’elle soit sûre, » a déclaré sur X, le Premier ministre du Royaume-Uni, Rishi Sunak. Outre l’Homme d’État britannique, Gina Raimondo, secrétaire au Commerce des États-Unis, était également présente sur place. Cette dernière a profité de l’occasion pour annoncer la création d’un institut américain de sécurité chargé d’évaluer les risques de l’IA. Une initiative qui s’inscrit dans le décret signé le 31 octobre par le président des États-Unis, Joe Biden, pour mieux encadrer le développement de l’IA sur le sol américain.
We’re facing a critical moment when it comes to AI development. We have to work together — with countries, civil society, and companies from around the world — to promote safe, secure, and trustworthy AI.
That’s what today’s UK AI Safety Summit was all about. pic.twitter.com/gCNlGHR9py
— Secretary Gina Raimondo (@SecRaimondo) November 1, 2023
Wu Zhaohui, vice-ministre chinois des sciences et de la technologie, a aussi pris la parole, affirmant que tous les acteurs du secteur « doivent respecter le droit international et travailler ensemble dans la lutte contre l’utilisation malveillante de l’IA ». Pour lui, ces outils restent « incertains, parfois inexplicables et manquent de transparence ». Plus tôt cette année, la Chine avait annoncé qu’elle souhaitait réglementer l’IA générative.
Plusieurs dirigeants d’entreprises technologies ont pu entendre les discours de Wu Zhaohui et de Gina Raimondo. Sam Altman d’OpenAI, Rene Haas de Arm, Elon Musk ayant fondé en avril sa nouvelle start-up dédiée à l’IA, xAI, Marc Benioff, le directeur général de Salesforce, Dario Amodei, PDG d’Anthropic ou encore James Manyika et Demis Hassabis qui représentaient Google, se sont tous rendus à l’AI Safety Summit.
Le ministre de l’économie, Bruno Le Maire, s’est également rendu à Bletchley. Il en a profité pour présenter la position française en matière de réglementation d’intelligence artificielle. Par ailleurs, la prochaine édition physique du AI Safety Summit sera organisée en France dans un an, tandis qu’une variante à distance se tiendra en Corée du Sud, au semestre prochain.