« L’IA générative a le potentiel d’être un outil vital pour améliorer le monde », a soutenu Fumio Kishida, le Premier ministre japonais, avant de pointer : « nous devons également faire face au côté obscur de l’intelligence artificielle, comme le risque de désinformation ».

Ces propos ont été tenus à l’occasion d’un discours à l’Organisation de coopération et de développement économiques (OCDE), basée à Paris, jeudi 2 mai. L’occasion pour le Premier ministre de dévoiler un cadre international pour une réglementation de l’IA générative, rapporte Associated Press sans apporter de détails.

Ce n’est pas la première fois que le Japon fait un pas dans le sens d’une réglementation internationale de l’IA générative. L’année dernière, lors de sa présidence du G7, le pays avait dévoilé le « groupe d’amitié du processus Hiroshima sur l’IA » afin d’élaborer des principes directeurs et un code de conduite internationaux pour les développeurs d’IA.

Une cinquantaine de pays ont adhéré à cette initiative. Ils travaillent ensemble à la mise en place du « processus Hiroshima sur l’IA ». L’objectif est de « promouvoir la coopération afin de garantir que les personnes du monde entier puissent bénéficier de l’utilisation d’une IA sûre, sécurisée et digne de confiance », a rappelé Fumio Kishida.

Des premières réglementations en Europe et États-Unis

La réglementation de l’IA générative occupe de nombreux législateurs à travers le monde. Le Parlement européen a adopté l’AI Act en mars dernier. La vocation du texte est de prévenir de l’émergence de biais discriminants dans les résultats des algorithmes. Des principes de protection de la vie privée, ainsi que des niveaux de contrôles d’applications de l’intelligence artificielle par risque sont également compris dans la loi. Ces derniers vont d’un niveau minimal jusqu’à inacceptable, par exemple en cas analyse d’émotions des salariés sur leur lieu de travail ou de scoring social.

Aux États-Unis, un décret pour encadrer l’IA a été signé par Joe Biden en octobre dernier. Le texte oblige notamment les fournisseurs d’IA à informer le gouvernement lorsqu’ils développent un système présentant un « risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales ».

Le décret américain a également abouti à la création d’un comité pour une IA « sûre et sécurisée » rassemblant 22 membres, majoritairement des PDG de grandes entreprises technologiques. Sont notamment membres les PDG Sam Altman d’OpenAI, Sundar Pichai de Google, Satya Nadella de Microsoft ainsi que Jensen Huang de Nvidia.