Gina Raimondo, secrétaire au Commerce des États-Unis, a annoncé le 7 février, la création du consortium AI Safety Institute (AISIC), affilié au National Institute of Standards and Technology (NIST). En tout, plus de 200 entreprises technologiques l’ont rejoint afin de soutenir le déploiement de l’intelligence artificielle (IA) en toute sécurité, et faire face aux risques liés à son développement.

Grands groupes et start-up réunis pour tendre vers une IA plus responsable

Dans un communiqué, Gina Raimondo a rappelé que « le gouvernement américain a un rôle important à jouer dans l’établissement des normes et le développement des outils dont nous avons besoin pour atténuer les risques et exploiter l’immense potentiel de l’intelligence artificielle ». L’Administration Biden a donc fait appel à de nombreux groupes spécialisés dans l’IA générative ou dont les activités sont liées à cette technologie, pour l’aider dans sa tâche.

Google, Amazon, Microsoft, Meta et Apple ont rejoint le consortium. Les GAFAM seront accompagnés de plusieurs spécialistes des semi-conducteurs tels que Nvidia, Qualcomm et Intel. Des géants de l’informatique, du cloud, du big data et de la cybersécurité à l’instar d’IBM, Hewlett Packard, Cisco Systems ou Palantir, se sont ralliés à eux. Enfin, quelques start-up ont intégré l’AISIC : OpenAI et Anthropic, entre autres.

Ensemble, ces entreprises travailleront sur certaines des actions prioritaires inscrites dans le décret signé fin octobre par le président des États-Unis, Joe Biden. Celui-ci vise à encadrer le développement de l’IA, et éviter les dérives. « Le président Biden nous a demandé d’utiliser tous les leviers pour atteindre deux objectifs clés : établir des normes de sécurité et protéger notre écosystème d’innovation. C’est précisément pour cela que le consortium américain AI Safety Institute a été créé : pour nous aider à le faire » a précisé Gina Raimondo.

L’AISIC élaborera des lignes directrices pour l’équipe rouge, une entité qui réalise régulièrement des simulations d’intrusions dans des systèmes informatiques afin de tester leur robustesse et améliorer leur sécurité. Le consortium se penchera également sur la création d’un filigrane inclus dans les métadonnées d’un contenu, pour savoir s’il a été généré par l’IA ou non. Meta, qui fait partie du groupe, a récemment présenté ses mesures pour mieux identifier ce type de contenus.

L’initiative entreprise par l’Administration Biden n’est pas la première du genre à regrouper plusieurs entreprises spécialisées du secteur. En juillet dernier, Google, OpenAI, Anthropic et Microsoft fondaient un organisme axé sur le développement « sûr » et « responsable » des outils d’IA générative. Ses missions, faire progresser la recherche sur la sécurité de l’IA, collaborer avec les décideurs politiques, soutenir le développement d’applications sécurisées, et favoriser le déploiement responsable de modèles de pointe. Les quatre « pionniers » ont désormais le soutien du gouvernement américain, et de 200 entreprises.