Dix-huit pays ont dévoilé le 26 novembre, un accord international visant à développer des outils d’intelligence artificielle (IA) sécurisés. Le National Cyber Security Centre (NCSC), l’agence de cybersécurité britannique, est à l’origine de ces lignes directrices.
Les initiatives se multiplient pour garantir la sécurité de l’IA
Quelques semaines après la première édition de l’AI Safety Summit où 28 pays avaient signé la première déclaration mondiale pour l’encadrement du développement de l’intelligence artificielle, un nouvel accord a été scellé. Il a été signé par les États-Unis, le Royaume-Uni, l’Allemagne, et la France via l’ANSSI. À noter que la Chine, qui avait signé la déclaration à Bletchley Park, ne s’est pas jointe à cette initiative.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Cet accord, non contraignant, se présente sous la forme d’un guide. Ce document comprenant 17 recommandations aura pour objectif d’aider les entreprises du secteur de l’IA « à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement, que ces systèmes aient été créés à partir de zéro ou construits sur des outils et services fournis par d’autres, » selon le communiqué du NCSC.
Georges Anidjar, directeur général Europe du Sud chez Informatica, juge que « l’introduction de politiques basées sur les risques pour régir les capacités de l’IA leur donnera une impulsion pour protéger l’intégrité de l’IA afin qu’elle permette des résultats positifs ». Ce guide invitera les sociétés et agences de cybersécurité des pays signataires à surveiller leurs systèmes d’IA vis-à-vis de l’accentuation des cybermenaces, à protéger les données contre la falsification, ou à réaliser des tests avant la mise en ligne de leurs outils.
Les géants technologiques et start-up du secteur comme Google, Anthropic, OpenAI, Microsoft ou Amazon, ont participé à l’élaboration de ces lignes directrices. Néanmoins, certains aspects n’ont pas évoqué dans le document, à l’instar des données utilisées pour la formation des modèles, ou les risques liés à l’émergence de l’IA générative. Pourtant, pour Georges Anidjar, « il est crucial que toute politique aborde le rôle que joue la qualité des données pour garantir la sécurité et l’efficacité des systèmes d’IA ».
Les régulateurs européens qui se sont penchés sur cette problématique ont intégré plusieurs mesures en ce sens dans l’AI Act européen. Toutefois, les négociateurs du trilogue France/Allemagne/Italie ont du mal à s’entendre sur cette réglementation. Ils ne souhaitant pas encadrer trop fermement le secteur et par conséquent, entériner l’éclosion d’une de leurs start-up. Les exemples Mistral AI côté français, et Aleph Alpha côté allemand restent les plus probants.
Aux États-Unis, Joe Biden a signé un décret pour encadrer le développement de l’IA, sommant à ses agences gouvernementales de s’emparer du sujet. Ainsi, la FTC a été commissionnée pour réglementer le marché de l’IA. Sa présidente, Lina Khan, est notamment allée à la rencontre des acteurs du milieu. Néanmoins, il faudra attendre plusieurs mois, si ce n’est plusieurs années, avant de voir l’UE et les États-Unis adopter leur cadre législatif pour encadrer l’IA.