Dans le cadre d’une visite à la Maison-Blanche le 21 juillet 2023, plusieurs grands groupes technologiques américains ont convenu d’une série d’engagements autour de l’intelligence artificielle (IA). Leur objectif : permettre le développement de cette technologie tout en garantissant la sécurité de ses utilisateurs et celle des données utilisées pour leur création.
Les géants technologiques jouent cartes sur table en matière de sécurité
Avec l’avènement de l’intelligence artificielle générative, porté par la sortie de ChatGPT d’OpenAI en novembre dernier, la question de la sécurité est devenue une préoccupation majeure. C’est vrai en Europe, où un texte est en préparation, mais aussi aux États-Unis où sont basés les plus grands acteurs du secteur. Dans le cadre d’un entretien à Washington avec le président des États-Unis, Joe Biden, les responsables techniques et dirigeants de sept géants américains de la tech se sont engagés « à contribuer à un développement sûr, sécurisé et transparent de l’IA ».
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Étaient présents, le PDG d’Amazon Web Services, Adam Selipsky, le PDG d’Anthropic, Dario Amodei, le directeur des affaires mondiales de Google, Kent Walker, le PDG d’Inflection, Mustafa Suleyman, le directeur des affaires mondiales de Meta, Nick Clegg, le président de Microsoft, Brad Smith, et le président d’OpenAI, Greg Brockman. Tous sont tombés d’accord avec l’Administration Biden sur l’application de plusieurs initiatives pour mieux encadrer l’IA, son développement et ses usages.
I was honored to represent @amazon today at a White House event, where leaders across government and industry committed to continue promoting the safe, secure, and transparent development of AI technology. These commitments build on Amazon’s approach to responsible and secure AI… pic.twitter.com/elzdiclfJx
— Adam Selipsky (@aselipsky) July 21, 2023
Tout d’abord, leurs sociétés développeront un moyen pour permettre aux consommateurs d’identifier le contenu généré par la machine grâce à un système de filigrane. En février dernier, OpenAI avait dévoilé un outil qui détectait si un texte avait été rédigé grâce à une intelligence artificielle.
Ensuite, ces entreprises vont engager des experts indépendants pour évaluer la sécurité de leurs outils avant de les rendre publics. Elle les invitera régulièrement à analyser, rechercher et enfin signaler d’éventuelles vulnérabilités dans leurs systèmes. Dans une optique de prévention et de sensibilisation, les géants de l’IA partageront leurs conseils pour utiliser correctement leurs outils, et mettre en lumière les limites de leurs technologies.
Un pas de plus vers la mise en place d’un cadre législatif sur l’IA aux États-Unis
Ils donneront la priorité à la recherche autour des risques sociétaux de l’intelligence artificielle, notamment en matière de discrimination et de respect de la vie privée. Une mesure qui fait écho à la lettre cosignée par des chercheurs spécialisés et dénonçant la course à l’IA de ces entreprises technologiques. Les signataires demandaient une pause dans le but d’axer la recherche sur « l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté » des outils d’IA.
Enfin, la Maison-Blanche a tenu à ce que l’IA puisse être utilisé pour accompagner la résolution de certains des défis de notre siècle : lutter contre le changement climatique, et trouver des remèdes contre les maladies graves. Si pour l’Administration Biden, ces engagements constituent un pas en avant, un fonctionnaire de la Maison-Blanche a déclaré au New York Times que ces futures initiatives permettront certes « de repousser les limites de ce que font les entreprises et de rehausser les normes en matière de sûreté, de sécurité, et de confiance dans l’IA », mais que toutefois, « cela n’avait pas changé le besoin de promulguer une législation bipartisane ».
Le haut responsable fait référence au projet de loi déposé par des sénateurs américains pour une utilisation transparente de l’IA tout en favorisant la compétitivité du secteur. Au sein de l’Union européenne, l’AI Act a été adoptée par le Parlement européen, et devrait entrer en vigueur l’année prochaine. Le Vieux Continent a entrepris des travaux pour la création d’un code de conduite international avec le G7, l’Indonésie et l’Inde.