Les craintes quant à l’utilisation de l’intelligence artificielle pour commettre des crimes et délits ou pour répandre de fausses informations grandissent de jour en jour. De ce fait, les États-Unis examinent la possibilité de mettre en place une réglementation sur les outils d’intelligence artificielle générative, tels que ChatGPT ou DALL-E 2, afin de renforcer les procédures de contrôle.

Le gouvernement américain sollicite la population pour réglementer l’intelligence artificielle

En mars dernier, le département du Commerce des États-Unis avait publié un rapport proposant des recommandations sur la façon dont la surveillance de l’IA pourrait se réaliser. Il suggère d’améliorer la formation autour de ces outils au sein des organisations les utilisant au quotidien, de renforcer les lois autour de la propriété intellectuelle, ou encore de mettre en place de nouvelles méthodes pour tester, et valider ou non les systèmes d’IA.

Au début du mois, Joe Biden avait rencontré son conseil consultatif sur la science et la technologie (DCAST). Le président des États-Unis avait reconnu que ce secteur présentait d’énormes opportunités, mais il avait également évoqué ses risques en appelant les entreprises à être vigilantes. Le 11 avril 2023, le département du Commerce a décidé de lancer un appel à contributions. Cette initiative invite la population américaine, et plus particulièrement les utilisateurs ainsi que les créateurs de ces outils à répondre à plusieurs questions :

  • Quels types d’accès aux données sont nécessaires pour effectuer des audits et des évaluations de solutions d’IA ?
  • Comment les régulateurs peuvent-ils inciter et soutenir les développeurs à être responsable lorsqu’ils mettent au point et diffusent leurs outils ?
  • Quelles approches pourraient être proposées en fonction des secteurs où ces outils sont utilisés : industrie, finance, soins de santé, etc. ?

Les réponses à ces questions seront analysées par l’Administration Biden. Ces commentaires pourraient permettre à Washington de peaufiner un cadre législatif autour de l’IA générative.

Plusieurs acteurs de la tech mécontents du développement trop rapide des IA génératives

Depuis la sortie de ChatGPT fin novembre 2022, les IA génératives connaissent un fort succès. Plusieurs acteurs du milieu de la tech s’en sont alarmés. Elon Musk s’est associé à d’éminents chercheurs afin de tirer la sonnette d’alarme sur les IA performantes. Dans une lettre, ils ont demandé l’arrêt de développement d’IA plus avancées que GPT-4, le dernier modèle de langage mis au point par OpenAI.

Ces spécialistes considèrent que ce marché émergent est très vite devenu concurrentiel, en témoigne le sprint dans lequel s’est lancé Google afin de développer un modèle équivalent à ChatGPT, à savoir Bard. « Ces derniers mois, les laboratoires d’IA se sont lancés dans une course effrénée pour développer et déployer des esprits numériques de plus en plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », écrivent les signataires de la lettre.

Ensemble, ils recommandent « l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté » des recherches engagées dans ce secteur. Enfin, ils demandent que les décideurs politiques et les développeurs s’unissent pour établir un système de gouvernance pour cette technologique.

Les États-Unis ne sont pas les seuls à vouloir réglementer l’intelligence artificielle

Si aux États-Unis, le gouvernement réfléchit à mettre en place un tel système au travers d’un nouveau cadre législatif, son plus sérieux rival, la Chine, est également passé à l’action. Alors que l’appel à consultation était lancé, l’Empire du Milieu a présenté un premier aperçu de sa future réglementation sur l’intelligence artificielle générative. Plusieurs mesures ont été présentées, mais toutes n’ont pas vocation à être conservées.

Le bureau national d’information sur l’internet (CAC) a principalement repris des mesures déjà présentes dans la réglementation sur les données personnelles déjà en vigueur dans le pays. Pékin considère que les IA doivent suivre des principes clairs, en lien avec la protection d’informations personnelles ou la censure de messages jugés indésirables par le Parti Communiste Chinois. En somme, la future réglementation chinoise sur les IA génératives ne ressemblera pas à celle qui pourrait être proposée par Washington. Sans surprise, l’approche américaine sera très différente, probablement plus proche de l’IA Act européen en cours de préparation.