Quatre des plus importants acteurs de l’intelligence artificielle (IA), Anthropic, Google, Microsoft et OpenAI, avancent dans leur projet autonome de régulation de l’IA. Ils viennent de nommer le directeur du Frontier Model Forum, qu’ils ont mis en place cet été.
Le Frontier Model Forum tient son directeur
L’alliance entre ces sociétés vise à combler « une lacune » dans la réglementation mondiale de l’intelligence artificielle, elle se concentre sur les « modèles d’IA d’avant-garde », dotés de capacités très avancées. Si les gouvernements du monde entier souhaitent encadrer l’usage de la technologie démocratisée il y a un an par ChatGPT, ces réglementations n’ont encore pas vu le jour.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
La loi européenne sur l’IA, qui s’annonce particulièrement stricte, devrait être finalisée d’ici le début de l’année prochaine, tandis que les États-Unis ont simplement demandé aux entreprises de sécuriser la technologie. Pourtant, plusieurs acteurs de l’industrie ont alerté sur les potentiels dangers de l’IA, notamment son impact sur l’emploi ou sur la propagation de fausses informations. À plus long terme, certains s’inquiètent de la voir surpasser l’intelligence humaine.
Les membres du Frontier Model Forum viennent de nommer Chris Meserole en tant que directeur. Il a récemment occupé le poste de directeur de l’initiative sur l’IA et les technologies émergentes à la Brookings Institution, un groupe de réflexion basé à Washington. « Nous sommes probablement encore loin d’une véritable réglementation. En attendant, nous voulons nous assurer que ces systèmes sont construits de la manière la plus sûre possible », a-t-il indiqué. Le forum a également annoncé la mise en place, « dans les prochains mois », d’un conseil consultatif.
Un fonds pour la recherche
Le forum va opérer de la même manière qu’une initiative à but non lucratif, financée par les membres de l’industrie au moyen d’une cotisation. L’organisme va également consacrer 10 millions de dollars à un fonds pour la sécurité de l’IA. Il va exploiter les laboratoires existants et les équipes des entreprises participantes au projet pour rechercher des techniques de « red teaming », la méthode utilisée par les chercheurs pour tester les systèmes afin d’y déceler des failles ou des dangers, et d’élaborer des normes pour l’évaluation des risques.
Ces annonces interviennent alors que le premier sommet sur la sécurité de l’IA se tiendra la semaine prochaine au Royaume-Uni. Des dirigeants politiques et des cadres supérieurs du secteur technologique y discuteront de la coopération globale sur des questions telles que la sécurité nationale.