L’Union européenne a annoncé le 27 juin 2023, l’ouverture prochaine de quatre centres de tests et d’expérimentation afin d’évaluer les systèmes d’intelligence artificielle les plus récents. Ces installations permanentes permettront d’effectuer des crashs tests sur les modèles d’IA et devraient voir le jour au début de l’année prochaine.

Quatre centres pour tester et expérimenter les outils d’intelligence artificielle

La Commission européenne a alloué une enveloppe de 220 millions d’euros afin que ce projet devienne une réalité. Cette somme a pu être réunie avec l’aide de certains gouvernements des pays membres de l’UE, ainsi qu’avec le soutien du programme pour une Europe numérique. Elle permettra de financer ces quatre centres pendant cinq ans. Passé ce délai, ces installations devront être capables de s’autofinancer en faisant payer les entreprises qui viendront tester leurs modèles.

Chaque établissement sera spécialisé dans un secteur en particulier : la ville connectée, l’agriculture, la santé et l’industrie… Ils seront soit virtuels, soit physiques, ce qui permettra aux fournisseurs de se rendre directement sur place pour faire tester leurs outils, ou de passer par un système de guichet virtuel s’ils ne peuvent pas le faire physiquement. Une centaine d’organisations soutiendront le lancement de ces quatre centres.

Lors de l’annonce, Lucilla Sioli, directrice de l’intelligence artificielle et de l’industrie numérique à la Commission européenne, a souligné l’importance qu’ont « les innovateurs dans l’apport de modèles d’intelligence digne de confiance sur le marché ». Elle a ajouté qu’ils avaient tout intérêt « à s’appuyer sur ces nouveaux centres pour tester et valider leurs applications ».

Proposer des IA de confiance au sein de l’Union européenne

Ces installations viendront compléter l’AI Act européen, la réglementation récemment approuvée par le Parlement européen dans le but de réguler l’intelligence artificielle. Aucune information n’a été apportée quant à l’obligation de passer par ces centres afin de valider un système d’IA pour qu’il puisse être commercialisé et utilisé au sein de l’UE.

Avec l’adoption et l’entrée en vigueur de ce nouveau cadre législatif, tous les modèles d’IA seront classifiés. Quatre catégories ont été conçues pour l’occasion : risque minimal, risque limité, risque élevé, et risque inacceptable. Lorsqu’un système est classé dans les catégories risque limité ou risque élevé, les entreprises les ayant conçus sont obligées de les modifier ou de respecter certaines normes afin d’être le plus transparent possible et être en conformité.

Ces centres sont vus comme des filtres de sécurité entre les innovations et les utilisateurs européens. La Commission affirme qu’ils « représentent une brique importante dans la construction d’un écosystème d’excellence et de confiance dans l’intelligence artificielle ».