Ce vendredi 8 décembre, les négociateurs du Parlement européen, des États membres et de la Commission sont enfin tombés sur un accord pour réglementer l’intelligence artificielle (IA). Le texte, baptisé l’AI Act, est considéré comme pionnier dans le monde occidental.
Des concessions des deux côtés
Les décideurs se sont entendus après trente-sept heures de négociations. « C’est la plus grande étape de l’histoire de la transformation numérique en Europe », a annoncé Carme Artigas, secrétaire d’État espagnole chargée de l’IA.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Le plus important défi pour l’Union européenne (UE) était d’encadrer la technologie sans pour autant brider ses jeunes pousses locales. « L’AI Act est bien plus qu’un simple règlement, c’est une rampe de lancement pour les start-up et les chercheurs de l’UE qui mèneront la course mondiale à l’IA », a salué Thierry Breton, commissaire européen au marché intérieur.
Historic!
The EU becomes the very first continent to set clear rules for the use of AI 🇪🇺
The #AIAct is much more than a rulebook — it’s a launchpad for EU startups and researchers to lead the global AI race.
The best is yet to come! 👍 pic.twitter.com/W9rths31MU
— Thierry Breton (@ThierryBreton) December 8, 2023
Le débat s’est beaucoup concentré sur l’usage de la reconnaissance faciale, une question qui agite les parlementaires européens depuis plusieurs mois déjà. Chaque partie a finalement fait des concessions : l’usage de cet outil sera grandement limité dans les espaces publics, mis à part pour des exceptions étroitement définies par les forces de l’ordre à l’instar du terrorisme. De même, les systèmes de notation citoyennes ou de surveillance de masse sont interdits.
L’Ai Act imposera des sanctions financières aux entreprises qui enfreignent les règles, avec des amendes pouvant atteindre 35 millions d’euros ou 7 % de leur chiffre d’affaires mondial, en fonction de l’infraction et de la taille de la société.
Un accueil très mitigé
L’encadrement de l’IA générative, popularisée par le lancement de ChatGPT à la fin 2022, a également été une cause de friction. Par exemple, la France et l’Allemagne, dans un souci de préserver leurs champions locaux, ont plaidé pour des mesures plus souples. Ils ont défendu le principe d’une réglementation des systèmes d’IA selon leurs risques, plutôt que de directement cibler les modèles de fondation.
Les législateurs se sont mis d’accord sur une approche à deux niveaux, avec des « exigences de transparence pour tous les modèles d’IA à usage général (tels que ChatGPT) » ainsi que des « exigences plus strictes pour les modèles puissants ayant un impact systémique » dans l’ensemble de l’UE, a commenté Thierry Breton.
La réaction de la France est mitigée. « Nous allons analyser attentivement le compromis trouvé aujourd’hui et nous assurer dans les prochaines semaines que le texte préserve la capacité de l’Europe à développer ses propres technologies d’intelligence artificielle et préserve son autonomie stratégique », a indiqué Jean-Noël Barrot, ministre délégué chargé de la transition numérique et des télécommunications.
Les représentants des acteurs du secteur ont également critiqué la législation. Cecilia Bonefeld-Dahl, directrice générale de DigitalEurope, a ainsi déclaré : « Nous avons un accord, mais à quel prix ? Nous étions tout à fait favorables à une approche fondée sur les risques et basée sur les utilisations de l’IA, et non sur la technologie elle-même, mais la tentative de dernière minute de réglementer les modèles de fondation a bouleversé cette approche ».
Le Parlement et le Conseil, qui regroupe les 27 États membres de l’UE, doivent encore approuver l’accord. Celui-ci pourrait entrer en vigueur dès 2025.