Les eurodéputés des commissions du marché intérieur (IMCO) et des libertés civiles (LIBE) ont largement voté le 13 février en faveur du compromis sur le règlement sur l’intelligence artificielle. Le passage de cette étape haut la main semble écarter pour de bon le risque d’un rejet de dernière minute.

La dernière ligne droite pour l’AI Act

Présenté dans l’indifférence générale par la Commission européenne en avril 2021, le destin de l’AI Act a chaviré avec l’arrivée de ChatGPT. L’IA générative d’OpenAI a incité les députés européens à retravailler le texte pour prendre en compte ce type de technologie dans leur texte.

Cette décision a entraîné des négociations tumultueuses lors du trilogue, les discussions entre les représentants du Parlement, du Conseil et de la Commission. Malgré l’opposition de la France, aidée par l’Allemagne et l’Italie, les IA génératives sont restées dans le texte.

Le gouvernement français a continué à résister, pour éviter que ses champions ne soient défavorisés, jusqu’à la signature d’un compromis au début du mois. Il a pu obtenir quelques concessions telles qu’un allégement de charges administratives ou une protection du secret des affaires renforcées.

Côté député européen, les deux commissions qui ont travaillé sur le dossier ont largement validé le règlement, par 71 voix pour, 8 contre et 7 abstentions. TechCrunch pointe que le Parti Pirate est le plus hostile aux textes issus des négociations.

Ce vote est généralement un indicateur fiable sur les résultats du scrutin final en séance plénière. Il aura lieu en avril. La proximité des élections européennes va également dans le sens d’un résultat favorable. Avec la validation des États début février, l’approbation du Conseil, qui doit clôturer le marathon législatif de l’AI Act, semble également bien engagée.

Viendra ensuite le temps de l’entrée en application. Celle-ci se fera de façon progressive. Des portions de textes entreront en vigueur 6, 9, 12 et 36 mois après sa validation.

Pour rappel, l’AI Act vise à interdire formellement certaines pratiques jugées dangereuses pour les droits des citoyens comme la police prédictive, la notation sociale, la reconnaissance des émotions dans le milieu scolaire et professionnel… Des exceptions ont été intégrées, notamment dans l’usage de systèmes biométriques par les forces de l’ordre dans certains contextes.

Les entreprises qui exploitent des modèles de bases à haut risque, ou système d’IA à usage général devront se soumettre à des exigences de transparence, respecter le droit d’auteur lors de la formation de l’algorithme, se soumettre à des évaluations ou encore identifier les images et sons générés par l’IA.