Face à l’engouement autour des technologies d’intelligence artificielle (IA), l’Union européenne prépare l’AI Act, une législation pour établir un cadre à l’utilisation de l’IA sur son territoire. Pour l’étoffer, les députés européens seraient sur le point de voter une série de propositions. Parmi elles, l’obligation aux entreprises d’indiquer si leurs modèles d’IA ont été entraînés avec du contenu protégé par le droit d’auteur, mais aussi l’interdiction de l’utilisation de la reconnaissance faciale dans les lieux publics.

Mieux encadrer l’intelligence artificielle en Europe

Plusieurs sources ont révélé au Financial Times, le 14 avril, les projets des députés européens vis-à-vis de l’intelligence artificielle. Au milieu des nombreuses propositions des élus au Parlement européen ressort celle contraignant les sociétés comme OpenAI, et son modèle de langage ChatGPT, à se montrer plus transparentes en avertissant lorsqu’elles se servent de données préservées par le droit d’auteur. Une réglementation qui devrait permettre aux propriétaires d’être rémunérés le cas échéant. « Nous voulons une liste publique du matériel utilisé pour leur formation, car les auteurs peuvent passer par d’autres législations et voies pour essayer d’être payés pour ce qui est utilisé sans leur consentement », a déclaré l’eurodéputé socialiste Brando Benifei, l’un des principaux négociateurs au Parlement.

La responsabilité quant aux dérives incombe aux géants de l’IA et non pas aux entreprises qui utilisent leurs services, insistent les députés européens. Une indication précisant que les chatbots ne sont pas humains, pour éviter toute confusion lors d’échanges, sera également nécessaire.

Une autre mesure importante est l’interdiction de la reconnaissance faciale dans les espaces publics, peu importent les circonstances. Une personne au courant des négociations a confié au média britannique que les États membres de l’UE devraient s’y opposer. Enfin, les propositions pourraient prohiber la police prédictive, comme la vidéosurveillance algorithmique, ainsi que la reconnaissance émotionnelle.

Un cadre en préparation depuis 2018

Depuis plusieurs années, l’Union européenne cherche à réglementer l’intelligence artificielle, et l’effervescence autour de l’IA générative l’oblige à presser le pas. Afin d’assurer une transition numérique « conforme aux valeurs européennes », l’UE travaille sur l’Artificial Intelligence Act. Son objectif est de restreindre l’usage de ces technologies pour assurer la sécurité des Européens, voire de l’interdire lorsqu’elles sont jugées trop dangereuses. Dans un rapport publié le 30 mars dernier, le Sénat assurait (PDF) que « la classification en systèmes “à haut risque” ne reposerait pas sur leur mode de fonctionnement et leurs fonctionnalités, mais sur leur finalité et leurs modalités d’utilisation ».

Cette volonté de réguler l’IA existe depuis 2018, lors de la présentation par la présidente de la Commission européenne, Ursula von der Leyen, d’une première stratégie, complétée par un livre blanc sur l’intelligence artificielle sortie en février 2020, puis par une proposition de « législation sur l’intelligence artificielle » en 2021. Ces dernières viennent former les fondations de « la troisième grande réglementation numérique horizontale, après le Digital Markets Act et le Digital Services Act ».

La Commission européenne a d’ores et déjà commencé à enquêter sur les mastodontes du marché, notamment en créant un groupe de travail sur la technologie d’OpenAI. Le but étant de « favoriser la coopération et d’échanger des informations sur les éventuelles mesures d’exécution prises par les autorités chargées de la protection des données ». L’entreprise basée à San Francisco pourrait faire face à des inspections plus minutieuses lors de la mise en place de l’AI Act, prévu avant 2024. En attendant, Brando Benifei précise que les députés pourraient arrêter leurs positions d’ici la fin de la semaine. Dès lors, ils s’attelleront à rédiger une proposition de règlement final.