À Bruxelles, les discussions vont bon train pour voir aboutir le règlement sur l’IA en 2023. L’objectif affiché est de « faire de l’UE l’organisme de référence mondiale en matière d’IA digne de confiance » selon les mots du Commissaire européen Thierry Breton. En comparaison, les États-Unis paraissent en retard sur le terrain de la réglementation, aucune loi générale sur l’IA ne semble envisagée. Un décalage à relativiser, symbole de deux approches différentes malgré leurs points communs.
Entre les désaccords des États membres, la quête du « Brussels effect »
Le trilogue sur l’AI Act, cadre de négociation entre le Parlement, le Conseil et la Commission européenne, traîne en longueur. Son programme a été bousculé par la France, l’Allemagne et l’Italie. Les gouvernements des trois puissances de l’UE plaident pour une réglementation « raisonnable », qui ne « freine pas l’innovation ». Les discussions évoluent quotidiennement, au rythme des propositions et contre-propositions des uns et des autres. Madrid, qui occupe la présidence tournante du Conseil de l’UE, mais aussi les fonctionnaires de Bruxelles espèrent toujours parvenir à un accord politique avant 2024. Dans le cas contraire, l’imminence des élections européennes pourrait en repousser l’adoption pour longtemps. « À mon avis, cela [l’AI Act] se fera probablement le 31 décembre, à 23h55 » avait justement pronostiqué, amusé, Mark Scott, responsable des sujets tech pour le média Politico, lors d’un événement de l’IFRI.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
La surprise du succès populaire de ChatGPT, qui fête ses un an, est intimement liée au bras de fer en cours. La Commission a présenté l’AI Act en 2021, pour se prémunir des dangers de la technologie, lorsque le grand modèle de langage (LLM) n’existait pas encore dans sa version ouverte aux utilisateurs. Conseil et Parlement ont pris en compte cette nouveauté et des éventuels risquent en travaillant sur leurs propres versions du texte. Les eurodéputés, notamment, ont pris des mesures strictes contre ces « modèles de fondations » et les risques qu’ils pourraient représenter. Leur définition est fluctuante, mais désigne grossièrement les grands modèles aux usages divers. Dès septembre, Paris a commencé à exprimer ses désaccords avec la chambre, rejoint par Berlin. Les capitales redoutent que cela n’entrave l’émergence d’un rival crédible à OpenAI tel que le français Mistral AI ou l’allemand Aleph Alpha.
Bruxelles a fait du projet de réglementation le cœur de sa politique en matière d’IA. Faute de géant du numérique, l’UE parie sur le « Brussels effect ». Cette formule, théorisée pour la première fois en 2012 par la professeure de droit Anu Bradford, désigne l’Union européenne comme une « superpuissance normative ». Soit les entreprises se plient aux standards élevés du Vieux Continent pour avoir accès à son vaste marché, soit d’autres États adoptent eux-mêmes ces standards. On retrouve cette volonté, en creux, dans la formule de Thierry Breton. La course à l’IA est doublée d’une course sur sa réglementation.
Les États-Unis misent sur les textes existants
Dans cette course, les États-Unis donnent l’impression d’être distancés. Aucune initiative législative d’ampleur n’est au programme. « Malgré cela, les États-Unis ont fait plus pour réglementer l’IA que la plupart ne l’imaginent » signale une note du Center for European Policy Analysis, début novembre. Elle a été rédigée en réaction de la signature d’un « Executive Order » (EO), ou décret présidentiel, par Joe Biden, fin octobre. Ce décret s’inscrit « dans la continuité des initiatives gouvernementales existantes » constate ce commentaire.
Il est ambitieux, par le nombre de secteurs qu’il couvre, mais aussi contraint dans sa portée. Une constante des initiatives américaines depuis l’administration Trump. « Il est encourageant de constater qu’il introduit des garde-fous essentiels pour l’utilisation de l’IA et prend des mesures importantes pour protéger les droits des personnes. Il est également intrinsèquement limité : contrairement aux lois du Congrès, les mesures exécutives ne peuvent pas créer de nouvelles agences ni accorder de nouveaux pouvoirs de réglementation sur les entreprises privées » analyse l’influente organisation Brookings.
Lors de la publication du décret, Joe Biden lui-même a admis avoir « encore besoin que le Congrès agisse ». Les législateurs américains se sont focalisés sur l’encouragement de l’usage de l’IA par le gouvernement, ou le renforcement de l’éthique, sans aller plus loin. Ce sont donc les agences fédérales qui portent les efforts de réglementation américains écrit le chercheur Hadrien Pouget du Carnegie Endowment for International Peace, « sans lois accordant de nouveaux pouvoirs aux agences, celles-ci sont contraintes de s’appuyer sur des réinterprétations de leurs pouvoirs existants pour réglementer l’utilisation de l’IA par l’industrie ».
Des initiatives fragmentaires, mais qui ont le mérite d’exister. Il estime que le décret représente même un signal positif destiné à Bruxelles. Il montre que les États-Unis sont prêts à réglementer l’IA, y compris ses propres entreprises et que « les détails de l’Executive Order constituent un point de référence utile, simplifiant les négociations de l’UE et ouvrant la voie à une coopération internationale en matière de gouvernance ». Washington en privilégiant l’auto-régulation de ses entreprises, laisse entrevoir comme ambition que ces dernières écrasent la concurrence mondiale. Avec son décret, Joe Biden montre que son pays aussi s’inquiète des évolutions de l’IA, en choisissant une approche similaire à l’UE, celle des risques et du développement d’une IA de confiance.
Washington, Bruxelles et le monde parlent d’IA
Pour échanger leurs points de vue, qui restent majoritairement divergents, Bruxelles et Washington disposent depuis 2021 du Trade and Technology Council (TTC). Dans ces rencontres annuelles au sommet, complétée par des réunions techniques, l’intelligence artificielle a naturellement occupé une place non négligeable. En 2022, l’élaboration d’un code de conduite commun a été décidée. Il a été proposé au G7 qui, sous l’égide du Japon, a fait de cette technologie l’une des thématiques centrales de 2023. Fin octobre, un code de conduite international pour les organisations qui développent des systèmes d’IA avancés a été publié par les puissances. Ce texte en 11 points s’appuie également sur les travaux préexistants de l’Organisation de coopération et de développement économiques. Non contraignant et évolutif, il est aussi une approche basée sur les risques. Il s’adresse à toutes les organisations, public ou privé qui voudraient y adhérer.
En parallèle, l’Organisation des Nations Unies (ONU) a tenu la première réunion de sa propre initiative, un organisme consultatif sur l’IA. Le secrétaire général des Nations Unies, Antonio Guterres, mise sur le cadre beaucoup plus inclusif de l’ONU pour soutenir les efforts internationaux sur le problème de gouvernance de l’IA. Une série de recommandations préliminaires doivent être publiées d’ici la fin de l’année, le document final est prévu d’ici l’été 2024.
Toujours durant l’automne, décidément chargé dans le monde de la régulation de l’IA, le Royaume-Uni a organisé le sommet de Bletchley sur… Les risques liés à l’IA. Une déclaration, signée par l’UE, les États-Unis, la Chine et d’autres, s’accorde sur le besoin de comprendre et gérer les dangers de l’IA. L’idée de créer un groupe d’expert international, sur le modèle du GIEC, a été évoquée. Une piste déjà mentionnée par Ursula von der Leyen, présidente de la Commission européenne, dans son discours sur l’État de l’Union en septembre. Pendant ce temps, Londres, comme d’autres, travaille sur sa propre réglementation. Le Royaume-Uni compte capitaliser sur son départ de l’UE, pour proposer une régulation plus souple et ainsi être la porte d’entrée de l’IA sur le Vieux Continent. Néanmoins, pour l’occident du moins, c’est bien les États-Unis et l’Union européenne qui traceront la voie de la réglementation. Si chacun trace sa route selon ses ambitions, la collaboration face à l’ampleur de la tâche est incontournable.