Un an et demi après l’annonce par la présidente de la Commission européenne, Ursula Von der Leyen, de la volonté de réglementer l’IA dans les “100 jours”, la proposition de loi vient de naître. Au beau milieu d’une période de restrictions sanitaires qui a vu augmenter l’usage et la pénétration des nouvelles technologies dans nos vies, l’UE souhaite réguler l’un des secteurs clés.
L’intelligence artificielle, transversale, utilisée dans de nombreux secteurs, de la santé aux transports en passant par les réseaux sociaux, est un mot qui renferme de nombreuses technologies. En termes simples, Nicolas Méric, CEO de DreamQuark, la définit comme “l’ensemble des technologies qui permettent à la machine de reproduire des comportements considérés comme intelligents par les humains”. C’est par exemple le système qui permet à Spotify de vous proposer des playlists adaptées à votre style, aux réseaux sociaux comme Facebook de trier le contenu intéressant de votre fil d’actualité et d’y supprimer ceux indésirables ou illégaux, ou encore à une voiture autonome de se mouvoir seule. C’est aussi les programmes qui aident à cartographier et reconstruire la Cathédrale Notre-Dame, ou certains logiciels pouvant diagnostiquer une tumeur ou une maladie grave bien plus rapidement qu’un médecin.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
L’IA est partout, et constitue tout ce qui n’a pas encore été fait. “Plusieurs choses se dégagent des comportements reproduits par les machines” précise Nicolas Méric, “il y a la perception (c’est repérer ce qu’il y a autour de moi, dans mon environnement), la communication (c’est le mouvement, la robotique), la compréhension (c’est la capacité à analyser et prendre des décisions), et l’apprentissage (c’est pouvoir apprendre avec l’expérience)”. Il y a donc autant d’aspects à l’intelligence artificielle qu’il n’y a d’applications pratiques qui en contiennent.
Or, un des grands débats sur la thématique reste la fameuse question de la conscience au sein de l’intelligence, et des limites éthiques auxquelles fait souvent face l’IA. On se souvient des livres de Cathy O’Neil, rendue célèbre par son apparition dans The Social Dilemma, qui pointait depuis longtemps déjà la menace pour la démocratie et les droits humains que pouvaient représenter les algorithmes. On se souvient également de Coded Bias, le documentaire Netflix qui suivait Joy Buolamwini, chercheuse du MIT, dans sa quête contre les biais racistes et misogynes au sein des systèmes d’intelligence artificielle, et notamment de reconnaissance faciale. Une chose est claire : l’intelligence artificielle comporte des risques. Et de cela, l’Union européenne en est bien consciente. Problème : l’UE est un Far West législatif quand il est question d’IA.
Le message de cette proposition est donc le suivant : l’IA a des potentiels, et c’est la raison pour laquelle il faut l’encadrer. “Qu’il soit question d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l’intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles”, avait déclaré en septembre la présidente de la Commission européenne, dans son discours sur l’état de l’Union.
Par cette proposition de loi qui réglemente l’IA, la Commission met la barre des exigences haute pour le secteur tech, comme elle l’a fait avec le Digital Market Act et le Digital Services Act. C’est une dynamique de réglementation du numérique qui se dessine depuis plus d’un an, avec un continent affichant une volonté de s’attaquer aux domaines clés de nos économies, et à ses acteurs. Par la cybersécurité, par la protection des données personnelles, par une garantie à la concurrence, et maintenant par la réglementation de l’intelligence artificielle.
La réglementation de l’IA présente une opportunité, pour l’UE, qui fait du numérique un de ses chevaux de bataille, donnant l’exemple à travers des textes ambitieux à l’échelle internationale. C’est l’occasion de faire progresser son programme de souveraineté numérique et d’établir une autre norme mondiale, comme elle l’a fait avec succès via le RGPD. Depuis des années, la Commission travaille sur l’IA. “La réglementation ne tombe pas de rien. Ce sont des groupes de travail, d’experts, qui ont réfléchi. Il y a eu un vrai travail pour rendre cette réglementation opérationnelle” nous apprend Nicolas Méric. En effet, la stratégie européenne pour l’IA date de 2018 ; déjà, une tentative d’explication de la technologie et de son importance en société y figurait. En 2019, le groupe d’experts de haut niveau appointé publiait ses lignes directrices, invitant à bâtir une confiance durable au sein des systèmes IA, par sa régulation. Puis, en 2020, le document le plus précis naissait, en ce qu’on connaît encore sous le nom de livre blanc sur l’IA, jetant les fondations de la proposition officielle qui vient d’être dévoilée.
Le mercredi 21 avril, c’est dans ce contexte qu’a été dévoilée la proposition de loi de la Commission Européenne, une première dans le monde. Une proposition ambitieuse, longue de 100 pages, aux termes parfois vagues mais aux intentions certaines : faire de l’IA un allié des citoyens, de leurs droits et de la démocratie, et non une menace. Les critiques ont fusé, les commentaires ne se sont pas fait attendre, à son propos : le texte n’est pas parfait, et comporte des omissions, des imprécisions, qui pourraient s’avérer dangereuses. Explications, en compagnie de l’expert en intelligence artificielle et PDG de Dreamquark Nicolas Méric.
Une approche fondée sur le risque
Le plan de l’UE pour réglementer l’IA recourt à une approche en fonction des risques des différents systèmes. Quatre catégories de risque sont différenciées : le risque inacceptable, le risque élevé, le risque limité et le risque minimal.
Concernant les systèmes au risque inacceptable, leur nombre est plutôt réduit. Seuls la notation sociale (ou système de crédit social, rendu tristement célèbre par l’exemple fictif fourni par Black Mirror, ou très réel de la Chine), l’exploitation de la vulnérabilité des enfants à travers les jouets utilisant l’IA, l’utilisation de techniques subliminales et la surveillance dans les espaces publics seront interdits. Ce dernier, cependant, comporte plusieurs exceptions, que critiquent vivement les associations de défense des droits numériques.
Par ailleurs, on peut reprocher à l’UE cette approche basée sur le risque, qui empêche de vraies décisions d’interdiction d’avoir lieu. Beaucoup des usages les plus dangereux, dont de nombreux cas empiriques ont pu violer les droits humains et créer des inégalités, sont relayés au rang de “haut risque”. Par exemple, la police prédictive, l’utilisation de l’IA pour le contrôle de l’immigration, la catégorisation biométrique ethnique, du sexe, du genre, ou encore l’IA utilisée par/sur les travailleurs.
Tous ces usages dépendent de la perfection des systèmes d’intelligence artificiels utilisés, et des données récoltées. Or, comme le détaille Nicolas Méric, “aujourd’hui, dès qu’on a de la donnée, celle-ci a des biais. Les humains qui ont conçu les systèmes ont eux-mêmes des biais cognitifs, peuvent être en proie à la misogynie, au racisme, ce qui amène encore d’autres biais intégrés dans les systèmes”. L’UE y répond ainsi en introduisant des critères et des exigences qualitatives sur ces facteurs, sans bannir l’utilisation de l’IA dans ces secteurs sensibles, avec pour but de protéger les droits humains. Une formule qui reste à prouver.
Le cadre juridique que vient de développer l’Union Européenne s’appliquera à la fois aux acteurs publics et privés, à l’intérieur comme à l’extérieur. Le simple critère pour que le texte s’applique à une entreprise repose sur le fait que son IA est ou non disponible sur le marché européen. Si elle l’est, l’entreprise doit se conformer, qu’elle soit un développeur (comme Amazon avec AWS) ou une entreprise utilisatrice d’un système tiers (comme Netflix ou Tinder, qui utilisent AWS). À l’inverse, le texte ne s’appliquera pas aux utilisations privées et non professionnelles.
Les droits humains au cœur de l’IA ?
Le texte évoque à maintes reprises l’importance des droits humains, et leurs liens complexes avec les systèmes d’IA. Comme nous l’a expliqué le PDG de Dreamquark, l’opacité et la composition de nombreux algorithmes ont le potentiel d’affecter la sécurité des citoyens, et leurs droits fondamentaux. “Pour la reconnaissance faciale par exemple, les systèmes marchent beaucoup mieux sur des personnes de type caucasien, tout simplement car c’est de ce type de profils qu’ont appris les algorithmes. Le but, ici, c’est d’avoir des données qui représentent la population, qui sont également réparties entre hommes et femmes, et entre nationalités et couleurs de peau” détaille-t-il.
Nous pourrions aussi simplement nous poser la question des usages : pourrait-il y avoir des secteurs où l’usage de l’AI devrait être par nature interdit ? Le problème est que c’est précisément dans les secteurs les plus sensibles, comme la santé ou le champ militaire, que les intelligences artificielles comportent les potentiels les plus impressionnants pour aider l’humain. “On peut aussi ajouter qu’il y a certains secteurs critiques en eux-mêmes. La santé, l’éducation, l’accès à l’information… Ceux-ci sont liés à de nombreux droits fondamentaux” ajoute Alessandro Ciociola, CIO d’Occupy AI. C’est précisément la raison de l’action législative de l’UE : prendre en considération les risques et les avantages des systèmes d’IA, en fonction de leurs secteurs d’application, et imposer des exigences à ces secteurs classés à “haut risque”.
La proposition de loi cite une longue liste de droits mis en question par l’IA, et que l’on trouve dans la Charte Européenne des droits fondamentaux. Parmi eux, le respect de la vie privée et la protection des données personnelles, lié au fait que les algorithmes de machine learning sont bien souvent consommateurs de données pour se perfectionner, ce qui peut pousser les plateformes comme Facebook à exiger toujours moins de confidentialité pour leurs utilisateurs. La non-discrimination y figure aussi, liée aux biais évoqués par Nicolas Méric, qui peuvent se traduire dans des systèmes de reconnaissance faciale. Pour le spécialiste de l’IA, “certains biais ne sont pas tolérables, du point de vue des valeurs de notre société. On considère naturellement qu’il ne doit pas y avoir de traitement différent entre hommes et femmes, entre les couleurs de peau, ou entre les religions dans la vie, cela devrait être pareil au sein de la technologie”.
Parmi les nouveautés, l’introduction du principe de garantie humaine. Dans l’article 14 du projet de règlement, la Commission introduit en effet la nécessité de “supervision humaine”. Ce principe de régulation positive avait été introduit en 2017, dans le cadre de la révision bioéthique, et renforce l’idée de la nécessité d’une alliance entre l’humain et l’IA, qui ne doit pas être laissée libre à elle-même.
Pour ce qui est de la responsabilité, l’accent est mis sur le fournisseur de service, même si les développeurs seront tenus de suivre tout un processus de mise en conformité avant d’introduire leur produit sur le marché. Le tampon CE sera utilisé pour manifester cette conformité, et attester du respect du règlement. “La responsabilité reste dans les mains de celui qui fournit le service final. Si on parle d’une banque qui propose un service de crédit pour lequel elle utilise un système d’intelligence artificielle, le responsable final n’est pas le créateur de la solution d’intelligence artificielle, même s’il devra également s’assurer de la conformité, mais la banque” explique Nicolas Méric.
L’interdiction de l’utilisation de l’IA à des fins de surveillance ?
En général, les technologies d’IA destinée à “une surveillance indiscriminée appliquée de manière généralisée à toutes les personnes physiques sans différenciation” seront interdites, dans la mesure où l’État ne les met pas en place pour garantir la sécurité publique, comme dans le cadre de la lutte contre le terrorisme. Tout ce qui est en fait de l’ordre de la manipulation, de l’exploitation des données, et de l’identification biométrique à distance dans les lieux publics, est interdit (sous quelques exceptions).
Réguler la surveillance recourant à “l’identification biométrique à distance”, comme la reconnaissance faciale, ainsi que toute sorte de tracking des données qui peut être effectuée, est donc le credo de la Commission. “La reconnaissance faciale n’est qu’un type de surveillance biométrique. La surveillance biométrique, elle, peut aussi inclure le relevé d’empreinte digitale [qui peut servir à déverrouiller un smartphone, ndlr] ou d’informations génétiques, c’est un vaste terme” nous explique le CIO de l’entreprise Occupy AI, Alessandro Ciociola.
Selon cette nouvelle proposition, en principe, l’identification biométrique à distance dans des lieux publics est interdite, à moins que l’on ne se trouve dans les cas qualifiés “d’exceptions” : une utilisation par l’État, soumise à autorisation d’un organe judiciaire, pour un motif garantissant la sécurité publique (traque d’un terroriste, localisation d’une personne disparue), limitée dans le temps et dans la géographie.
“Pour les données biométriques, la difficulté, c’est que pour un certain nombre d’activités, par exemple la conformité, avec des systèmes qui valident l’identité d’une personne, on a besoin de données biométriques. Faire de la télésurveillance et utiliser toutes ces informations pour suivre une personne, en revanche, cela devient interdit. Toute donnée biométrique utilisée pour influer sur la décision d’une personne, décision qu’elle n’aurait pas prise sans un système d’intelligence artificielle, est elle interdite par le texte” analyse le PDG de Dreamquark.
Un oeil attentif sur les systèmes d’IA à haut risque
Le commissaire chargé du marché intérieur, Thierry Breton, résume à merveille l’enjeu de régulation des systèmes à haut risque : “l’IA est un moyen, pas une fin. Il existe depuis des décennies, mais a atteint de nouvelles capacités alimentées par la puissance de calcul. Cela offre un immense potentiel dans des domaines aussi divers que la santé, les transports, l’énergie, l’agriculture, le tourisme ou la cybersécurité. Elle présente également un certain nombre de risques”. La liste est longue, pour ces systèmes à haut risque, et elle est même perçue comme infinie, puisque le marché change sans cesse. Pour cela, une entité sera créee, chargée de superviser l’application de la loi et “d’émettre des recommandations et des avis pertinents à la Commission, en ce qui concerne la liste des pratiques d’intelligence artificielle interdites et la liste des systèmes d’IA à haut risque”. Mais alors, quelles sont vraiment les exigences pour ces secteurs à haut risque ?
Tous ces systèmes seront strictement encadrés pendant leur cycle de vie, nous dit le texte. Ils devront subir une évaluation de conformité avant mise sur le marché, par des organismes tiers. De plus, leurs systèmes seront enregistrés dans une base de données de l’UE qui assurera la traçabilité, et délivrera ou non la déclaration de conformité et le marquage CE. Il sera nécessaire pour pouvoir accéder au marché du continent. “Il y a en fait une entité qui délivrera la marque CE, qui s’assurera que la solution fonctionne et qu’elle répond aux exigences réglementaires. Jusqu’à présent, le tampon était pour les dispositifs médicaux” explique Nicolas Méric.
Pour chaque changement apporté au système, le texte indique que le système d’IA devra repasser un test de conformité. Tous ces systèmes seront tenus de montrer un niveau approprié de surveillance humaine sur le fonctionnement de leurs produits, et de respecter les exigences de qualité concernant les données utilisées pour construire les logiciels. En cas de non-respect des règles, les entreprises pourraient être condamnées à une amende pouvant aller jusqu’à 6% de leur chiffre d’affaires.
Par ailleurs, des règles de transparence sont mises en place avec l’exigence de documentation. Le but ? Que les gens comprennent la technologie qu’ils utilisent, et soient informés sur les fonctionnements et les risques. “Tout le monde devrait pouvoir comprendre les systèmes IA qu’ils utilisent, pas en profondeur évidemment, mais simplement de manière à savoir comment cela fonctionne, de comprendre les résultats” commente le PDG de Dreamquark.
D’autres usages de l’IA, à bas risque, ne sont presque pas soumis à des exigences. Les chatbots, par exemple, ces formes d’intelligence artificielle utilisées dans des services de messagerie, particulièrement utilisés dans la relation client-entreprise, seront soumis à des obligations de transparence minimales, et devront simplement informer les utilisateurs qu’ils ne sont pas de vraies personnes. La même exigence sera appliquée pour les deepfakes, qui devront étiqueter leurs services, indiquant produire de faux contenus. De même, les jeux vidéo compatibles avec l’IA ou les filtres anti-spam, qui ne présentent que des risques minimes pour la sécurité des citoyens européens, sont tolérés.
Légiférer pour donner l’exemple
“Avec ces règles historiques, l’UE est le fer de lance du développement de nouvelles normes mondiales pour garantir la confiance en l’IA. En établissant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et garantir que l’UE reste compétitive en cours de route” a déclaré Margrethe Vestager, vice-présidente exécutive pour une Europe à de l’ère numérique. L’UE, en créant cette législation qui fait office de première “constitution” pour l’IA, et premier texte légiférant sur le secteur dans le monde, espère engager un débat avec des pays comme les États-Unis.
Au pays du Président Joe Biden, les Big Tech sont rois, et l’IA est à un tout autre niveau de pénétration dans la société. C’est le pays de Tesla et des voitures autonomes, ou encore des algorithmes au sein de la justice, pour prédire les récidives, ou encore au sein du système éducatif. Dans le pays, il existe déjà un consensus général sur la valeur de l’IA. L’ex président Donald Trump avait par exemple proposé de nouveaux investissements massifs. Cependant, il semble y avoir moins d’intérêt pour l’établissement d’un cadre réglementaire solide.
Dans son livre Algorithmes, la bombe à retardement, Cathy O’Neil détaille l’application concrète des algorithmes d’apprentissage automatique dans la société américaine, et toutes les conséquences qu’ils engendrent. Dès les premières pages du livre, on découvre par exemple le logiciel IMPACT, utilisé en 2009 pour noter les professeurs, ayant battu des records d’injustices et d’imperfections. Un véritable écosystème algorithmique et américain d’usages sociaux, politiques et économiques se dévoile ainsi sous nos yeux, écosystème aujourd’hui grandement questionné, et incarné par des personnalités comme Timnit Gebru. Par ce texte ambitieux, la Commission Européenne souhaite ainsi encourager le voisin américain à réglementer. Jake Sullivan, conseiller de la Maison Blanche pour la sécurité nationale, a très vite réagi sur Twitter : “Les États-Unis se félicitent des nouvelles initiatives de l’UE en matière d’intelligence artificielle. Nous travaillerons avec nos amis et alliés pour favoriser une IA digne de confiance qui reflète nos valeurs communes et notre engagement à protéger les droits et la dignité de tous nos citoyens”.
À une plus grande échelle, l’UE souhaite ouvrir la porte à d’autres initiatives pour encadrer l’IA. Les Nations-Unies, notamment, réfléchissent en ce moment à la régulation de l’intelligence artificielle dans le secteur militaire. L’idée d’un standard international est définitivement active. Les responsables des deux côtés de l’Atlantique affirment que ces ambitions de réglementation devront converger pour contrebalancer les ambitions technologiques de Pékin, comme le rapporte l’institut Brookings.
En Chine, où l’on a pu assister récemment au premier procès concernant un cas de reconnaissance faciale, les espoirs sont plus limités sur de futures lois allant dans le sens de l’Union Européenne et de sa vision des droits humains. “Il y aura sûrement des législations, mais on peut difficilement espérer le même niveau de liberté à la fin. La loi peut servir des buts bien différents”. Dans le pays, la surveillance de masse est utilisée par le Parti Communiste pour contrôler sa population, usant grandement de moyens technologiques comme les systèmes de reconnaissance faciale. Les Ouïghours, population turcophone et musulmane de la région du Xinjiang persécutée par le pays, en font particulièrement les frais.
Des enjeux soulevés, des problèmes soulignés
Avant le dévoilement du texte officiel, les associations de défense des droits sur internet avaient déjà réagi à une version ayant fuité, et ce pour de nombreuses raisons. Politico, qui s’est procuré la version provisoire du texte de réglementation, a permis au débat d’émerger. “Si le texte a fuité, c’est probablement pour que le marché réponde en déclarant ce qui n’est pas possible, et ce qui est possible dans ce texte. Il y avait encore des éléments qui devaient être approfondis” analyse Nicolas Méric.
Aussi bien avant qu’après la proposition officielle du texte, les critiques ont fusé, pointant divers aspects omis, mal compris, ou mal traités. Il ne fait nul doute que la partie du texte ayant fait le plus polémique est celle qui autorise la surveillance biométrique de masse par les autorités publiques et dans des contextes particuliers.
“La liste des exemptions est incroyablement large », cela “va en quelque sorte à l’encontre du but de prétendre que quelque chose est une interdiction”, a commenté Sarah Chander, conseillère politique principale à European Digital Rights, rapporté par le Wall Street Journal. EDRi pointe la définition floue des systèmes d’identification biométriques “à distance”, et s’inquiète de la disparition de l’interdiction de la surveillance de masse, pourtant présente dans une version de janvier ayant fuité dans les médias.
Les exceptions pointées à l’usage de la surveillance biométrique effraient quelque peu les associations, qui craignent de voir des dérives au sein des gouvernements. EDRi pointe également le seuil “très bas” pour le type de comportement criminel (présumé) qui permettrait à la police de procéder à de la surveillance biométrique : un crime passible d’une peine de trois ans “seulement”. “Le fait de laisser aux autorités nationales le pouvoir de décider quels cas d’utilisation autoriser ou non recrée simplement les lacunes et les zones d’ombre que nous avons déjà en vertu de la législation actuelle et qui ont conduit à des dommages et des abus généralisés”, a déclaré Ella Jakubowska, du groupe de défense des droits numériques. Il est à noter cependant, sur la surveillance biométrique, le retrait des articles 42 et 43, présent dans la version de janvier, retirés suite à la lettre de Membres du Parlement et des campagnes des associations.
Par ailleurs, les associations pointent le manque de rôle des citoyens au sein du texte. Les commentateurs notent par exemple l’absence d’évocation de possibilité pour les citoyens ou les consommateurs de déposer une plainte auprès de l’autorité de contrôle, ou de demander réparation s’ils ont été victimes d’un non-respect du règlement.
Beaucoup craignent aussi des effets négatifs sur le marché européen, avec une législation qui pourrait effrayer les nouvelles entreprises IA de s’y installer. Mais l’UE s’en défend bien, avec quelques garanties mises en place, et un plan coordonné qui prévoit des mécanismes de relance et de résilience. Pour Nicolas Méric, “l’aspect SMEs est également intéressant. L’UE essaie de créer un cadre pouvant donner un avantage aux petites et moyennes entreprises, notamment en mettant en avant la certification et la conformité, avec le tampon CE. De même avec les sandboxes réglementaires, qui sont des outils qui permettent des expérimentations techniques sur quelques utilisateurs, avant qu’un système ne soit massivement déployé.” Le spécialiste pointe le côté bénéfique d’une “mise au clair” des règles, qui seraient dorénavant les mêmes pour tous. “Maintenant, il va falloir innover, faire des choix stratégiques, se développer”.
Par ailleurs, des commentateurs ont fait valoir que les règles proposées par l’UE donneraient un avantage concurrentiel aux entreprises en Chine, aux États-Unis ou en Russie, qui ne leur feraient pas face si elles ne sont pas présentes aussi en Europe. “La particularité de l’Europe en termes d’intelligence artificielle, c’est que l’on a très peu de gros acteurs. On a un marché qui a adopté moins vite les technologies qu’aux États-Unis. Il y a un retard, et il faut le combler” selon Nicolas Méric de Dreamquark. Reste à voir si cette proposition de loi en a le potentiel.
Quel avenir pour l’IA en Europe face au lobby ?
Le parcours de cette nouvelle proposition de la Commission ne fait que commencer. Comme toute nouvelle proposition de loi, et comme les très récents Digital Services Act (DSA) et Digital Market Act (DMA), cette nouvelle réglementation a encore un bout de chemin à parcourir avant de devenir effective, et ne pourrait l’être que dans quelques années. Bientôt, le texte passera par le Parlement Européen, où il sera débattu et possiblement amendé, puis par le Conseil, qui pourra en faire de même. Le processus complet risque bien de prendre des années, au vu des discussions qui semblent se profiler.
Un intense lobby de la part des entreprises de la tech, notamment américaine, est attendu en réponse à ce texte. Déjà en 2019, pour la directive sur le droit d’auteur, la campagne avait été impressionnante de la part des entreprises technologiques. L’eurodéputée Virginie Rozière affirmait alors avoir reçu 40 000 e-mails, tandis que Geoffroy Didier, eurodéputé conservateur, parlait de 100 000 e-mails, ainsi que de menaces. Plus récemment, dans le contexte du DMA et du DSA, Google et d’autres géants américains de la technologie se sont engagés dans une campagne visant à minimiser la réglementation européenne avant qu’elle ne soit dévoilée. Transparency International a ainsi décompté plus de 160 réunions organisées, et 19 millions d’euros dépensés.
“Les lobbies américains sont beaucoup plus nombreux à Bruxelles. Ils poussent beaucoup les MEPs [membres du Parlement Européen, ndlr], afin de communiquer ce qui serait, pour eux, une bonne réglementation. Il s’agira également d’écouter ce qu’est une bonne réglementation pour les européens” tempère Nicolas Méric. L’Europe, par cette législation, pourrait bien tracer la voie d’une IA plus éthique, plus juste, plus fiable, en allié et non en ennemi, en dépit de toutes les dystopies.