Selon le juriste américain Frank Pasquale, l’Europe pourrait devenir le régulateur mondial en matière d’IA. Reste encore à en savoir les modalités. Depuis quelques années, l’UE réalise progressivement le potentiel des technologies tels que l’IA, et y investit massivement. Pour preuve, la présidente Ursula Van der Leyen l’a encore rappelé lors du discours du Conseil Spécial le 2 octobre : l’intelligence artificielle figure parmi les 3 priorités de leur stratégie pour une économie numérique et résiliente.
Sommaire :
• De la naissance au cadre juridique de l’intelligence artificielle
• L’IA confrontée aux questions d’éthique en Europe
• Entre alternatives étrangères et propositions civiles : imaginer les possibles
De la naissance au cadre juridique de l’intelligence artificielle
Terme apparu pour la première fois en 1956, un consensus s’est cependant créé sur l’origine réelle de l’intelligence artificielle, qui serait née en tant que concept dans un des articles du célèbre mathématicien Alan Turing. Popularisé par le film The Imitation Game – qui relate comment ce dernier a décrypté les codes nazis pendant la Seconde Guerre Mondiale – Turing fut également l’auteur de Machine de calcul et intelligence. C’est dans cet écrit que l’on trouve les prémisses de l’IA : “Je propose de réfléchir à la question : les machines peuvent-elles penser ?”
C’est une question qui traversera les années son histoire. Qu’appelons nous penser, ou être intelligent ? Si nous mesurons majoritairement l’intelligence humaine aux capacités logiques, à la résolution de problèmes, à la capacité d’analyse, à la mémoire, au traitement de l’information… Nous devrions naturellement reconnaître l’intelligence des machines, dont la puissance de calcul surpasse l’Homme. Ce même Homme est pourtant celui qui l’a créée et modelée selon ses besoins, au fil des années et des recherches à succès. Ce sont précisément ces réflexions qui font tout le sujet du livre de Laurent Alexandre La guerre des intelligences. Il s’attache à l’analyse de la spécificité de l’intelligence humaine face à celle de la machine, artificielle. En plus de cette analyse, l’auteur évoque cependant l’éventualité d’une confrontation mortifère, entre les deux tant l’IA irait “trop vite et trop haut”.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Qu’est-ce que cela veut bien dire ? Loin d’imaginer une guerre humains-machines comme nous invite souvent à le faire le cinéma, il est facile de trouver des exemples d’effets funestes de l’intelligence artificielle.
La solution pourrait être alors dans le développement d’une IA dotée de valeurs et de réflexion, imitant le propre de l’Homme, pour amplifier ses capacités dans le respect et la mesure. Or à ce jour, les machines ne sont pas douées d’éthique. Il est donc difficile de concevoir un système intelligent également doué de réflexion morale, critique, ou politique.
Cela impose l’élaboration d’un cadre fixé par l’Homme sur la machine. Il imposerait alors des limites à l’utilisation et la fructification de la puissance de l’intelligence artificielle en terme commercial, politique, sécuritaire, ou encore sanitaire.
C’est le cas de l’Europe qui a publié en février 2020 son plan pour une économie numérique. Par cela, elle démontre qu’elle ne souhaite pas rester dans l’ombre sino-américaine, mais bien au contraire tirer partie elle aussi des avantages de l’IA.
Ce plan inclut une audacieuse “stratégie pour façonner l’avenir numérique de l’Europe”. Il faut dire que si le marché de l’intelligence artificielle et ses usages pesait près de 200 millions de dollars en 2015, on estime qu’il en pèsera plus de 90 milliards à l’horizon 2025.
Dans une curieuse et probablement hasardeuse référence aux lois théoriques de la robotique d’Asimov, la Commission Européenne a présenté son livre blanc sur l’Intelligence Artificielle. Son contenu se veut marqueur des contours d’une “force du bien”, bienveillante et bénéfique pour les citoyens. Depuis, elle ne cesse de détailler ses projets.
Entre espoirs, innovation enthousiasmante et peur bleue relayée par le cinéma, l’IA envahit notre quotidien, et nécessite une attention particulière sur les limites et les contraintes qui lui sont posées. Quel cadre législatif est aujourd’hui imposé et considéré en Europe ? Y a t-il des inspirations à aller chercher chez nos voisins ?
L’IA confrontée aux questions d’éthique en Europe
Un sujet d’inquiétude justifié
Parmi les prévisions majeures pour les prochaines décennies se trouve la future omniprésence de l’Intelligence Artificielle . Partant de cette perspective, mais aussi de la simple constatation de son usage croissant dans les start-up et de son potentiel pour l’économie numérique, l’Union Européenne a encore souligné ses ambitions pour l’IA très récemment.
Consciente de son potentiel dans la perspective d’une économie post-covid balbutiante, l’UE l’est cependant tout autant de ses dangers. Et en effet, dans chaque domaine d’application (aussi larges que la raison puisse le concevoir), l’utilisation de l’intelligence artificielle a pu poser question, et interroger sur son caractère éthique et légal.
Le domaine du droit est l’un des secteurs particulièrement sensibles où est utilisé l’IA. Celle-ci a en effet un potentiel énorme en tant qu’appui et aide des avocats. Par exemple, l’outil Case Law Analytics est un logiciel IA permettant d’estimer les chances de réussite d’un procès, le montant des indemnités pouvant être espérées, ou encore les détails rhétoriques décisifs à utiliser au tribunal.
Les risques reconnus dans le livre blanc de l’UE sur l’IA contiennent l’opacité des processus de décision, les discriminations liés aux biais algorithmiques, et l’invasion de la vie privée liée aux données personnelles. L’intelligence artificielle met en effet sur la table des principes fondateurs du droit, qui se voit menacés d’une manière inexplorée : la protection de la “privacy”, l’exercice loyal de la concurrence ou encore l’accès aux informations permettant de nous défendre si des décisions nous affectent. Partant de ces points de tension au sein de l’innovation européenne, il s’agit de trouver l’équilibre entre croissance et protection.
Les débuts d’une législation Européenne
Les premières tentatives de régulation de l’intelligence artificielle sont apparues dans les années 1990, en France, lorsque son utilisation a commencé à se généraliser. Ce n’est pourtant qu’en 2016 que l’INRIA avait publié son livre blanc, qui tentait d’évaluer les enjeux globaux de l’IA, et tracer les contours de la marche à suivre afin de les surmonter sans dégâts.
Au niveau européen, on a pu assister un an plus tard aux recommandations faites à la Commission sur les “règles de droit civil sur la robotique” et l’intelligence artificielle, où les députés argumentaient la nécessité d’un projet législatif pour poser de solides bases juridiques à l’IA. Depuis 2019 se sont ainsi développés les principes d’une IA éthique en Europe, partant du rapport du groupe d’experts de haut niveau en intelligence artificielle de la Commission Européenne, qui précède l’élaboration des principes de l’OCDE sur l’IA. Quelques mois plus tard, le G20 adoptait des principes fortement influencés par ceux de la Commission Européenne.
Il faut dire que l’UE démontre un appétit notable à s’imposer en tant que leader international pour l’innovation, la « data economy » et ses applications. L’Union éco-politique se voit déjà dessinant un écosystème de l’IA protégeant les citoyens tout en leur apportant ses bénéfices. Vendredi 2 octobre 2020, dans le cadre d’un Conseil Spécial, les dirigeants de l’UE se sont réunis à Bruxelles pour discuter de l’avenir économique de l’Europe, ainsi que de ses positions diplomatiques. La Présidente Ursula Von Der Leyen a annoncé que “en ce qui concerne la transition numérique, l’Europe doit clairement améliorer son jeu”, tout en rappelant les trois priorités de développement déjà évoquées dans le livre blanc adopté en février dernier : les données, l’intelligence artificielle et les infrastructures.

Ursula Von der Leyen, Présidente de la Commission européenne. Photographie : Arno Mikkor / Flickr
Étant donnés les secteurs d’application critiques dans lesquels l’utilisation de l’IA devient sans cesse plus commune (les décisions médicales, l’accès à l’information, la conduite autonome…), il devient urgent en Europe de poser les limites de ses usages en instaurant une régulation plus complexe. C’est donc progressivement que sont adoptées des rapports plus précis, basés sur ce livre blanc de l’Intelligence Artificielle, fondation de la future législations européenne qui pourrait bien en émaner.
La responsabilité : humaine ou algorithmique ?
Trois rapports, trois angles d’approches des problèmes juridiques qu’apporte l’IA. Celui du député allemand Axel Voss se concentre sur la responsabilité civile de l’intelligence artificielle. Selon lui, un système de responsabilité juridique clair est nécessaire pour protéger les personnes privées, et les entreprises. Adoptée à 23 voix contre 0, l’initiative législative du député appelle à distinguer les IA “à haut risques”, que l’on doterait d’une “responsabilité stricte” en termes juridiques. C’est ainsi un moyen d’encourager les start-up en leur fournissant une base légale solide pour l’innovation et l’activité économique incluant l’IA.
Mais que considère t-on un haut risque, et que pourrait-il représenter ? Le texte y réfère parlant d’un incident grave entraînant des dommages, même immatériels, importants et qui pourraient mener à une « perte économique substantielle vérifiable ». On pourrait penser au secteur médical, dont l’IA manipule des données sensibles tout en ayant une influence incroyable sur l’Homme. De plus en plus, elle est utilisée pour la prise de décision clinique, l’analyse et l’extraction de donnée pour les choix biomédicaux, l’exploitation intelligente de fortes densités de données médicales, la modélisation ou encore l’apprentissage automatique des machines.
Une IA est non seulement capable de détecter plus vite de subtiles signes de maladies, mais elle peut également analyser de gros volumes de données sous différentes modalités et à différentes fins. Par exemple, le système de prédiction des risques et d’analyses de données Lumiata a, selon un article de Derrick Harris “ingéré plus de 160 millions de données à partir de livres, articles de journaux, base de données publiques et autres sources, afin de produire des représentations graphiques des différents liens entre les maladies et l’humain”.
Or ces bénéfices ne sont pas sans risques potentiels, comme toujours. La technologie étant un outil neutre, son impact sur l’humain est corrélé à l’usage que l’on choisit d’en faire, et à la manière dont on le fait. Dans le cas du secteur hospitalier, il est clair que les données récoltées par les machines intelligentes requièrent une attention accentuée sur la précision, la fiabilité, la sécurité et la confidentialité de celles-ci. Dans le cas d’une IA immature sur ces points fondamentaux, on pourrait voir s’affaisser le niveau de soin et de protection accordé aux patients dans les hôpitaux, et leur vie privée mise en péril. En cela, le secteur médical pourrait être considéré à haut risque. Des attaques malveillantes ciblant des bases de données utilisées par les systèmes d’IA, une conception et programmation non éthique des algorithmes ou encore une défaillance involontaire du système pourrait entraîner des dommages individuels et collectifs, physiques ou immatériels.
Cependant, le secteur le plus frappant pour évoquer la responsabilité reste la conduite autonome. Imaginons une voiture dotée d’un système IA de conduite autonome qui permet au conducteur de se reposer ou de faire toute autre activité plutôt que de conduire, comme le permettent les voitures Uber ou Waymo aux États-Unis. Si un accident arrivait, comme il est arrivé en 2018 lorsqu’une voiture autonome a percuté une piétonne traversant sur une route non éclairée que le système n’a pas reconnu, qui serait le responsable ? L’initiative d’Axel Voss propose que les opérateurs des systèmes d’IA soient tenus pour responsables en cas de dommages. En effet, comment faire comprendre à la machine les conséquences de son acte, et comment la condamner ? À défaut de pouvoir, la responsabilité irait à la compagnie, aux “opérateurs” ayant créé le système défectueux, et laissé circuler tel quel.
Un cadre éthique pour l’IA
L’initiative d’Iban Garcia del Blanco, député socialiste espagnol, a elle mis l’accent sur le cadre juridique que l’UE se devra se développer pour l’utilisation et le déploiement de l’IA. Il propose des principes éthiques directeurs pour les futures lois que la Commission devrait adopter dans les mois prochains.
Selon le rapport, l’IA se voudra d’être centrée sur l’Homme et avoir pour fin son contentement. La machine, spécifiquement celle contenant des algorithmes d’apprentissage, se devra toujours d’être faite et contrôlée par l’Homme, et ne jamais permettre d’aller contre ce principe de contentement ou de contrôle. D’autres grands principes ont été tracés, tels que la sécurité, la transparence et la responsabilité ; les garanties contre les préjugés et la discrimination ; le droit à la réparation ; la responsabilité sociale et environnementale ; et le respect des droits fondamentaux.
Ce respect des droit fondamentaux est l’un des enjeux auquel font face les réseaux sociaux utilisant l’IA pour modérer leur contenu. Le réseau le plus avancé sur la question de l’intelligence artificielle est sans doute Facebook. De la personnalisation du fil d’actualité à l’étiquetage des contenus en passant par la détection des contenus inappropriés, le réseau social utilise les deux familles d’algorithmes les plus utilisées.
Il est facile de penser à tous les dangers de l’utilisation de l’IA au service des réseaux sociaux. En effet, même un algorithme d’apprentissage entraîné et dûment programmé n’atteint pas le niveau de reconnaissance visuelle, textuelle ou vocale d’un humain. Il faut en moyenne deux images de chat à un enfant de deux ans pour dans le futur toujours reconnaître un chat, tandis qu’il en faut environ 10 000 pour un algorithme de deep learning pour obtenir un taux de reconnaissance de 98%. Cela expliquerait comment des images de massacre ont pu dans le passé, et encore récemment, se retrouver transmises live sur des réseaux majeurs.
Comment garantir la protection des enfants, de plus en plus présents parmi les utilisateurs des réseaux sociaux et d’internet, lorsque l’on voit régulièrement publier des contenus offensants, violents, ou encore illégaux non repérés par l’IA ? La Convention des Nations Unies relative aux droits de l’enfant a été ratifiée par tous les états membres de l’Union européenne. Le Traité sur l’UE impose d’ailleurs lui-même aux États de promouvoir la protection des droits de l’enfant, tout comme le présente la Charte des droits fondamentaux de l’Union européenne. En ce sens, et suivant l’initiative du député espagnol, l’UE pourrait accorder une attention particulière aux enjeux impliquant l’IA, les réseaux sociaux et les droits fondamentaux.
Tous les secteurs sont en fait concernés, tant il est difficile pour une IA de ne pas poser de questions sociétales dans la manière dans elle est conçue. Biais algorithmiques, discriminations, vecteur d’inégalités, dysfonctionnement conceptuel… On ne peut espérer des machines qu’elles se conforment d’elles-mêmes à un système de codes et de valeurs européenne, mais on peut travailler sur le cadre à imposer aux concepteurs de cette technologie. Il s’agira de guider les entrepreneurs, travailleurs et autres techniciens dans le design, la programmation mais aussi la maintenance des systèmes d’intelligence artificielle.
La propriété intellectuelle
Le dernier rapport, de la française Stéphane Séjourné, a été adopté avec 19 voix contre 3. Il souligne la question clé de la protection des droits de propriété intellectuelle dans le contexte de l’AI, une question qui n’a jusque là n’a pas été abordée par la Commission européenne. L’issue de la propriété intellectuelle de l’IA et la protection des développeurs est en effet un aspect important des incitations au développement que l’UE souhaite donner aux entrepreneurs du continent. Le député insiste sur la nécessité d’un système de propriété intellectuelle efficace et des garanties pour le système de brevets de l’UE afin de protéger les développeurs et garantir à l’Europe le leadership mondial en matière d’IA. Il précise que l’IA ne devrait pas avoir de personnalité juridique, la qualité ‘d’inventeur’ ne devant être accordée qu’aux humains.
Ainsi, même un robot créateur ne pourrait pas se voir reconnu le statut d’auteur. Pourtant la question est bien réelle, tant l’évolution de l’algorithmie permet d’atteindre une autonomie de la machine jusqu’à la consacrer scénariste, peintre ou musicienne. Ces créations questionnent profondément le droit d’auteur, lié à la personnalité physique qu’il représente jusque là, tandis que ces créations sont les produits matériels d’un système autonome. Selon les pistes données par cette initiative adoptée à la Commission européenne, une IA ne pourrait en aucun cas se voir attribuer le statut d’auteur, ne jouissant pas du statut de personnalité juridique.
Il faudra cependant attendre 2021 pour voir les contours d’une législation européenne sur l’IA se préciser et surtout, s’officialiser. Il ne faut pas oublier un détail important : cette législation devra tenir compte des particularités législatives au niveau national, et ne constituera en aucun cas le seul filtre par lequel percevoir le droit de l’IA et de la robotique en Europe. En attendant son adoption par le Parlement et le Conseil, l’on peut tenter d’imaginer les formes du texte législatif idéal, en s’inspirant de la recherche active et des propositions qui sont faites par les citoyens et entités civiles.
Entre alternatives étrangères et propositions civiles : imaginer les possibles
Plaidoyer pour une meilleure régulation des algorithmes
Dans son livre New Laws of Robotics, Defending Human Expertise in the Age of AI (Les nouvelles lois de la robotique, protéger l’expertise humaine à l’ère de l’intelligence artificielle), le juriste américain Frank Pasquale propose un certain nombre de recommandations légales appliquées aux problèmes que posent l’IA. Il propose par exemple un cadre à la reconnaissance faciale, une technologie permise grâce à l’IA. Il “peut envisager un futur dans lequel il existe une base de données destinées à la reconnaissance faciale, mais seulement si la loi précise qu’elle peut uniquement être utilisée pour arrêter des individus suspectés de terrorisme ou des personnes qui ne respectent pas la quarantaine imposée en temps de pandémie, et non pour des délits mineurs”.
L’automatisation du travail et le chômage que peuvent engendrer les progrès de l’IA dans tous les secteurs font également partie de ses inquiétudes. Il invite les décideurs du monde entier à garder un simple principe en tête, érigé au rang de “loi” personnelle : que les robots complètent le travail des Hommes, mais jamais n’en viennent à totalement le remplacer. Selon lui, il suffirait de réaliser que ce sont bien les capacités cognitives propres à l’Homme qui façonnent le futur, et non les habiletés limitées des systèmes d’intelligence artificielle.
Afin d’éviter les accidents, et différemment de l’UE qui propose de travailler sur la responsabilité juridique, le juriste américain propose de mettre en place pour la robotique et l’IA un système de test similaire à ceux des médicaments. Les produits et technologies seraient ainsi évaluées et testées avant d’être mises sur le marché, et obligée d’obtenir une certification. Dans l’obtention de ce document nécessaire seraient pris en compte des critères comme le degré de sécurité, d’efficacité et de non-discrimination.

Frank Pasquale durant sa conférence intitulée The Automated Public Sphere. Photographie : re:publica / Jan Michalko.
Problème qui n’a pas encore été explicitement traité par l’UE, Frank Pasquale parle de l’enjeu de la régulation des médias et de la modération automatisée des réseaux sociaux. Il est difficile aujourd’hui d’éviter d’évoquer lorsque l’on parle d’IA, son rôle dans la propagation des fake news. On parle aujourd’hui de désinformation complexe pour désigner les publications commentées ou diffusées par des bots (robots) et répandant de l’information fausse, ou malveillantes (on parle alors de trolls. Aussi insignifiantes que certaines de leurs activités peuvent paraître, d’autres bots programmés grâce à l’IA le sont précisément dans un but politique ou idéologique. C’est la que le bât blesse. Lors d’événements majeurs tels que le Brexit ou les élections américaines, les chercheurs s’accordent aujourd’hui sur l’influence de ces bots dans la communication publique et la discussion citoyenne. Avec 35% des humains sur terre présents sur les réseaux sociaux, on comprend vite l’enjeu que l’IA représente pour les réseaux sociaux, et la nécessité de son encadrement juridique. Pour le juriste américain, il est grand temps de réguler Google et Facebook, “deux entreprises qui se sont développés comme des parasites au regard du reste du contenu présent sur internet et qui ont été l’instrument politique du concept de post-vérité”. Construites tels des châteaux de cartes, fortes de nombreuses entreprises rachetées au fil des ans, les “démanteler (…) serait un signe fort d’une reprise en main politique, et du droit sur nos vies numériques”.
Partout, une réécriture légale adaptée à l’IA
De nombreux pays du monde investissent de manière colossale dans l’IA, et se voient conséquemment obligés d’adapter leur cadre légal aux nouvelles formes que celle-ci incarne, quitte à parfois contredire des principes de droit fondamentaux. Un exemple frappant et aujourd’hui bien connu est celui du robot Sophia qui s’est vue attribuer la citoyenneté saoudienne en 2017, alors que cette attribution n’entrait dans aucun des critère du pays afin de l’obtenir.
Publié début 2020, le rapport Worldwide AI Laws and Regulations de Cognilytica Research explore les dernières mesures juridiques et réglementaires prises par les pays du monde entier dans neuf domaines différents de l’IA, parmi lesquels la confidentialité des données, les véhicules autonomes ou les biais algorithmiques. Il estime que dans le monde, 24 pays et régions ont mis en place des lois permissives pour l’utilisation des véhicules autonomes, et 8 autres sont actuellement en discussion pour permettre aux véhicules autonomes de fonctionner. Cependant, parmi tous les pays et Union examinés, et tous les secteurs d’application de l’IA confondus, il est indiqué que l’Union européenne est la plus active dans la proposition de nouvelles règles et réglementations, avec des règles existantes ou proposées dans sept des neuf catégories de domaines où la réglementation pourrait s’appliquer à l’IA.
Les chercheurs estiment que les États-Unis maintiennent une posture réglementaire «légère» jusqu’à encore cette année, ce qui expliquerait le peu de preuves de lois et réglementations sur l’IA au niveau fédéral aux États-Unis. Cependant, certains États, notamment l’ Arizona, la Californie, la Floride, l’Idaho, l’Illinois, le Massachusetts, le Nevada, Le New Jersey, New York, Washington et d’autres États ont maintenu une approche réglementaire plus vigoureuse. La Californie s’est en effet dotée d’une loi sur la protection des données personnelles, le Consumer Privacy Act, qui donne au consommateur plus de contrôle sur les informations personnelles que les entreprises pourraient collecter. Dans la même approche, New York a légèrement fait progresser son cadre juridique autour des données. Au niveau fédéral cependant, et à défaut d’une solide législation, on sait l’IA placée parmi les priorités nationales, et elle est prévue d’être financée en conséquence. Un avantage pourrait faciliter ces objectifs : les contraintes moindres sur la collecte et l’utilisation des données, comparées au RGPD européen qui délimite impérativement les prérogatives des entreprises sur les données collectées permettant peut-être l’apprentissage d’un algorithme.
Au Japon, on peut trouver des principes légèrement différents que ceux énoncés dans le livre blanc européen, mais offrant une forme légal similaire. Parmi eux, le respect de la dignité humaine, de la diversité et de l’inclusion, ainsi qu’un important principe de “durabilité” ou “soutenabilité”. Toutes ces grandes lignes doivent être incluses dans le processus de déploiement de l’IA japonaise.
La Chine, quant à elle, a annoncé vouloir investir 150 milliards de dollars dans l’intelligence artificielle d’ici à 2030. Devenue aujourd’hui l’un des pays les plus avancés sur l’IA, le pays l’est au prix du sacrifice des droits et libertés de ses citoyens. Entre systèmes de reconnaissance faciale généralisés, drones, voitures autonomes, robots, assistants domestiques, objets connectés, réalité augmentée, deep learning… il n’y a pas un secteur dans lequel la Chine n’est pas présente à travers l’IA. Ses objectifs sont colossaux, et liés aux défis intérieurs auxquels fait face le pays, pollué, sur-urbanisé, inégalitaire et à la démographie déséquilibrée. Le pays souhaite évidemment être de ceux qui établissent les règles de l’IA, et encourage en ce sens ses entreprises à participer à la fixation de standards internationaux. Or son cadre juridique et éthique est très faible comparé à celui qui commence à se dessiner en Europe. Dans son “Plan National de développement de la nouvelle génération d’intelligence artificielle”, les objectifs d’amélioration de lois et réglementations dans les domaines d’applications clés de l’IA sont fixés, et en suspens. Certaines pistes sont déjà clarifiées pourtant : on sait que la Chine se place, comme l’Europe, en faveur de la responsabilisation des programmeurs. De plus, le pays de l’ultra-surveillance souhaite que le contrôle et la surveillance sur l’utilisation de la technologie soit renforcée.
Ces approches, aussi diverses puissent-elles être, nous laisse entrevoir la perspective d’une compétition mondiale à l’IA et ses potentialités, dans laquelle des règles légales et éthiques seraient soeurs de l’efficience de la technologie. Il s’agira pour les pays les plus avancés en la matière de savoir trouver le juste équilibre entre croissance et régulation, créant des lois qui ne freinent pas l’innovation.
La réflexion éthique est une étape inévitable pour que l’Homme reste au centre du dessin des contours de demain. Partant des initiatives européennes, nous pourrions raisonnablement espérer une émulation globale en la matière, et l’éthique devenue pré-requis de toute technologie.