Depuis qu’elles existent, les intelligences artificielles sont programmées pour nous fournir un service. Déchiffrer un code secret, répondre à nos questions, détourer parfaitement une image, lire des radiographies, réserver un restaurant à notre place … Les possibilités sont énormes et bientôt nous confierons beaucoup de tâches à des programmes informatiques intelligents. Cependant, serons-nous prêts à leur confier notre vie ?

Jusqu’à récemment, cette question était à l’étude au sein du prestigieux Massachusetts Institute of Technology (MIT). Deux millions de personnes à travers le monde ont participé à définir des schémas éthiques pour les voitures autonomes. Dans des situations extrêmes où un impact mortel aura inévitablement lieu, qui doit mourir ? Est-ce la vieille dame qui traverse la route, ou bien la personne en fauteuil roulant ? Est-ce que ce sont les deux enfants ou le mari et sa femme ? Ces questions rentrent dans ce qu’on appelle le dilemme du tramway, inventé en 1967 par la philosophe Philippa Foot. Il s’agit de prendre une décision qui bénéficie obligatoirement à un groupe, et pénalise l’autre. C’est alors la constitution de ces groupes qui définissent le résultat.

Ce qui est intéressant dans l’étude dirigée par le MIT ce sont les résultats qui ne sont pas homogènes par pays, ou régions. D’abord, les réponses se divisent en trois grands groupes moraux. C’est-à-dire que les réponses sauveraient majoritairement une femme au détriment d’un chien. Un enfant et non une vieille dame. Un groupe de personnes plutôt qu’une personne seule. Ensuite, tout se corse en fonction des cultures. Par exemple, les pays d’Asie attribuent autant de crédits à la vie d’une personne âgée qu’à celle d’un enfant. Également, nous, français, aurions tendance à sauver les femmes plutôt que les hommes. Enfin, dans certaines régions où les inégalités sont importantes, les participants ont statistiquement préféré sauver une personne ayant un niveau de vie élevé plutôt qu’un SDF.

Grâce à ce projet international, les chercheurs ont posé les bases des décisions que pourraient attendre les humains des systèmes de conduite autonome. Cependant, il faudrait que les décisions soient universelles pour que cela ait un sens. Imaginons qu’en Chine, pays des extrêmes lorsqu’on parle du traitement des données, les systèmes soient nourris par des données nationales. Le biais serait énorme comparé à un système universel. On parle souvent de biais sexiste ou raciste, mais ici, il impliquerait une décision immédiate de vie ou de mort. Également, les voitures autonomes étant équipées de multiples caméras, on pourrait très bien les relier au système de reconnaissance faciale chinois, et logiquement à la note sociale des citoyens. De cette manière, on n’opposerait plus un enfant à un handicapé, mais deux notes. Dans ce cas, quelle approche serait la plus juste ?

Nous arrivons peu à peu face à un dilemme international sur ce qui est moral, juste, logique, pragmatique. Un accident mortel de voiture peut impliquer de nombreux facteurs injustes, de se trouver au mauvais endroit au mauvais moment, de la faute à pas de chance, ou, souvent, de l’erreur d’un conducteur. Dès lors que nous nous en remettrons aux machines pour nous guider, nous emmener d’un point A à un point B, le facteur hasard sur la route n’existera sûrement plus, sauf cas d’impact imprévu. Comment expliquer alors à une mère qu’une voiture a pris la décision de rentrer dans son enfant plutôt que dans un groupe de personnes âgées ? Comment lui expliquer aussi que si ce même accident avait eu lieu dans un autre pays, son enfant serait toujours en vie ?

Ces décisions vont inévitablement avoir lieu dans quelques années à moins qu’une innovation ne vienne tout chambouler. Si beaucoup ont déjà peur de l’intelligence artificielle et notre dépendance à cette technologie, quelle sera leur réaction lorsqu’il s’agira de sélection logicielle et plus de sélection naturelle ? On pense souvent à l’impact que peut avoir la science dans le hasard de la création de la vie en passant par une sélection ou une modification des embryons. On ne pense pas assez au hasard de la mort.

J’ai peur que l’on défende un droit à la sélection de la vie, mais pas celle de la mort. Alors qu’il faudrait tuer la mort, et laisser le hasard de la vie agir comme il l’a toujours fait. J’ai également peur que l’on s’insurge de la morale d’une décision prise par une intelligence artificielle. La manipulation des émotions étant si facile avec les réseaux sociaux, bien des personnes manquant d’information sur le sujet pourraient s’engouffrer dans une dissidence dangereuse. D’une manière générale, beaucoup saluent l’arrivée des IA et beaucoup la craignent. La peur n’évite pas le danger, mais elle va inévitablement créer des débats bien plus profonds que sa simple utilité en remplacement d’un métier sans qualification.

Alors, qui doit vivre ou mourir ?