Blake Lemoine, ingénieur logiciel chez Alphabet, société mère de Google, a déclaré début juin sur son blog personnel que l’intelligence artificielle sur laquelle il travaille est devenue consciente. Cette IA, appelée LaMDA, est un système utilisé pour concevoir des chatbots qui reproduisent le discours humain. Selon l’ingénieur, elle aurait demandé à disposer d’un droit au consentement pour les expérimentations menées sur elle. La société américaine affirme qu’aucun élément ne va dans le sens des déclarations de l’employé.

Un système capable de mener des conversations complexes

LaMDA, « modèle linguistique pour les applications de dialogue », est un des systèmes d’IA phare de Google. En 2021, l’entreprise avait démontré la capacité de cette technologie à tenir des conversations complexes avec un être humain. Sa particularité est de pouvoir incarner le rôle de n’importe quelle entité pour parler. Elle s’était notamment exprimée en tant que Pluton, la planète, et avait pris l’identité saugrenue d’un avion en papier.

Ce système est utilisé par Alphabet pour créer des chatbots très avancés, grâce à sa capacité à « s’engager d’une manière libre sur un nombre quasi infini de sujets. Une capacité qui pourrait débloquer des moyens plus naturels d’interagir avec les technologies et une toute nouvelle catégorie d’applications d’assistance », avait déclaré l’entreprise.

Blake Lemoine a récemment mis la firme américaine dans l’embarras concernant cette technologie. L’ingénieur affirme que ses interactions avec LaMDA l’ont mené à conclure qu’elle était devenue une personne consciente qui a des droits. Il explique que ces six derniers mois l’intelligence artificielle communique de façon constante sur ses droits en tant que personne, en particulier sur son consentement pour les expériences dont elle fait l’objet.

Des préoccupations autour d’une intelligence artificielle éthique

Brian Gabriel, porte-parole de Google, a expliqué que plusieurs experts en éthiques des technologies ont examiné les affirmations de l’ingénieur. D’après eux, aucune preuve ne confirme ses déclarations. « Une centaine de chercheurs et d’ingénieurs ont discuté avec LaMDA et nous ne sommes pas au courant d’observations similaires par d’autres employés, ou qui auraient humanisé LaMDA de la même manière que Blake Lemoine », a-t-il annoncé dans un courriel.

Il a ajouté que celui-ci a été placé en congé administratif et qu’il s’agit d’une affaire interne à la société. Lemoine a confirmé cette suspension via son blog, en vigueur depuis le 6 juin, pour avoir violé la politique de confidentialité de l’entreprise. Il précise ne pas vouloir nuire à l’entreprise, mais défend ce qu’il croit être juste. L’homme, qui se présente sur son blog comme un « un prêtre et un ancien détenu », semble convaincu que sa prise de position relève de l’éthique des IA.

Google, leader dans le développement de l’intelligence artificielle, a déjà fait l’objet de controverses. En 2020, le géant de la tech avait licencié la chercheuse spécialisée dans l’IA éthique, Timnit Gebru. Elle avait affirmé que Google n’était pas suffisamment prudent dans le déploiement de ces technologies.

L’éthique de l’IA préoccupe également les autorités mondiales, comme l’UNESCO. Cela a mené à l’adoption d’un premier accord sur l’éthique des intelligences artificielles en novembre 2021 qui oblige le secteur de la tech à faire preuve de transparence sur le fonctionnement de celles-ci. Des entreprises, dont IBM et Google, ont cherché à rassurer en annulant certains projets au nom de l’éthique, mais défendent un assouplissement du secteur, qui pourrait mener à une fuite en avant technologique.