L’intelligence artificielle (IA) est un domaine complexe dans lequel de nombreuses entreprises technologiques placent leurs espoirs. Si les progrès techniques sont de plus en plus impressionnants, les chercheurs appellent les sociétés à revoir leurs attentes à la baisse afin d’être plus justes et éthiques. C’est ce que soulève le Wall Street Journal dans une enquête parue le 29 juin.

L’éveil de l’intelligence artificielle

C’est le cas de LamDA, une des IA phare de Google connue pour réussir à tenir des conversations complexes avec des humains tout en pouvant incarner une entité, qui a alerté les chercheurs en éthique début juin. Blake Lemoine, un ingénieur logiciel pour Alphabet, la maison mère de Google, a indiqué que cette IA, sur laquelle il travaillait, était dotée d’une conscience. Elle aurait notamment demandé à disposer d’un droit au consentement pour les recherches dont elle fait l’objet. Après de nombreuses recherches menées par une centaine de chercheurs et d’ingénieurs, Google a réfuté les propos de son ancien employé, placé en congé administratif depuis le 6 juin, à la suite de l’affaire.

Cette ferveur autour d’IA capables de reproduire méticuleusement le comportement humain pousse certaines entreprises à exagérer les capacités de leur IA. Cela peut altérer la vision des autorités de régulation quant à la fiabilité de ces technologies.

Oren Etzioni, directeur général du Allen Institute for Artificial Intelligence, un institut de recherche autour de l’intelligence artificielle basé à Seattle, a déclaré au Wall Street Journal que « Nous ne sommes plus objectifs ». Selon lui, ce manque d’objectivité se ressent dans les décisions prises lorsqu’un scandale éclate.

Éthique et IA

Plusieurs personnes ont déjà alerté sur les dangers éthiques que représentent les intelligences artificielles. Fin 2020, Timnit Gebru, co-dirigeante de la branche éthique de l’IA chez Google, a été brusquement licenciée après avoir réalisé une étude dévoilant les faiblesses d’une technologie IA alimentant le célèbre moteur de recherche de l’entreprise. Elle est rejointe deux mois plus tard par Margaret Mitchell, qui occupait le même poste. Cette dernière a été congédiée après avoir rédigé un papier pointant du doigt la façon dont Google vendait ses IA comme « les meilleures au monde » auprès de ses actionnaires.

Dans leur dernier papier écrit en tant qu’employées, les deux chercheuses ont précisé qu’en ayant des capacités similaires aux humains, les technologies d’IA ont la capacité de nuire. Ces renvois précipités ont entraîné la démission, en avril 2021, d’un autre dirigeant de Google, Samy Bengio, « abasourdi » par la situation. Il était le cofondateur de Google Brain, une division de Google dédiée à l’intelligence artificielle.

Si les IA sont principalement utilisées par des entreprises pour récolter les données des utilisateurs ou faciliter les recherches, certaines poussent le concept plus loin. Au début de la pandémie, IBM avait reçu une proposition pour concevoir une IA capable d’identifier une personne fiévreuse et masquée. Une offre qui a été refusée par la société, la jugeant trop intrusive et disproportionnée.

D’autres projets ambitieux ont eux aussi été abandonnés. En 2015, Google analysait les émotions telles que la joie, la colère, la surprise ou la tristesse, à l’aide d’une IA. Au moment de se pencher sur d’autres émotions, le comité éthique de l’entreprise, l’Advanced Technology Review Council, a décidé de ne pas continuer l’étude. Ses membres ont estimé que les signaux faciaux peuvent fluctuer en fonction des cultures et que la probabilité de biais était trop importante. Plus récemment, Microsoft a choisi de restreindre Custom Neural Voice, son logiciel d’imitation de voix, par crainte que la voix d'individus soit utilisée sans leur consentement.

Les autorités mondiales s’interrogent quant à l’éthique de l’IA. En novembre 2021, l’UNESCO a adopté le premier accord sur l’éthique des intelligences artificielles. Celui-ci oblige les entreprises du secteur de la tech à faire preuve de transparence sur leurs recherches et le fonctionnement de leurs IA. Son objectif est de donner plus de contrôle aux individus en leur donnant le pouvoir de maîtriser leurs données personnelles.

De son côté, l’Union Européenne cherche à encadrer législativement l’intelligence artificielle. La commission spéciale du Parlement européen sur l’intelligence artificielle à l’ère numérique s’est réunie en mars dernier pour mettre en place des normes minimales pour un usage responsable de cette technologie. Elle s’est notamment intéressée à la sécurité des citoyens, à leur droit à la vie privée et à la protection des données.