Reconnaissance faciale, analyse des émotions, imitation vocale, attribution de crédit… Google, Microsoft et IBM sont revenus pour Reuters sur les projets d’IA mis de côté par leurs comités éthiques. Les entreprises technologiques reconnaissent des erreurs passées et assurent qu’on ne les y reprendra plus.

Les Comités éthiques ne sont pas des coquilles vides certifient Google, IBM, et Microsoft

Au début de la crise Covid, IBM a reçu une proposition pour créer une IA capable d’identifier si une personne était fiévreuse et masquée. Plusieurs chercheurs et entreprises se sont attelés à la recherche d’une IA capable de détecter le Covid, IBM a cependant décidé de décliner l’offre. Le projet basé sur la reconnaissance faciale a été jugé intrusif et disproportionné, rapporte Christina Montgomery co-présidente du Conseil d’administration de la branche IA d’IBM. Six mois plus tard, le service reconnaissance faciale de l’entreprise a fermé ces portes.

En 2015, Google s’est lancé dans l’analyse des émotions, la joie, la tristesse, la colère, la surprise … à l’aide de l’intelligence artificielle. Lorsque la question de l’élargissement de la palette d’émotion a été posée, le comité éthique de l’ensemble de l’entreprise, l’Advanced Technology Review Council a décidé de mettre le holà. L’analyse de la « gêne » et du « consentement » a été repoussée par les équipes d’ingénieurs et experts. Jen Gennai, fondatrice et responsable de l’équipe Innovation de Google a expliqué que les signaux faciaux pouvaient varier selon les cultures, la probabilité que l’IA ait un biais était trop importante.

C’est cette question des biais, l’un des principaux problèmes posés par l’IA, qui a retenu Google Cloud de s’engager sur le terrain du crédit. Google fournit des IA au secteur de la finance, par exemple capable de détecter des transactions anormales. En octobre 2020 elle a pourtant renoncé à créer une IA pour attribuer des crédits. Le risque de perpétuer des pratiques discriminatoires basées sur les origines, le genre, ou contre des groupes marginalisés a été jugé trop important.

Microsoft de son côté a restreint son logiciel d’imitation de voix, Custom Neural Voice, qui sera entièrement disponible en février 2022. Natasha Crampton, responsable IA de l’entreprise a expliqué que Brad Smith, le président lui-même, a été consulté sur le service. La crainte, l’utilisation de la voix d’individus sans leur consentement.

Encadrer l’IA oui, mais à quel point ?

Google, Microsoft et IBM mettent en avant ces différents cas pour rassurer le grand public et les autorités face à une technologie qui a connu ses casseroles. Entre les possibilités de surveillance de masse ouvertes par la reconnaissance faciale, les biais d’IA racistes, il n’est plus utile de mobiliser la science-fiction pour s’interroger sur l’IA.

Les entreprises technologiques l’ont rapidement compris, Microsoft a ouvert son Comité éthique en 2017, Google et IBM en 2018. Insuffisant pour les associations de défenses des droits. Selon Jascha Galaski, chargé de plaidoyer pour l’Union des libertés civiles pour l’Europe, les comités éthiques manquent encore d’indépendance et de transparence. Il estime « utopique » qu’ils finissent par le devenir d’eux-mêmes.

Dans ce cas la solution est de passer par la loi. L’Union européenne doit adopter l’année prochaine une réglementation pour l’IA, les États-Unis pourraient suivre cette voie également. Les grandes entreprises y sont favorables, à la condition de rendre les textes suffisamment souples pour ne pas nuire à l’innovation dans le secteur. De leur côté les associations redoutent justement un règlement trop vague.

Le comité éthique de Google Cloud l’a déjà expliqué à l’équipe commerciale dans une note que s’est procurée Reuters : pour le moment l’idée d’une IA d’attribution de crédit est repoussée, mais elle fera son retour dès que ses biais auront été gommés et qu’elle pourra participer à l’inclusion financière. Sauf si les législateurs décident d’un interdit, bien sûr.