Plus l'intelligence artificielle se développe, plus un cadre de fonctionnement éthique s'impose. C'est en tout cas l'avis du géant américain Google qui a annoncé dans le cadre du Future of Everything Festival organisé par le Wall Street Journal, que l'équipe chargée de définir le cadre éthique pour l'intelligence artificielle allait s'agrandir.

Un cadre éthique s'impose pour le développement de l'IA

Sundar Pichai, CEO de Google, a déclaré vouloir augmenter le budget de l'équipe chargée d'étudier l'éthique de l'intelligence artificielle. Un sujet de premier plan avec le développement rapide de cette technologie. L'objectif est d'éviter la discrimination. En effet, un algorithme peut devenir discriminatoire s'il est mal entraîné. C'est déjà arrivé à de nombreuses reprises. Il y a quelques mois à peine, un tribunal italien a jugé discriminatoire un algorithme de Deliveroo dont le rôle est de mesurer les compétences des livreurs.

Il y a aussi eu cette intelligence artificielle chargée de déterminer le montant des aides médico-sociales que des patients devraient percevoir. Une équipe de quatre chercheurs composée de Ziad Obermeyer, Brian Powers, Christine Vogeli et Sendhil Mullainathan ont tenté de comprendre comment un algorithme de santé pouvait favoriser ou défavoriser une personne en fonction de son origine ethnique. Après plusieurs mois de recherche, ils ont réussi à prouver que l'intelligence artificielle avait systématiquement sous-estimé les besoins des patients noirs.

Google prévoit de doubler la taille de cette équipe. La société cherche à renforcer ce groupe dont la crédibilité a été remise en question par des controverses sur la recherche. La directrice de l'ingénierie, Marian Croak, a déclaré que ces nouvelles embauches permettront à Google d'avoir une équipe de 200 chercheurs pour travailler sur le développement de l'intelligence artificielle. Ça commence à être intéressant. Sundar Pichai s'est engagé à tout faire pour réduire les risques de discrimination liés à l'intelligence artificielle. L'Europe aussi veut un cadre juridique et éthique pour l'IA.

Une opération de communication pour Google ?

Marian Croak a expliqué : "nous devons être responsables dans notre façon de développer et de déployer les technologies d'intelligence artificielle. C'est fondamental pour nos clients, mais aussi pour le bien de l'entreprise. Cela nuit gravement à la marque si les choses ne sont pas faites de manière éthique". Elle fait référence à un fait récent : des documents internes ont été révélés par la co-directrice de la division, Margaret Mitchell. Elle a partagé ces documents secrets avec des personnes extérieures à l'entreprise.

Les documents en question se sont retrouvés entre les mains de plusieurs groupes spécialisés dans l'intelligence artificielle dont Black in AI et Queer in AI, deux groupes qui entendent créer un cadre éthique et anti-discriminatoire pour l'intelligence artificielle. Ils ont publié le 10 mai une déclaration commune qui met à mal Google. Les deux associations accusent le géant américain d'avoir : "créé un dangereux précédent concernant le type d'entraînement et de fonctionnement pour l'intelligence artificielle". Ils estiment que l'intelligence artificielle de Google pourrait être dangereuse pour les communautés minoritaires.