Intelligence Artificielle

Gmail met à jour Smart Compose et supprime les pronoms sexués pour éviter les biais

Un défaut révélateur des inégalités de notre société.

Smart Compose, l’intelligence artificielle présente sur Gmail est particulièrement intéressante. Son rôle est de prédire ce que vont écrire les utilisateurs de Gmail dans leurs mails en fonction du début de la phrase. Comme de nombreuses intelligences artificielles, Smart Compose fait des erreurs et c’est bien normal. Comme le précise TheVerge, pour éviter d’offenser ses utilisateurs, Google a décidé de brider l’outil en lui interdisant de suggérer des pronoms basés sur le genre « lui » ou « elle ». Plutôt que de deviner le mauvais genre, autant le supprimer pour éviter une erreur qui pourrait mettre dans l’embarras les utilisateurs de Smart Compose.

Fonctionnement de Smart Compose du Gmail
Fonctionnement de Smart Compose du Gmail

C’est un chercheur qui a découvert le défaut en question en janvier dernier. Ce dernier tapait « je rencontre un investisseur la semaine prochaine » dans un message lorsque Gmail a suggéré une question complémentaire, « voulez-vous le rencontrer ? « . L’utilisation du pronom « le » aurait pu correspondre, mais cette fois-ci il s’agissait d’une femme investisseur. Un problème qui a essayé d’être réparé par l’équipe de Paul Lambert, chef de produit Gmail. Aucun moyen efficace n’a permis de modifier ce bug, la solution la plus simple a donc été de le supprimer.

Un bug qui est un bon exemple de la façon dont les logiciels conçus à l’aide de l’apprentissage automatique peuvent refléter et renforcer les préjugés de la société. Pour faire simple, Smart Compose apprend en étudiant les données passées, en fouillant dans les vieux e-mails pour trouver les mots à suggérer. Dans l’exemple du chercheur à laquelle je fais référence au-dessus, il semble que Smart Compose ait appris des données passées que les investisseurs étaient plus susceptibles d’être des hommes que des femmes. Pourtant, une IA doit être juste et impartiale. Ces données non équitables créent ce qu’on appelle un biais. C’est un véritable défi dans l’évolution des intelligences artificielles dans le monde.

Send this to a friend