La reconnaissance faciale est une technologie qui est mise à contribution de façon plus récurrente au fil des mois. En Chine elle est presque partout pour surveiller les citoyens, ou pour les aider à payer leurs courses. Dans d’autres pays, il subsiste un problème majeur lié à ceux qui créent les IA et/ou aux bases de données utilisées : les biais. Ces derniers se manifestent par le manque d’informations sur une certaine population amenant une IA à être plus performante à la longue sur celle avec laquelle elle a pu s’entraîner de façon plus importante. Ces fameux biais ont entraîné quelques mésaventures à certains programmes. Il est par exemple arrivé qu’une IA identifie une personne de couleur noire sur une photo comme un gorille. Tout cela du fait qu’elle n’ait pas été assez entraînée à reconnaître comme il faut les teintes de peau plus sombre. À force, les biais sont devenus une problématique éthique chez tous les géants de la technologie.

IA biais Microsoft

Capture d’écran présentant l’erreur de l’IA sur la reconnaissance d’image.

C‘est ainsi que Microsoft a annoncé avoir amélioré son programme de reconnaissance faciale pour mieux reconnaître les personnes avec une couleur de peau sombre, de même que les personnes du sexe féminin. En effet, le géant précise qu’en général, les programmes similaires reconnaissent plus facilement les hommes au teint clair.

Grâce à ses améliorations, Microsoft a réduit les erreurs d’identification de 20%. Pour les personnes du sexe féminin, les erreurs sont jusqu’à neuf fois moins nombreuses. Au final, ces résultats sont uniquement liés à la qualité des bases de données d’entraînement. La société précise qu’elle a renforcé celles concernant les teintes de peau diverses, de même sur les coupes de cheveux, ou encore les accessoires (bijou, lunettes, etc.).

Tout ceci est accessible dans la Face API depuis les services Azure. Microsoft précise qu’elle a travaillé avec des experts afin d’identifier quelles données devaient voir leur qualité améliorée. « Nous avons échangé sur les différentes façons de détecter les préjugés et d’opérationnaliser l’équité. Nous avons évoqué les efforts de collecte de données pour diversifier les données sur la formation. Nous avons parlé de différentes stratégies pour tester nos systèmes en interne avant de les déployer, » précise Hanna Wallach, une des chercheuses ayant travaillé sur le sujet.