Tay. C’était le nom d’un chatbot placé par Microsoft sur Twitter en 2016. Il est connu pour être devenu raciste en un temps record. Depuis, l’entreprise s’efforce de développer des IA responsables. C’est dans ce cadre qu’elle a annoncé le 21 juin retirer certaines fonctionnalités de ses outils de reconnaissance faciale.

Brider les capacités des IA

Dès cette semaine Microsoft ne fournira plus des outils de reconnaissance faciale capables d’identifier le sexe, l’âge, l’état émotionnel d’une personne. Pour ceux qui disposent déjà de cette technologie, ces fonctionnalités seront désactivées au long de l’année.

L’entreprise estime que ces fonctionnalités posent des problèmes de fiabilités et potentiellement de discrimination. Natasha Crampton, responsable de l’IA chez Microsoft, a expliqué au New York Times souhaiter « une qualité de service similaire pour les groupes démographiques identifiés, y compris les groupes marginalisés ».

Microsoft va également renforcer les contrôles mis en place avant de vendre l’un de ses outils d’identifications basés sur la reconnaissance faciale. Ses clients devront expliquer pour quelle utilisation ils en ont besoin. En particulier si ces outils peuvent être détournés de leur emploi initial comme le Custom Neural Voice : utilisé pour imiter une voix, par exemple, pour les traductions avec une seule et même voix, il peut être détourné sous la forme d’un « deepfake sonore ».

En amont de la commercialisation de ces technologies, Microsoft affirme étudier l’impact de leur utilisation pour l’obtention d’un emploi, l’accès à l’éducation, la santé, des services financiers… Le but est de trouver « des solutions valables aux problèmes qu’ils sont censés résoudre », assure Natasha Crampton, tout en évitant les effets pervers.

Les systèmes d’IA, sur lesquels reposent notamment les logiciels de reconnaissances faciales, sont connus pour leurs biais, sexistes, racistes. Ils sont également de formidables outils répressifs entre les mains de personnes et surtout de régime peu recommandables.

Microsoft et d’autres appels à un cadre législatif du secteur

En 2020, Microsoft a suspendu un investissement au sein de l’entreprise AnyVision en apprenant que la technologie de cette société de reconnaissance faciale était utilisée pour discriminer les palestiniens. Elle a depuis stoppé toute participation minoritaire au sein de société de ce type. La même année, l’entreprise, avec Amazon et IBM, a placé un moratoire sur la vente de ses systèmes à la police américaine, à la suite de la répression contre les manifestations Black Lives Matter.

Le groupe sur l’éthique de l’IA au sein de Microsoft, rejoint par Natasha Crampton en 2018, a développé en deux ans un document de 27 pages de normes sur l’IA. Une série d’exigences pour empêcher que l’usage de ces technologies par certains ait un impact négatif sur la société.

Microsoft et d’autres réclament de longue date une législation adaptée au secteur de l’IA. Pour Natasha Crampton « Il s’agit d’une période cruciale pour l’établissement de normes en matière d’intelligence artificielle ». La responsable voit d’un bon œil les initiatives européennes récentes allant dans ce sens. En attendant, les entreprises ont librement le choix de s’autodiscipliner à l’image de Microsoft, ou non.