Depuis plusieurs années, l’intelligence artificielle (IA) gagne du terrain dans tous les secteurs. Parmi eux, la robotique, la médecine, mais aussi les réseaux sociaux et le recrutement. Depuis sa création, LinkedIn utilise l’IA pour recommander aux utilisateurs les offres d’emploi qui leur correspondent le mieux. Elle s’est finalement révélée être biaisée car elle favorisait les candidatures des hommes à celles des femmes. Le réseau social a essayé de l’améliorer à l’aide d’une autre IA, révèle le MIT Technology Review.

L’IA de LinkedIn, un gain de temps pour les entreprises…

De nombreux recruteurs utilisent l’IA de LinkedIn pour trouver leur futur employé. Il s’agit d’un gain de temps pour eux, car elle va trier les documents fournis par les candidats ou leurs profils, et essayer de trouver la perle rare pour le poste. Concrètement, elle s’occupe d’une bonne partie du processus de recrutement.

Au fur et à mesure des années, l’IA est donc devenue un outil indispensable pour embaucher. Cela s’est amplifié avec la crise sanitaire, au cours de laquelle il a fallu revoir les façons de recruter. Chercher des profils intéressants sur des sites comme LinkedIn est alors devenu un réflexe.

… Au détriment des potentiels candidats ?

Lors de leurs recommandations, la plupart des plateformes de recrutement se basent sur trois types de données : celles fournies par l’utilisateur, celles qui sont attribuées à ce dernier par l’IA en fonction des profils similaires d’autres candidats ainsi que celles comportementales, comme la fréquence à laquelle il répond aux messages.

De leur côté, les algorithmes de LinkedIn ne prennent pas en compte l’âge, le sexe ou les origines, car ces informations peuvent biaiser les processus automatisés. Or, même en les excluant, l’IA est capable de détecter les données comportementales similaires de certains groupes de personnes, comme les femmes.

En effet, il s’est avéré que sur la plateforme, les hommes sont plus susceptibles de postuler à des emplois qui nécessitent une expérience professionnelle au-delà de leurs qualifications. Au contraire, les femmes ont tendance à candidater à des emplois pour lesquels leurs savoir-faire correspondent précisément aux exigences du poste. L’IA prend en compte cette variation de comportement, l’analyse et l’ajuste à ses recommandations d’une manière qui, par inadvertance, va désavantager les femmes.

“On peut alors se retrouver à recommander, par exemple, des emplois plus qualifiés à un groupe de personnes qu’à un autre, alors qu’ils ont les mêmes compétences”, explique John Jersin, ancien vice-président de la gestion de produit chez LinkedIn. “Ces personnes pourraient ne pas être exposées aux mêmes opportunités, et c’est de cette conséquence dont nous parlons ici”.

LinkedIn tente de corriger le tir

Pour résoudre ce problème, LinkedIn a conçu une nouvelle IA créée pour offrir des résultats plus représentatifs. Déployée en 2018, elle vise à contrer les recommandations biaisées faites à un groupe précis. Ainsi, lorsque la première IA recommandera un emploi à un candidat ou, à l’inverse un candidat qui pourrait postuler à un emploi, la nouvelle IA s’assurera d’une répartition uniforme des utilisateurs en fonction de leur sexe.

Dans le podcast du MIT Technology Review appelé “In Machines We Trust”, CareerBuilder, ZipRecruiter et Monster ont révélé qu’ils adoptaient des approches très différentes de LinkedIn pour lutter contre les biais et les préjugés. Malgré tout, elles n’ont pas indiqué comment fonctionnaient leurs systèmes, ce qui rend difficile de savoir dans quelle mesure leurs méthodes sont efficaces.