Le Conseil municipal de New York a adopté le 11 novembre un projet de loi pour contrôler les biais des Intelligences artificielles (IA) utilisés au cours du processus de recrutement. Une préoccupation également intégrée au projet de règlement européen sur l’IA.

La réalité des biais de l’IA

Le phénomène est désormais largement connu, beaucoup d’IA ont tendance à être biaisées. Loin de la neutralité fantasmée de la machine, elle reproduit les schémas sexistes, racistes, homophobes de la société, qu’elles apprennent aux contacts des humains et reproduisent.

Comme un serpent qui se mord la queue, ces biais inculqués lors d’une phase d’apprentissage automatique vont ensuite avoir une conséquence sur la société. C’est ainsi qu’une IA peut être tout aussi partiale lors du processus de recrutement d’une entreprise qu’un employé des ressources humaines pétries consciemment ou non de stéréotypes discriminants.

Une étude de la Harvard Business Shool publiée en septembre 2021 démontre que le processus automatisé de recrutement a créé des « travailleurs dissimulés ». Des demandeurs d’emploi exclus d’office par les algorithmes en raison de certains aspects de leur profil. Aux États-Unis ils seraient 27 millions dans cette situation.

New York réglemente…

Pour parer ce phénomène, la ville de New York a décidé de voter une loi sur les IA. Parmi les dispositions prises, l’obligation pour un employeur d’avertir les candidats de l’utilisation d’une IA dans le processus, les informations qu’elle utilise pour évaluer ses aptitudes pour l’emploi.

Les fournisseurs d’IA d’assistance d’embauche seront contraints à auditer la partialité de leurs systèmes. Les résultats devront être transmis à leurs entreprises clientes. Le projet de loi, en discussion depuis un an, est volontairement flou sur le type de système concerné analyse Protocol, à l’origine de l’information. Un moyen d’englober des machines variées, de présélections de CV, les motivations des candidatures, etc.

…L’Union européenne aussi

Cette problématique est prise en contact dans le projet de règlement de l’Union européenne sur l’IA. Un classement a été établi sur quatre niveaux de risques selon l’emploi d’une IA, inacceptable, risque élevé, risque limité, risque minimal.

Le recrutement est classé en risque élevé, c’est-à-dire que l’assistance de l’IA pour recruter ne sera pas interdite d’office, mais sera soumise à des critères de sécurité plus élevés. Les systèmes devront être évalués, enregistrés dans une base de données, ciblés conforme. Les autorités seront chargées de surveiller le marché et les fournisseurs de mettre en place un système de surveillance.

Pour New York le processus législatif arrive à son terme, le texte doit simplement être promulgué et devrait entrer en application début 2023. Pour l’Union européenne, le calendrier est plus incertain. La proposition de réglementation a été présentée par la Commission en avril 2021. Elle doit encore être étudiée par le Parlement et les États membres.