La Commission nationale consultative des droits de l’homme (CNCDH) a partagé le 7 avril un avis (pdf), relayé par Next INpact, regroupant plusieurs recommandations pour minimiser l’impact de l’utilisation de l’intelligence artificielle sur les droits fondamentaux. Ces risques sont déjà au centre des préoccupations, la Commission européenne travaille depuis 2021 sur l’élaboration de l’Artificial Intelligence Act.

Le « social scoring », grand ennemi des libertés individuelles

Identification biométrique à distance, notation sociale, diagnostics médicaux automatisés, la CNCDH voudrait interdire certains usages de l’IA qu’elle considère comme dangereux. Ce type d’utilisation pourrait selon elle directement porter atteinte aux droits fondamentaux. Elle préconise de mettre en application une vingtaine de recommandations dès lors qu’une IA contreviendrait à la dignité humaine, au respect de la vie privée, à l’égalité et la non-discrimination ou encore à l’accès à la justice et aux droits sociaux.

L’Artificial Intelligence Act avait déjà hiérarchisé l’usage d’une IA selon les risques qu’elle représente. La mise en place d’un « social scoring » par les pouvoirs publics est par exemple considérée comme inacceptable. La CNIL évoquait déjà en 2021 les dangers d’un tel système, dont l’utilisation qui en est faite en Chine effraie les citoyens. Sur ce point, la CNCDH veut aller plus loin en interdisant son usage par les entreprises privées. De même, en ce qui concerne les outils de reconnaissance vocale présents sur les jouets qui peuvent exploiter la vulnérabilité des enfants.

L’institution recommande l’interdiction de l’IA pour l’identification biométrique à distance et dans l’espace public. Les applications en matière de sécurité et d’utilisation par la police interrogent sur les limites à fixer. Dans le cas d’une menace grave et imminente pour la vie ou la sécurité des personnes, elle pourrait être utilisée de façon adaptée et proportionnée. Le risque de détournement de ce type de dispositif n’est pas à exclure, comme l’a fait le pouvoir russe en 2021 pour réprimer des manifestants à Moscou.

La CNCDH s’accorde aussi avec la Commission européenne sur les dangers que peut représenter l’IA dans le secteur de la justice. Elle précise qu’au-delà des risques de l’application de la loi par un algorithme, il faut approfondir davantage les réflexions dans les apports et les limites de l’IA dans les procédures juridictionnelles. En France, la justice avait expérimenté l’algorithme DataJust pour calculer le montant de l’indemnisation des victimes d’un préjudice. Son fonctionnement n’a pas été estimé satisfaisant selon La Croix.

Prévenir et éduquer sur les enjeux de l’IA

L’accent est aussi mis sur la prévention et l’information. Le rapport souligne l’importance pour l’Education nationale de renforcer la formation des élèves sur les questions en rapport avec les enjeux techniques, sociétaux et politiques de l’intelligence artificielle. Les enseignants devraient disposer du matériel pédagogique nécessaire pour aborder ces questions précises.

Les citoyens devraient être informés systématiquement lorsqu’ils sont exposés à un système d’IA, et que celui-ci effectue une prise de décision les concernant, sur la base d’un traitement algorithmique. L’Artificial Intelligence Act citait, par exemple, le danger de l’utilisation d’outils de tri automatique des CV dans les procédures de recrutement. Plutôt qu’« intelligence artificielle », la CNCDH recommande d’ailleurs l’utilisation de l’expression « système algorithmique d’aide à la décision ».

Enfin, l’avis de la CNCDH propose de favoriser les investissements publics pour informer et former les individus à travers des outils accessibles au plus grand nombre. Elle évoque aussi la mise en place de consultations nationales calquées sur le modèle des États généraux de la bioéthique mis en place par le Conseil consultatif national d’éthique. L’IA sera sans doute une question centrale du nouveau quinquennat d’Emmanuel Macron. La France, présidente du Conseil de l’Union européenne, souhaite défendre son point de vue sur l’utilisation de l’IA par les forces de l’ordre.