Dans le cadre d’une étude réalisée par Mazars, entreprise spécialisée dans l’audit et le conseil, la notoriété et l’image de l’intelligence artificielle ont été mesurées auprès du grand public. Si 81 % des Français ont d’ores et déjà entendu parler de cette technologie, seuls 58 % des sondés affirment que sa présence est une bonne chose pour la société.

Sensibiliser autour des biais d’équité et d’explicabilité

Même si plus de la moitié du public sondé semble ouvert et favorable à l’utilisation de l’IA, y voyant des perspectives positives au niveau des grands enjeux sociétaux, le reste y est très sceptique. Parmi les personnes réticentes à la démocratisation de l’IA, celles-ci sont inquiètes quant aux risques liés aux attaques de hackers, d’atteinte à la vie privée, d’atteinte à l’équipe et à la compréhension des résultats de l’IA, de transferts de données personnelles non autorisées ou de perte de contrôle des machines dotées d’algorithmes d’IA.

Afin de rassurer au maximum l’ensemble des sceptiques, Mazars a identifié deux axes sur lesquels les institutions peuvent s’appuyer. Tout d’abord, la société de conseil met en avant l’importance de la sensibilisation aux biais d’équité et d’explicabilité.

Si l’IA peut présenter des risques importants de propagation et de renforcement de l’information et des disparités (comme lorsqu’un algorithme de Facebook a confondu un Homme avec un primate), celle-ci peut s’avérer être « un outil formidable au service de l’équité et de la non-discrimination puisque, sous contrôle, elle n’est pas affectée par les biais humains (risques de familiarité, d’empathie sélective, d’administration différenciée selon les agents, etc.) ».

Puisque les informations, décisions ou recommandations fournies par une IA ne sont pas directement compréhensibles, Mazars appelle les organismes à être le plus transparent possible pour éviter un phénomène trop important d’asymétrie d’informations entre les spécialistes de l’IA et le grand public.

Modérer les risques de l’intelligence artificielle grâce au contrôle externe périodique

L’autre levier préconisé par Mazars pour réduire au maximum les réticences des sceptiques serait de soumettre ses solutions d’IA à des contrôles externes périodiques, réalisées par des humains. En effet, 40 % du public interrogé trouvent les procédures peu ou pas du tout efficace. À l’inverse, 74 % des Français font confiance aux dispositifs de contrôle périodique mené par un organisme indépendant.

Paradoxalement, même si publier les mesures de contrôle interne (par volonté de transparence) est quelque chose d’apprécier par le grand public, elle ne considère pas que ce genre de contrôle est efficace. Les Français trouvent également moyennement efficace de mettre en place une unique autorité de supervision nationale indépendante, mais trouve qu’elle peut être utile si cette structure fait figure d’autorité compétente pour trancher certains cas litigieux.

Selon le cabinet de conseil, si les risques liés à l’IA sont « maîtrisés » par des contrôles externes indépendants, le nombre de sceptiques pourrait passer de 40 à 26%. Pour conclure, Laurent Inard, Associé Data Services au sein de Mazars évoque la façon dont ces contrôles externes périodiques pourraient être mis en œuvre : « Si les grilles, propositions de cribles et d’outils commencent à faire florès, le référentiel d’audit des algorithmes reste à construire. L’audit doit combiner revues de procédures et d’organisation, intégrer le caractère évolutif de l’IA durant son cycle de vie, et doit faire usage de tests statistiques complexes et d’algorithmes de détection : à cet égard, la combinaison des expertises en matière d’audit et de data science est donc la clé du succès ».