Stanford, Oxford, Google, Berkeley, Intel, l’École Normale Supérieure de Paris, un peu moins d’une soixantaine de chercheurs d’institutions, d’entreprises, américaine et européenne spécialisés autour de l’IA ont publié le 15 avril un rapport prônant une technologie plus fiable et plus éthique. Dans leurs propositions, la mise en place d’un « bias bounty », à l’instar des bug bounty dans la sécurité informatique.

Soupçon d’ethical washing

La publication des 59 chercheurs vient d’un constat : l’éventail d’IA et d’applications de cette technologie s’élargit tous les jours et s’intègre petit à petit dans le quotidien. Cette prolifération est encore peu réglementée et selon eux encadrée par trop peu de normes.

La question de l’éthique s’est posée précocement dans le développement de l’IA, avec beaucoup de chercheurs biberonnés à la science-fiction. Selon le collectif les mesures prises sont insuffisantes et dispersées, chaque entreprise, université, s’applique des normes éthiques qui lui sont propres ce qui pourrait entrainer des soupçons d’« ethic washing ». Comme pour le green washing (l’expression originale) les auteurs parlent de mesures éthiques de façade, peu respectée en réalité.

Le texte est la conséquence d’un échange il y a un an, à San Francisco entre 35 universitaires, membres de l’industrie et associatifs. C’est désormais parfaitement renseigné, les cerveaux artificielles ne sont pas à l’abri de préjugés. Reconnaissance faciale discriminante, deepfake, destructions d’emploi, atteinte à la vie privée, liberté. L’arrivée d’IA de plus en plus perfectionné pose de nouveaux questionnements éthiques.

Le rapport explique, « Avec les progrès techniques rapides de l’intelligence artificielle et la diffusion des applications basées sur l’IA au cours des dernières années, on se demande de plus en plus comment garantir que le développement et le déploiement de l’IA soient bénéfiques – et non nuisibles – pour l’humanité« .

Plus de transparence sur les technologies d’IA

Pour que le public ait confiance en l’IA, pour que la technologie soit bénéfique à la société, l’article passe en revue différents procédés. La création d’un registre où serait consignés tous les bugs liés à l’IA, organisme de normalisation, des stratégies bien connues de l’informatique comme des red team pour les questions de cybersécurité, des bias bounty … chaque suggestion est agrémentée de ses défauts et qualités, l’article est écrit comme une boite à outils ouverte à tous.

Les auteurs demandent principalement aux entreprises plus de visibilité sur les technologies développées, une plus grande transparence. Du côté de la recherche publique, ils remarquent notamment la faiblesse des investissements pour la recherche. L’appel réunissant chercheurs de l’IA privée comme publique, souvent dans des institutions prestigieuses, pourrait être à même de faire bouger quelques lignes.