Les failles des algorithmes sont dangereuses pour nos sociétés
ÉtudesIntelligence Artificielle

Les failles des algorithmes sont dangereuses pour nos sociétés

Le grand public n'a pas encore les outils nécessaires pour faire face.

Quand les algorithmes se trompent ou dévient de leur mission première, nous n’avons pas les outils nécessaires pour nous défendre et pour prouver qu’ils sont dans l’erreur. Voici la conclusion d’un nouveau rapport publié dans AI Now et réalisé par des chercheurs sur l’intelligence artificielle appartenant à un groupe de recherche regroupant des employés de Microsoft et Google, affilié à l’Université de New York. Les algorithmes font leur apparition dans tous les domaines. On apprenait récemment que le monde du sport se dotait d’un outil d’intelligence artificielle pour un dépistage plus précis afin de lutter contre le dopage. Les chercheurs précisent que « le grand public n’a pas les outils nécessaires pour tenir ces systèmes responsables lorsqu’ils échouent ». Ce sont très clairement les défis sociaux et les potentielles inégalités à venir qui sont pointées dans ce rapport.

Pour faire face à ces défis technologiques, les chercheurs ont formulé dix recommandations, dont une demande de réglementation gouvernementale de la reconnaissance faciale. Ils proposent aussi de nouvelles lois portant sur la nécessité de faire valoir « la vérité absolue dans la publicité », notamment pour les produits liés à l’IA. Concrètement, les grandes entreprises technologiques se sont retrouvées dans une ruée vers l’or de l’intelligence artificielle. Mais, comme le dit Meredith Whittaker, cofondatrice d’AI Now et chef de l’Open Research Group de Google, à TheVerge « de nombreuses affirmations sur les avantages et l’utilité de l’intelligence artificielle et des algorithmes ne sont pas étayées par des preuves scientifiques publiquement accessibles ». Tout le problème est là.

Le développement de l’intelligence artificielle pose de plus en plus de problèmes éthiques, il y a eu des protestations publiques et des dissidences internes. Au cours de l’année, certains employés de Google ont démissionné à cause des contrats signés avec le Pentagone dans le cadre du Projet Maven. Finalement la société a décidé de capituler et abandonnera ce partenariat en 2019. Aux États-Unis toujours, des employés de Microsoft ont fait pression sur l’entreprise pour qu’elle cesse de travailler avec l’Immigration and Customs Enforcement (ICE).

Le rapport est clair : le grand public a besoin de plus. Le danger pour nos sociétés est particulièrement évident lorsqu’il s’agit de l’adoption de systèmes de décision automatisés par les gouvernements. Je pense notamment à l’utilisation d’algorithmes pour le calcul des peines d’emprisonnement ou l’attribution des aides médicales et sociales. D’après les auteurs du rapport, les algorithmes sont introduits dans ces domaines dans le but de réduire les coûts et d’accroître l’efficacité. Mais généralement, les systèmes d’intelligence artificielle prennent des décisions qui ne peuvent être expliquées ou faire l’objet d’un recours.

Send this to a friend