Et si l’intelligence artificielle tombait dans de mauvaises mains ? Dans un rapport, des experts internationaux alarment sur les risques d’une utilisation malveillante de l’intelligence artificielle. L’efficacité croissante de l’IA pourrait conduire, dans les dix prochaines années, à son détournement par « des États voyous, des criminels, des terroristes ».

Ce rapport de 100 pages intitulé The Malicious Use of Artificial Intelligence a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ceux-ci travaillent pour de grandes universités et des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation). Ils donnent plusieurs “scénarios hypothétiques” afin d’illustrer leurs inquiétudes. Les experts passent en revue les principaux dangers que peuvent représenter ces technologies. À savoir : menace sur la sécurité numérique, physique et politique.
L’amélioration de l’IA et du machine learning viendra renforcer les menaces déjà existantes comme la cybercriminalité. Les cyberattaques, qui représentent déjà un coût considérable, pourraient devenir plus aisées et efficaces. Des programmes d’IA risquent d’améliorer les attaques par hameçonnage ciblé (spear phishing), en exploitant les données publiques mises en ligne par les internautes.

Les chercheurs craignent également l’utilisation de l’IA pour mener de nouvelles attaques terroristes. Ils soulignent que des terroristes pourraient modifier des systèmes d’IA disponibles dans le commerce comme des drones, des véhicules autonomes ou même des robots ménagers, pour provoquer un attentat.

Selon les chercheurs, le danger « le plus sérieux, même s’il est moins probable, est le risque politique ». Selon Seán Ó hÉigeartaigh, chercheur de l’Université de Cambridge, « cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres ». Dans ce scénario apocalyptique, les experts pensent qu’avec de nouveaux outils technologiques, comme la possibilité de réaliser des fausses vidéos très réalistes, des trucages d’élections ou des opérations de propagande seront facilités. Ils s’inquiètent également du risque de voir des états autoritaires se servir de l’IA pour surveiller leur peuple.
Seule note d’optimiste du rapport : il est encore temps d’agir. Les experts appellent les gouvernements et les différents acteurs concernés à mettre en place des ripostes pour limiter les menaces potentielles liées à l’intelligence artificielle.
SOURCE.