Selon un récent rapport du Conseil de sécurité de l’ONU, l’intelligence artificielle a peut-être franchi une étape de trop dans le domaine militaire. On peut lire dans ce rapport qu’un drone militaire aurait attaqué des soldats de manière autonome sans en avoir reçu l’ordre. Ce rapport de 548 pages soulève de véritables questions éthiques auxquelles il est vraisemblablement grand temps de répondre.

Le drone militaire Kargu-2 de STM est dans le viseur de l’ONU

Le drone militaire en question a été conçu et fabriqué par la société miliaire turque STM. Le modèle Kargu-2 est un drone de combat autonome capable de déclencher des frappes sur des ennemis. Dans le cas soulevé par l’Organisation des Nations Unies, le drone aurait attaqué des combattants fidèles au général libyen Khalifa Haftar. Selon les experts qui se sont penchés sur ce dossier, un gouvernement « d’entente nationale » libyen, reconnu par l’ONU, aurait repoussé les forces affiliées à Haftar de la capitale libyenne Tripoli. Le drone en question serait opérationnel depuis janvier 2020.

Selon les auteurs du rapport : « les convois logistiques et les militaires du général Khalifa Haftar ont été traqués après avoir battu en retraite. Des frappes ont été engagées à distance par les drones de combat et les systèmes d’armes autonomes létaux tels que le STM Kargu-2 ». Il se trouve que le drone militaire n’avait pas reçu cet ordre. Les experts poursuivent : « les systèmes d’armes autonomes létaux ont été programmés pour attaquer des cibles sans nécessiter de contact entre l’opérateur et l’intelligence artificielle ». Ils sont donc en capacité de prendre une décision de manière totalement autonome.

L’ONU estime que les drones ont pu commettre des erreurs

Le rapport de l’ONU ne précise pas si ces différentes attaques ont fait des morts. Les armes autonomes offensives posent de véritables problèmes éthiques dans le monde de l’intelligence artificielle. Plusieurs personnalités avaient déjà réclamé qu’elles soient interdites. C’était par exemple la volonté d’Elon Musk, de Stephen Hawking ou de Noam Chomsky. Pourtant le gouvernement américain a récemment assouplit ses lois pour stimuler les exportations des drones militaires. Les armes autonomes offensives ont la capacité de chercher une cible et de la tuer sans qu’aucun humain ne puisse donner son avis… Cela pose question.

L’ONU estime que les ensembles de données utilisés pour former ce drone militaire, ceux qui lui permettent d’identifier des objets comme les bus, les voitures ou de différencier les civils des soldats, ne sont peut-être pas suffisamment robustes pour se permettre de laisser un robot décider s’il doit déclencher une frappe ou non. Selon eux, le système d’intelligence artificielle du drone militaire peut tirer de mauvaises conclusions et prendre de mauvaises décisions. Ce rapport montre l’inutilité des efforts mondiaux visant à interdire les robots autonomes tueurs avant leur construction. Ils existent déjà.

Selon Zachary Kallenborn, consultant en sécurité nationale : « le risque de dérapage est plus grand lorsque plusieurs de ces drones autonomes communiquent et coordonnent leurs actions. La communication entre eux crée des risques d’erreurs en cascade dans lesquels une erreur commise par une unité est partagée par une autre ». Les chercheurs ne donnent pas plus de détails sur les conséquences de leur découverte. De premiers humains ont-ils été tués par des armes autonomes ? Impossible de le savoir pour le moment.