Pour identifier plus facilement les cibles de frappes aériennes au Moyen-Orient, l’armée des États-Unis a utilisé l’intelligence artificielle (IA) durant ce mois de février. L’utilisation de cette technologie s’est intensifiée depuis l’attaque du Hamas contre Israël, le 7 octobre dernier.

Machine learning et vision par ordinateur au service de l’armée

Les bombardiers et avions de chasse américains ont mené des frappes aériennes contre sept installations en Irak et en Syrie le 2 février. Un peu plus tard, le même mois, ces attaques similaires avaient été menées pour neutraliser des combattants et des entrepôts d’armes au Yémen ainsi que des navires de guerre sur la mer rouge. Le point commun entre ces deux opérations : une utilisation prononcée de l’intelligence artificielle.

Les militaires américains ont exploité la vision par ordinateur pour analyser des zones à risque, et déterminer s’il était nécessaire de les attaquer. Grâce aux algorithmes de machine learning mis au point par le Pentagone, il est possible d’identifier des armes, des véhicules militaires, etc. En somme, tout objet pouvant être considéré comme une menace. En février, ce ne sont pas moins de 85 frappes aériennes qui ont été ordonnées après l’utilisation de l’intelligence artificielle.

Schuyler Moore, directeur de la technologie du Commandement central américain, a précisé à Bloomberg que ces solutions étaient utilisées comme un moyen de recommandation. Concrètement, l’IA ne choisit pas à la place de l’humain, qui a toujours le dernier mot pour valider la cible. Les différents exercices effectués à la fin de l’année dernière ont montré que ces systèmes étaient moins performants que les militaires pour déterminer la date et l’heure d’attaque ou encore la meilleure arme à utiliser dans le cadre d’une opération.

Les solutions développées par l’armée des États-Unis s’inscrivent dans le projet Maven, une initiative du Pentagone lancée en 2017 afin d’accélérer l’adoption de l’IA au niveau militaire. Initialement, Google était partenaire du projet, mais le géant technologique s’est retiré, confronté à de fortes contestations éthiques internes.

Le Pentagone n’a pas baissé les bras, et dévoilait en 2022, son plan pour développer une IA militaire responsable. Une initiative pour chercher la confiance des corps d’armée et des citoyens. En octobre dernier, le département de la Défense des États-Unis a décidé de passer à la vitesse supérieure suite au déclenchement de la guerre Israël-Gaza. Alors que ces outils n’étaient utilisés que dans le cadre de tests, la superpuissance a décidé de les exploiter dans de vraies missions, sur le terrain.