De par sa capacité d’analyse, l’intelligence artificielle pourrait faire gagner un temps précieux aux militants des droits de l’Homme et leur éviter de parcourir des milliers d’heures d’images pour prouver des crimes de guerre. Le machine learning pourrait analyser avec précision autant de vidéos en quelques minutes seulement. Les conflits actuels au Yémen sont dans le viseur des associations de défense des droits de l’Homme.

Prouver des crimes de guerre au Yémen grâce à l’IA

En plus d’espionner ses ressortissants aux États-Unis et d’avoir infiltré un espion chez Twitter, depuis 2015, l’Arabie saoudite attaque le Yémen à coup de frappes aériennes à répétition, pour « contrer la montée en puissance du pouvoir chiite ». Une intervention qui n’aurait dû durer que quelques semaines, mais qui, cinq années plus tard, est toujours une réalité pour les yéménites.

Plus de 20 000 frappes aériennes auraient déjà eu lieu. Des frappes qui violent le droit international. Seulement pour le prouver, il faut être capable de fournir des preuves. C’est là que tout se complique. Les vidéos et les photos peuvent permettre d’apporter la preuve d’une violation, mais elles sont trop nombreuses.

Vous l’aurez compris, c’est là que l’intelligence artificielle pourrait intervenir. Grâce au machine learning, les associations de défense des droits de l’Homme pourraient analyser des milliers d’heures de vidéos et d’images provenant de la foule et donc exploiter des sources d’information beaucoup plus riches. C’est l’Université de Swansea au Royaume-Uni qui est à l’origine de cette initiative, aux côtés de plusieurs associations. Selon Yvonne McDermott Rees, professeur à l’Université de Swansea et responsable de cette initiative :

« Si notre initiative va au bout, il ne suffira pas de montrer que cela s’est produit, il faudra être en mesure de prouver qu’il s’agit d’un crime de guerre. Montrer qu’une arme illégale a bien été utilisée ou encore prouver qu’une frappe visait bien des civils ou qu’elle était totalement disproportionnée. Bref, il y a du travail et je suis persuadée que l’intelligence artificielle peut nous aider à l’accomplir ».

Une IA capable d’identifier la BLU-63

L’Université a décidé de concentrer ses travaux sur une arme en particulier : la BLU-63. Une arme explosive fabriquée au Royaume-Uni et interdite dans 108 pays, dans le Royaume-Uni… Allez comprendre. Si les partenaires pouvaient prouver devant un tribunal que ces armes ont effectivement été utilisées pour commettre des crimes de guerre, cela pourrait servir de levier pour arrêter la vente d’armes du Royaume-Uni à l’Arabie saoudite. Un système d’apprentissage automatique a donc été développé spécifiquement pour détecter l’utilisation de la BLU-63 dans les données récoltées.

C’est un travail minutieux. Les images de la BLU-63 sont rares, précisément parce que son utilisation est illégale. Des modèles 3D de cette arme ont même été reconstitués pour permettre à l’IA de mieux retrouver cette arme. Le système fonctionne déjà bien : 90% des vidéos et des photos identifiées comme « contenant le BLU-63 » selon l’IA, ont été validées par des experts humains. Il faut désormais appliquer ce modèle dans le vrai monde, sur les images provenant du Yémen.