Des membres des comités de contrôle et de réforme ainsi que des affaires étrangères, deux comités du Congrès américain, ont demandé à Meta, TikTok, YouTube et Twitter d’archiver les potentielles preuves de crimes de guerre commis en Ukraine par l’armée russe.

Des preuves pour l’avenir

Cela fait maintenant près de trois mois que la Russie a attaqué l’Ukraine, et de possibles crimes de guerre ont été répertoriés dans la région. Dans l’hypothèse de futures condamnations envers la Russie, les représentants Carolyn Maloney, Gregory Meeks, Stephen Lynch et William Keating estiment que les publications d’images ou de vidéos sur les réseaux sociaux peuvent constituer des preuves contre les auteurs de ces crimes.

« Des images et des vidéos de ces actes ignobles ont été partagées sur des plateformes de médias sociaux, notamment Facebook, Instagram, Twitter, YouTube et TikTok. S'il est vérifié qu'il est authentique, ce contenu pourrait fournir au gouvernement américain et aux enquêteurs internationaux sur les droits de l'Homme des preuves importantes pour aider à étayer les allégations de crimes de guerre et d'autres atrocités commises par les forces russes contre le peuple ukrainien », déclare le Comité de contrôle et de réforme dans un communiqué de presse.

De nombreux contenus sur la guerre en Ukraine ont été publiés sur les réseaux sociaux. Photographie : Jeremy Bezanger / Unsplash

Les réseaux sociaux doivent changer leurs habitudes en temps de guerre

En général, les contenus violents sont retirés des plateformes, mais les députés s’interrogent sur le devenir de ce contenu une fois qu’il n’est plus accessible en ligne : « Les plateformes de médias sociaux suppriment régulièrement les contenus graphiques qui glorifient la violence ou la souffrance humaine ou qui pourraient conduire à d'autres perpétrations de violence, et ont légitimement mis en œuvre des politiques de contenu graphique pour protéger leurs utilisateurs. Cependant, nous sommes préoccupés par le fait que les processus par lesquels les plateformes de médias sociaux retirent ou bloquent ce contenu - y compris par le biais de systèmes automatisés et basés sur l'intelligence artificielle - peuvent entraîner le retrait involontaire et la suppression permanente de contenu qui pourrait être utilisé comme preuve de violations potentielles des droits de l'Homme telles que les crimes de guerre, les crimes contre l'humanité et le génocide », ont-ils écrit dans une lettre adressée aux PDG des quatre plateformes concernées.

Ainsi, ils leur demandent notamment de préserver et d'archiver des contenus potentiellement utiles pendant une période prolongée ; de se coordonner avec les organisations internationales de défense des droits de l'Homme pour mettre au point un moyen légal et établi de partager ces contenus, mais également d'accroître la transparence des systèmes de modération des contenus basés sur l'intelligence artificielle et de leur interface avec les contenus de guerre. Ils leur demandent en outre de créer un moyen pour les utilisateurs de signaler les contenus qui, selon eux, pourraient contenir des preuves de crimes de guerre.

Ce n’est pas la première fois que l’on fait appel à la technologie dans ce contexte. En 2020, l'Université de Swansea au Royaume-Uni, ainsi que plusieurs associations, ont imaginé une IA capable d’analyser de très nombreuses images pour y détecter des crimes de guerres commis aux Yémen par l’Arabie Saoudite.