Comment faire en sorte que l’IA ne soit pas utilisée à mauvais escient ? Voilà sans doute l’une des questions que se sont posés les chercheurs du département américain de la défense lorsqu’ils ont débuté leurs travaux pour mettre au point un outil qui détecte non pas les cancers, mais les montages vidéo illustrant les fakes news.

Comment cette IA détecte-t-elle les montages vidéo illustrant les fakes news ?

C’est en observant durant de longues heures des « deepfakes » que les équipes de la DARPA (Media Research Projects Agency) de la défense américaine ont trouvé une manière efficace pour lutter contre l’utilisation de l’IA afin d’échanger le visage d’une personne contre une autre. Siwei Lyu, professeur dirigeant l’une des équipes de recherche, a déclaré « Nous avons généré une cinquantaine de faux montages vidéo illustrant des fakes news avant d’essayer plusieurs méthodes traditionnelles d’analyses. » Malheureusement, après plusieurs jours de recherche, les résultats n’étaient pas à la hauteur des attentes puis il s’est rendu compte que les visages réalisés pour les besoins des « deepfakes » clignotaient très rarement des yeux.

Mais ce n’est pas la seule découverte qui a été mise au point dans le cadre de ce projet. En effet, d’après les déclarations officielles de plusieurs membres de la DARPA, d’autres outils ont également été développés. En effet, plusieurs spécialistes en techniques d’investigation criminelles et numériques ont confirmé que les signaux physiologiques sont pour le moment difficile à reproduire avec l’IA. Cela devrait permettre au département américain de la Défense d’avoir un peu d’avance sur les cybercriminels pour lesquels détourner l’IA, qui détecte les montages vidéo illustrant les fakes news, devrait être un véritable challenge !

Source.