C’est une collaboration inédite : le média Reuters a fait appel à Facebook pour développer un programme intitulé Identifying and Tackling Manipulated Media, qui doit permettre aux journalistes de détecter les deepfakes.

Reuters lance un cours gratuit pour tous

Ce programme a la particularité d’être gratuit et accessible à tous. Bien que réalisé pour aider les journalistes à repérer les deepfakes, n’importe qui pourra le consulter, pour enrichir sa culture personnelle et éviter de tomber dans le piège de ces vidéos manipulatrices. Pour rappel, les deepfakes sont conçues grâce à une technique d’intelligence artificielle qui consiste à superposer des images et des vidéos existantes sur d’autres images et/ou vidéos pour faire dire ce qu’on veut à n’importe qui. Ce programme est une excellente nouvelle pour la presse.

Facebook a mis le paquet pour créer ce programme. En effet, le cours dure 45 minutes et peut être lu dans différentes langues : en anglais, français, espagnol et en arabe. De son côté, Reuters prévoit d’aller encore plus loin sur la traduction : au moins 12 autres langues, dont l’allemand et le japonais seront disponibles dans les mois qui arrivent. À l’approche de 2020 et des élections présidentielles américaines, Facebook et Reuters prévoient aussi d’organiser des événements dont de nombreuses tables rondes sur le sujet. Objectif : éviter la diffusion de fake news.

La Chine ne veut plus de deepfakes non plus

Depuis quelques semaines, le fait de diffuser une deepfake en Chine constitue un crime. Il est désormais obligatoire de préciser qu’une vidéo a été créée grâce à l’intelligence artificielle et qu’elle rapporte de fausses informations, pour qu’elle soit publiée de manière légale. Si ces mentions n’apparaissent pas, le créateur de la deepfake sera considéré comme un criminel aux yeux des autorités chinoises et donc traité comme tel. À ce propos, le South China Morning Post rapporte les propos de la Cyberspace Administration of China (CAC) :

“Avec la démocratisation des nouvelles technologies et de l’intelligence artificielle dans l’industrie de la vidéo et de l’audio en ligne, nous avons identifié plusieurs risques. Des contenus comme les deepfakes peuvent perturber la véracité des informations diffusées ainsi que l’ordre social dans le pays. L’intelligence artificielle utilisée dans cet objectif précis pourrait avoir un impact négatif sur la sécurité nationale de la Chine. Pour cette raison, nous ne tolérerons aucun écart”.

Les deepfakes : le nouveau combat de Facebook

On sent bien que Facebook cherche à se racheter une conduite. Le réseau social a également annoncé que ses équipes allaient travailler avec Microsoft et le MIT pour mieux détecter les deepfakes et pouvoir les éliminer. L’initiative en question s’appelle Deepfake Detection Challenge (DFDC). L’idée est de créer des outils pour que les entreprises les gouvernements ou les médias puissent très rapidement détecter si une vidéo a été trafiquée. Un bon moyen d’éviter la propagation de fausses informations.

Julia Bain, en charge des actions liées à l’intégrité chez Facebook, explique que : “nous devons travailler avec tous les secteurs de l’industrie pour mieux identifier et traiter les fausses informations. Ce partenariat avec Reuters est une étape importante pour aider les journalistes à repérer ce type de contenu afin que nous puissions mettre fin à la diffusion de fausses informations en ligne”.