Un nouveau rapport du Stern Center for Business and Human Rights de l’Université de New York (NYU) fait état des stratégies de propagation de fausses nouvelles, qui pourraient voir le jour lors des élections à venir. Les présidentielles américaines de 2020 sont d’ores et déjà dans tous les esprits et les experts en cybersécurité tentent de s’y préparer au mieux. Voici une liste non exhaustive des tactiques probables dont il faudra se méfier.

Instagram sera la plateforme préférée des fake news

De nouvelles stratégies pourraient bien voir le jour. Les deepfakes devraient notamment être au centre de la désinformation lors des élections à venir. Vous savez, il s’agit de ce processus de permutation intelligente des visages. Une technique de synthèse d’images basée sur l’intelligence artificielle. Il faut comprendre qu’elle sert à superposer des images et des vidéos existantes sur d’autres images et/ou vidéos. Concrètement, vous pouvez faire dire n’importe quoi à n’importe qui.

Le rapport prévoit qu’Instagram devrait occuper la première place parmi les plateformes ciblées par les détracteurs : “en 2020, Instagram subira ce que Facebook a subi en 2016”, pour Paul M. Barrett, auteur de l’étude. Il ajoute que : “la désinformation constitue une menace majeure pour l’élection présidentielle américaine de 2020, avec le potentiel de faire basculer le résultat dans une course serrée grâce à de nouvelles tactiques plus affûtées”. À l’avenir, les fake news devraient donc davantage passer par l’image que par le texte.

Les bots sont plus forts que jamais

Au fur et à mesure que les réseaux sociaux trouvent des techniques fiables pour lutter contre les contenus truqués, les robots découvrent de nouvelles méthodes pour diffuser de fausses informations. Le simple fait que le nombre de faux comptes (des comptes gérés par des robots) augmente un peu plus chaque jour, amplifie le phénomène des fake news et contribue à nourrir des informations erronées. Ces comptes sont notamment capables de ressortir de vieilles affaires, comme une attaque terroriste, en donnant l’impression à l’internaute qu’elle vient de se produire, pour influencer son opinion en temps réel.

Facebook annonçait récemment qu’il s’apprêtait à travailler avec Microsoft et le MIT pour lutter contre les deepfakes. Le réseau social lance le Deepfake Detection Challenge (DFDC). L’idée est de créer des outils pour que les entreprises, les gouvernements ou les médias puissent très rapidement détecter si une vidéo a été trafiquée. 10 millions de dollars (9 millions d’euros) vont être investis dans ce programme.