La rumeur de l’arrivée imminente des deepfakes bruisse dans la presse depuis plusieurs mois mais la menace peine toujours à se matérialiser. Où sont ces fameux deepfakes ? Sont-ils si faciles à réaliser ? À partir de quand doit-on vraiment paniquer ?

Deeptrace, une start-up d’Amsterdam, a réalisé le premier audit sur la question pour mesurer l’ampleur actuelle du phénomène et savoir quels sont les outils disponibles en libre accès sur Internet pour réaliser de fausses vidéos.

Premier enseignement : la masse de deepfakes s’accroît sensiblement. En sept mois, le nombre de vidéos contrefaites a presque doublé, pour atteindre le nombre (très précis) de 14 678, selon la start-up amstellodamoise. Alors que le risque de fausses vidéos utilisées à des fins électorales suscite un fort intérêt médiatique, cela reste à l’état actuel une menace fantôme.

En réalité, 96% des deepfakes sont des vidéos… porno. Les quatre sites les plus fréquentés se dédiant à cette activité ont reçu pas moins de 134 millions de vues grâce à de fausses vidéos de célébrités. Cette tendance qualifiée d’« inquiétante » par le rapport cible exclusivement les femmes. Au contraire, les deepfakes non-pornographiques s’attaquent majoritairement à des hommes (dans 61% des cas).

Deepfakes pornographique

En dehors des sites porno, les deepfakes sont pour l’instant surtout des parodies de célébrité (81% des contenus non-pornographiques). Plusieurs YouTubeurs jouent avec les premiers outils qu’ils ont à leur disposition. L’idée n’est pas tant de manipuler le public que de tester ces nouveaux joujoux.

Keanu Reeves dans une fameuse scène de Forrest Gump.

Le terme deepfake est apparu fin 2017 sur le forum Reddit, avec la création d’une section u/deepfakes. Reddit l’a rapidement fermé mais la communauté s’est répandue en d’autres lieux. Le rapport de Deeptrace dénombre 20 forums ou sites consacrés à cette activité (dont 4chan et 8chan), avec une petite centaine de milliers de participants. Avec un minimum de bagage technique, il est possible de réaliser un deepfake (en pratique un « faceswap ») grâce à un code disponible sur GitHub.

La plupart des vidéos jusqu’ici présentées dans les médias, beaucoup plus réalistes —et donc beaucoup plus inquiétantes — ne proviennent pas de cette activité amateure des bas-fonds du web mais plutôt de travaux de laboratoires académiques. Ces méthodes de deepfake plus abouties ne sont pas disponibles pour le commun des mortels sur le net. « On ne publie jamais un bout de notre code. Ce serait trop dangereux », explique Siwei Lyu de l’Université de Buffalo, cité par IEEE Spectrum.

La politique devient parano avec les deepfakes

Si les deepfakes n’ont pas encore causé de réel trouble dans la politique, leur simple potentialité change déjà la donne. S’il est possible de fabriquer une fausse vidéo, en conséquence toutes les vidéos deviennent suspectes. Le rapport de la start-up amstellodamoise évoque un cas saisissant au Gabon. Fin 2018, alors que des rumeurs laissent entendre que le Président Ali Bongo, ayant disparu des écrans depuis plusieurs mois, est très malade, la présidence publie une vidéo de Bongo où il présente ses voeux à la nation.

Loin de calmer la rumeur, la vidéo va au contraire relancer les spéculations, des opposants politiques dénonçant un deepfake. L’affaire est loin d’être anecdotique: quelques jours plus tard, la vidéo supposément fake sera utilisée pour justifier une tentative de coup d’État (avorté). Des analyses ultérieures approfondies n’ont trouvé aucune trace de manipulation sur cette vidéo. Menace réelle ou supposée, les deepfakes à des fins politiques sont déjà au centre des préoccupations.