Les deepfakes sont de plus en plus présentes quotidiennement sur les réseaux sociaux. Si on les connaît sous un format visuel, en photo, voire en vidéo, elles existent également sous format audio, et à en croire les inquiétudes de la Federal Trade Commission, elles s’améliorent de plus en plus. Elles pourraient bientôt être utilisées lors d’appels indésirables. En France, ces derniers étaient déjà en hausse l’an passé, alors si les fraudeurs devaient s’armer de deepfakes audio pour démarcher les gens, nul doute que ce chiffre pourrait grandir encore.

La technologie de clonage de voix progresse rapidement

Selon un groupe d’experts de la FTC, la technologie de deepfakes vocales progresse rapidement. La distinction entre une voix réelle et une autre synthétique serait de plus en plus compliquée. Selon la directrice adjointe de la technologie et analyse des litiges de la FTC, Laura DeMartino, “Les gens imitent des voix depuis des années, mais ces dernières années, la technologie a évolué au point où nous pouvons cloner des voix à grande échelle, grâce à un petit échantillon audio”.

La technologie progresserait même un peu trop vite selon la FTC. L’organisation propose dès à présent des ateliers publics, qui mêlent des intervenants comme des universitaires, des médecins, ou encore des membres du gouvernement pour alerter à propos de cette technologie et des pratiques liées. La porte-parole de la FTC, Juliana Gruenwald Henderson, a déclaré à ce sujet “avoir commencé à organiser cet atelier après avoir appris que les techniques d’apprentissage automatique améliorent rapidement la qualité des clones vocaux”.

Les risques liés aux deepfakes vocales

Il n’existe pas seulement des risques négatifs associés aux deepfakes. En effet, John Costello est directeur du programme de communication augmentative au Boston Children’s Hospital, et pour lui cette technologie de clonage est une véritable alliée, particulièrement pour les patients qui perdent leur voix. Ces patients enregistrent un court échantillon audio qui permettra, plus tard, de créer des versions synthétiques de leurs voix.

Les deepfakes, quel que soit leur genre, permettent à des personnes malintentionnées de communiquer de manière anonyme mais aussi de changer les propos d’une personne, bien souvent une personnalité publique. Globalement, le risque des deepfakes vocales est que des personnes soient persuadées de ce que leur raconte un interlocuteur au téléphone. Celui-ci pourrait alors avoir pour seul et unique but de les escroquer. Mona Sedky, qui travaille pour le département des délits informatiques du ministère de la Justice, déclare à ce propos que le clonage de voix comportent des risques mais que cela ne signifie pas pour autant que nous ne devrions pas l’utiliser.

Pour lutter contre ces fraudes vocales, la meilleure solution, en cas de doute à propos d’un interlocuteur, est de raccrocher, de le rappeler et de juger si c’est bel et bien la même personne.