Depuis le 23 juin, une application appelée DeepNude était disponible sur le web. Elle exploitait un réseau de neurones artificiel pour enlever les vêtements des femmes sur les photos. Un produit extrêmement efficace pour nuire à la vie d’une personne. Visiblement, ses développeurs n’en ont pas eu conscience pendant la phase de développement. C’est seulement hier que l’équipe de l’app a déclaré qu’elle l’avait retiré de la circulation en raison des usages malveillants dont elle pouvait être la source.

Hier, nous vous parlions des réflexions du parlement britannique pour trouver un moyen de stopper la diffusion d’images, vraies ou fausses, contre la volonté de leurs utilisateurs. Il semblerait que la réflexion n’a jamais été aussi urgente.

Nous vous avons déjà présenté le deepfake. Cette pratique consiste à utiliser des algorithmes pour transposer les éléments visuels ou sonores d’une vidéo à une autre. Si on pourrait lui trouver des usages sympathiques, elle n’a pourtant été utilisée qu’à des fins malveillantes ces dernières années. Son usage le plus commun ? Prendre le visage d’une femme pour l’intégrer parfaitement sur une actrice pornographique dans une vidéo. Imaginez des inconnus des 4 coins de la terre en train de regarder une vidéo de vous, persuadé que vous êtes un acteur/une actrice X, ou pour leur plaisir personnel. Cela donne déjà une petite idée des dommages que peut causer le deepfake. Pire, il peut être exploité pour la menace ou le chantage. On imagine qu’il n’y a pas beaucoup de personnes qui résisteraient à une menace impliquant la diffusion d’une photo de soi nue, quand bien même elle serait fausse.

Jusqu’à présent, le deepfake n’était pas un danger majeur, car il était complexe à utiliser. Mais ça, c’était avant que l’équipe de DeepNude ouvre la boîte de Pandore. Pendant 4 jours, cette application est restée disponible au téléchargement sur le Net. Sous la forme d’une version gratuite et d’une version payante disponible pour 50$. L’application utilisait des réseaux de neurones artificiels pour enlever les vêtements des femmes sur les photos et leur rajouter des seins et une vulve, pour un rendu globalement réaliste. Les photos étaient estampillées « fake », mais les banderoles étaient facilement effaçables. DeepNude était parfaitement maniable, ce qui impliquait que n’importe qui de mal intentionné pouvait s’en servir. Elle ne marchait que sur les femmes, et avait été conçue grâce à l’entraînement d’un algorithme sur plus de 10 000 photos de femmes nues.

Désormais, l’équipe de l’application a retiré DeepNude du net. On peut néanmoins supposer que des personnes l’ayant acquis pourraient bien la repartager par la suite. Les responsables de l’application ont expliqué sur Twitter que « Nous avons créé ce projet à des fins de divertissement il y a quelques mois. […] Nous n’avons jamais pensé qu’elle deviendrait virale et que nous ne serions pas capables de contrôler le trafic. Nous avons grandement sous-estimé la demande. Malgré des mesures de sécurité qui ont été adoptées (la mention « Fake » ), si 500 000 personnes l’utilisent, la probabilité que des gens l’utilisent mal est trop grande. Nous ne voulons pas faire de l’argent de cette façon. »

Comme le rappelle Numérama, la publication d’un montage d’une personne sans son consentement est punie d’un an d’emprisonnement et de 15 000€ d’amende en France, sauf si la non-véracité des photos apparaît comme évidente ou a été déclarée.