Henry Ajder, chercheur spécialisé, a découvert un site facilitant la création de deepfakes pornographique. Le MIT Technology Review qui relaie l’information a naturellement dissimulé les moyens de l’identifier pour éviter de faire de la publicité au site encore relativement confidentiel. Il est nommé par la simple lettre « Y ».

« Y », le deepfake pornographique à la portée de tous

C’est ce que redoutent tous les spécialistes du sujet : un service offrant à n’importe qui la possibilité de créer des deepfakes pornographique. « Y » est simple, un seul bouton invite à télécharger la photo d’un visage et le tour est joué.

Un slogan est on ne peut plus explicite, le but de la plateforme est de transformer n’importe qui en star du porno. Elle se présente comme un outil sur et responsable pour réaliser ses fantasmes. L’utilisateur est encouragé à télécharger sa propre image.

Selon la MIT Technology Review le résultat est encore très imparfait. Le côté artificiel saute rapidement aux yeux, les visages brillent, se déforment … Un œil non exercé pourrait toutefois se laisser prendre. Sur le forum du site, des utilisateurs donnent des conseils à son créateur pour l’améliorer. Il ressort des messages que certains n’ont pas téléchargé que leur propre photo.

Les femmes représentent l’écrasante majorité des victimes

Dès l’arrivée de la technologie, les deepfakes générés par IA ont été utilisés pour créer des représentations pornographiques non désirées. Un utilisateur de Reddit a commencé à en créer avec des stars de cinémas. 90 à 95% des victimes sont des femmes d’après la société Sensity AI. Pour les hommes il s’agit surtout de scène pornographique gay.

Les experts rapportent que les deepfakes sont tout aussi traumatisants pour les victimes que du revenge porn, et peu importe la qualité de l’incrustation. Pour Adam Dodge, fondateur de EndTAB, une association à but non lucratif qui sensibilise les gens aux abus liés à la technologie, les conséquences psychologiques peuvent même être pires, l’image étant fausse, « Si quelqu’un se demande s’il est vraiment une victime, cela nuit à sa capacité à se rétablir » explique-t-il.

Noelle Martin, militante australienne, victime d’une campagne de deepfakes porn, a confié à la MIT Technology Review que « Ce type d’abus – où des personnes déforment votre identité, votre nom, votre réputation et les modifient de manière aussi violente – vous bouleverse profondément ».

Comment lutter contre le phénomène ?

Henry Ajder a découvert de nombreuses applications du même genre. Ces tentatives pour fermer « Y » ont pour le moment échoué. Le chercheur est pessimiste sur les chances de mettre fin au phénomène, même en le rendant illégal. Il estime toutefois que cela permettrait au moins de les exiler vers le dark web, « au moins cela les met hors de portée des yeux des gens ordinaires » précise-t-il.

Les grandes entreprises du numérique rivalisent d’inventivité pour créer un outil anti-deepfakes depuis que le phénomène a émergé. Aux États-Unis plusieurs États comme la Californie ont rendu les deepfakes politiques et pornographiques illégaux.

En France aucun cadre législatif spécifique ne semble prévu contre les dérives de cette technologie. Le gouvernement a estimé en 2019 que les lois actuelles suffisent. La diffusion de montages pornographique sans consentement est déjà punie d’un an de prison et de 15 000 euros d’amendes maximums. Un deepfake non consenti peut également être assimilé à du harcélement, du chantage et donc au revenge porn, déjà sanctionnés par la loi.