Des chercheurs élaborent un nouveau logiciel de deepkafe
Intelligence Artificielle

Des chercheurs élaborent un nouveau logiciel de deepkafe

Grâce à une intelligence artificielle, il est aujourd’hui possible de modifier simplement les paroles d’une personne filmée face caméra. De cette manière, vous pourrez peut être bientôt éditer le discours d’une personne vous-même.

Des chercheurs de l’Université de Stanford, de l’Institut Max Planck, de l’Université de Princeton, mais aussi d’Adobe Research mettent au point un logiciel simplifié capable de réaliser des deepfakes, pour que le grand public puissent y avoir accès.

Un projet en cours d’évolution

Les chercheurs n’ont pas encore mis au point ce logiciel, mais celui-ci serait en cours de réalisation. Il pourrait venir simplifier l’utilisation et surtout la création des deepfakes. La technologie demandée pour faire des deepfakes est normalement lourde et requiert des compétences techniques avancées.

Les chercheurs doivent non seulement isoler la cible, mais aussi la voix de celle-ci et créer ensuite un modèle 3D reprenant le bas du visage de la personne en question. La combinaison de ces différents travaux est ensuite appliquée par-dessus la personne pour un résultat qui trompera le commun des mortels.

Une simplification de cet outil au profit de la désinformation

Cependant, cette technologie est encore limitée. Par exemple, le moindre geste effectué devant le visage va venir mettre un terme à l’effet deepfake. Simplifier l’accès à sa création pourrait résulter d’un développement exponentielle du nombre de vidéo diffusées sur les plateformes sociales. Les répercussions de ces créations peuvent être importantes et représenter de véritables sources de confusion pour certains spectateurs.

Les scientifiques responsables de l’AI considèrent que le public mis face à cette technologie doit être conscient de la réalité ou plutôt de la fiction de la vidéo. Facebook a d’ores et déjà été confronté à un deepfake de Nancy Pelosi et a décidé de ne pas la supprimer en mentionnant néanmoins la non-authenticité de la vidéo afin d’éduquer ses utilisateurs. Jusqu’où est-il alors possible de faire avancer la technologie au service de l’information lorsque la présence du faux est tolérée ? De plus, les ‘victimes’ ont-elles des droits ?

Send this to a friend