deepfake : toute l'actualité sur siecledigital.fr

deepfake

Un nouveau rapport du Stern Center for Business and Human Rights de l’Université de New York (NYU) fait état des stratégies de propagation de fausses nouvelles, qui pourraient voir le jour lors des élections à venir. Les présidentielles américaines de 2020 sont d’ores et déjà dans tous les esprits et les experts en cybersécurité tentent de s’y préparer au mieux. Voici une liste non exhaustive des tactiques probables dont il faudra se méfier. Instagram sera la plateforme préférée des fake news De nouvelles stratégies pourraient bien voir le jour. Les deepfakes devraient notamment être au centre de la désinformation lors des élections à venir. Vous savez, il s’agit de ce processus de permutation intelligente des visages. Une technique de synthèse d’images basée sur l’intelligence artificielle. Il faut comprendre qu’elle sert à superposer des images et des vidéos existantes sur d’autres images et/ou vidéos. Concrètement, vous pouvez faire dire n’importe quoi à n’importe…

Ces derniers temps, on entend très souvent parler de deepfakes. Le moins que l’on puisse dire, c’est un terme qui n’inspire pas du positif. Cependant, outre les mauvaises utilisations comme avec Mark Zuckerberg, ou l’application DeepNude, cette technologie pourrait s’avérer bien plus utile. Les capacités de ces algorithmes à créer des images aussi réalistes devraient permettre d’aider les médecins pour un diagnostic. Les deepfakes peuvent être formés pour détecter différents types de cancer au cours d’une tomodensitométrie, ou encore différencier les maladies pendant un IRM. Mais en raison de préoccupations liées à la protection de la vie privée, les chercheurs n’ont souvent pas suffisamment de données sures pour former correctement ces IA. Heureusement, les GAN, ces réseaux de neurones artificiels, peuvent remédier à cette pénurie de données. Un autre obstacle freine le développement de cette technologie, la qualité des images. Afin de s’entraîner correctement l’IA à l’origine des deepfakes en…

Le partage d’images à caractère sexuelle fait partie des préoccupations du gouvernement britannique. À l’heure où la technologie reste une source constante d’innovation, certaines pratiques peuvent entraîner de sérieuses atteintes pour les personnes physiques.C’est pourquoi au Royaume-Uni, de nombreux politiques se sont réunis pour proposer de nouvelles lois et retravailler les anciennes. Des pratiques technologiques qui mettent en danger le consentement La première pratique que le gouvernement britannique souhaite combattre relève du partage non consenti de photographies intimes et/ou à caractère sexuelle des individus. Ce phénomène est appelé ‘pornographie de vengeance’ ou « revenge porn ». Le revenge porn se caractérise par le partage des photos intimes d’un individu pour se venger de lui ou parce qu’il a refusé un chantage. Dans le même temps, le gouvernement britannique veut s’armer contre le deep fake, cette technologie utilise l’intelligence artificielle pour transposer les images et les sons d’une vidéo sur une autre, de…

Un nouveau synthétiseur vocal, capable de copier la voix de n’importe qui au monde, vient de voir le jour. Ce petit bijou technologique est le fruit des équipes de recherche de la division IA de Facebook. Une machine appelée MelNet, qui ouvre le spectre d’une nouvelle ère des contenus audio. Une technologie très pointue Jusqu’à présent, le machine learning avait du mal à faire des prouesses sur le terrain de la synthèse vocale. Reproduire des modèles de parole réels est quelque chose de très compliqué, nécessitant une gigantesque base de données audio. Sean Vasquez et Mike Lewis, chercheurs chez Facebook AI, ont tenté une approche différente de celles testées précédemment. Au lieu de se servir de formes d’ondes audio, les deux chercheurs ont utilisé des spectrogrammes pour former leur réseau de neurones profonds. L’avantage des spectrogrammes, c’est qu’ils enregistrent tout le spectre des fréquences audio et leur évolution dans le temps.…

Comme de nombreuses célébrités, l’actrice Scarlett Johansson est victime de deepfakes porno. Des internautes, plutôt malveillants « s’amusent » à utiliser son visage afin de le mettre sur le corps d’une actrice dans une vidéo pornographique. L’une des vidéos, bien que fausse cumule presque 2 millions de vues. Face à cette nouvelle forme de harcèlement, l’actrice a expliqué que lutter contre ces vidéos « deepfake était inutile et une cause perdue », comme le rapporte The Wrap. Elle ajoute « rien ne peut empêcher quelqu’un de copier et coller mon image ou celle de quelqu’un d’autre sur un corps différent. » Ce type de vidéos n’est pas nouveau. En janvier dernier nous vous expliquions que l’actrice Gal Gadot, s’était grâce à l’intelligence artificielle transformée en actrice X. Plus tard dans l’année, une vidéo de Barack Obama réalisée uniquement grâce à l’intelligence artificielle avait suscité le buzz. En effet, en utilisant des outils comme…

Suite à la vague de Face Swapping de ce début d’année, une nouvelle intelligence artificielle d’un projet appelé deep video portraits suscite la curiosité et alarme les médias. Créé à l’origine pour l’industrie du cinéma, les deep video portraits sont réalisés grâce à une intelligence artificielle capable de copier les expressions faciales des acteurs en tout point. Afin de se protéger de certaines dérives, la plateforme PornHub avait été obligée d’interdire les vidéos pornographiques crées avec cette technique. Bien souvent, des personnes appliquaient le visage d’une célébrité à celui d’une actrice. Sur un plan médiatique plus large, il existe des vidéos de Barack Obama plus vraies que natures créent avec cette technique, et que l’on appelle deep fake. Ici, cette nouvelle intelligence est issue d’une collaboration entre plusieurs scientifiques américains et allemands dirigée par le Max Planck Institute for Informatics, a été présentée officiellement lors d’une conférence du SIGGRAPH le 16…

Quelques plateformes, dont Twitter et PornHub, ont indiqué qu’elles interdisaient maintenant la pornographie générée par une intelligence artificielle. Le face swapping n’aura donc plus sa place sur ces sites web. Il y a quelques mois, Gal Gadot faisait sensation, non pas pour sa performance dans le film Wonder Woman, mais dans une fausse vidéo pornographique. À l’origine du contenu, un utilisateur de Reddit a révélé à Motherboard avoir utilisé des outils disponibles gratuitement en téléchargement. De cette façon, il a pu incruster le visage de Gal Gadot sur celui de l’actrice X. Un cas de face swapping tout ce qu’il y a de plus commun, si ce n’est qu’il impacte directement l’industrie pornographique et surtout, notre vision de ce qui est réel ou non. Bien que le résultat ne soit pas parfait et qu’il soit possible de déceler les erreurs, il n’en reste pas moins que Twitter et PornHub ont…