Intel apporte sa contribution à la lutte contre la désinformation. En début de semaine, le géant américain des semi-conducteurs a présenté FakeCatcher, une intelligence artificielle capable de détecter en temps réel des vidéos truquées.

FakeCatcher, une IA qui dénude d’autres intelligences artificielles

Facebook et Alphabet se sont déjà lancés dans le développement d’outils capables de reconnaître les deepfakes. Microsoft a fait son grand saut en septembre avec le Video Authenticator. Avec la sortie récente de FakeCatcher, Intel rejoint le cercle des entreprises pourvoyeuses d’outils de détection de ces fausses vidéos hyperréalistes qui avaient terni l’image d’élus européens, du président ukrainien Volodymyr Zelensky, et affecté les utilisateurs d’images par satellite.

Dans un communiqué de presse mis en ligne le 14 novembre, Intel a dévoilé FakeCatcher, une plateforme qui ambitionne de devenir le « premier détecteur de deepfakes en temps réel au monde qui renvoie des résultats en quelques millisecondes ». FakeCatcher a été conçu par Ilke Demir, chercheur principal chez Intel Labs, et Umur Ciftci, de l’Université de l’État de New York. Plusieurs outils et logiciels d’Intel, comme OpenVino, Intel Integrated Performance Primitives et OpenCV, ont été utilisés pour concevoir des modèles d’Intelligence artificielle (IA) en deep learning à l’origine de FakeCatcher.

Le nouveau dispositif d’Intel se distingue du lot de détecteurs de visages et de points de repère par sa capacité à analyser des blocs de vision. En s’appuyant sur l’Open Visual Cloud et les processeurs Intel Xeon Scalable 3e génération, les développeurs ont gagné en vitesse : il peut traiter simultanément jusqu’à 72 flux de détection. C’est à partir de ces flux sanguins repérés dans un pixel vidéo que FakeCatcher pourra déceler les vidéos réelles des fausses.

Deepfake, ce fléau tant redouté

D’après Ilke Demir, « les vidéos deepfake sont maintenant partout. Vous les avez probablement déjà vues ; des vidéos de célébrités faisant ou disant des choses qu’elles n’ont jamais réellement faites. »

En général, ces vidéos sont montées par des personnes mal intentionnées, qui font dire notamment des propos outranciers à leurs victimes. Si l’ancien président des États-Unis Barack Obama a auparavant été un bon exemple de telles activités, l’opposant à Vladimir Putin, Alexeï Navalny, n’a pas été épargné non plus, comme d’autres personnalités publiques.

D’après le cabinet Gartner, les dépenses des entreprises liées à la cybersécurité s’élèveront à 188,3 milliards de dollars en 2023. Cette hausse de 11,3 % par rapport à cette année s’explique par l’accès à des réseaux Zero Trust, la ruée vers le télétravail et le passage au cloud. De quoi motiver les géants de la technologie à se lancer dans les intelligences artificielles pour mettre un terme aux deepfakes.