La DARPA (Defense Advanced Resarch Projects Agency), soit l’Agence pour les projets de recherche avancée de la Défense, a décidé de lancer un projet de détection de fausses informations autrement dit les « fake news ». Ce projet consiste à développer à terme un logiciel capable de détecter les éléments marqueurs de « désinformation », ou « fausses informations » dans plus de 500 000 articles, photos, vidéos, enregistrements audio.

Un projet qui intrigue

Le projet semble assez simple au départ : combattre les « fake news ». L’agence du Département de la Défense des États-Unis prétend pouvoir y arriver en utilisant un programme de recherche, appelé « SemaFor », capable de détecter des failles sémantiques, autrement dit des incohérences susceptibles de témoigner d’une fausse information. Reste à savoir jusqu’à quel point un logiciel peut réellement détecter un problème de sens, et/ou de signification. De même que les critères de signalisation à partir desquels le logiciel sera capable de repérer les fausses informations restent à établir.

Mais le projet ne s’arrête pas là. L’agence prévoit également de pouvoir élargir ce programme à un logiciel capable de passer en revue plus de 500 000 articles, photos et vidéos confondues, susceptibles de contenir des fakes news. Il existe aujourd’hui un programme de recherche appelé MediFor, qui tente de mettre en place une technologie capable de repérer les transformations faites à partir des appareils photo numériques, et des smartphones. Pour l’instant le projet n’en est qu’à sa programmation étape par étape, et dont le déroulement est prévu sur les 4 prochaines années.

Un programme militaire pour détecter les fake news

Crédit : DARPA

Selon la DARPA, la conception d’un tel logiciel trouve sa justification à travers la « menace » que représente « la quantité de fake news ». L’efficacité d’un tel programme, selon eux, résiderait dans l’étude sémantique des énoncés ou des images, prétextant que les auteurs des fake news seraient ainsi « obligés » d’être extrêmement vigilants pour être cohérents.

Faut-il comprendre que ce programme serait à caractère dissuasif ?

Difficile de voir jusqu’à quel point ce type de programme peut trouver sa justification, car évaluer l’impact et les dangers que peuvent représenter les dites « fausses informations » est une tâche qui nécessitera forcément un raisonnement humain.
Le programme sera-t-il également à même de repérer des incohérences réellement susceptibles de conduire à ce qu’on peut considérer comme une fausse information ? Encore une fois, il va falloir s’entendre sur les critères de reconnaissance de ce qui sera considéré comme « une faille sémantique ». Il y a là tout un travail de définitions à mettre en place, qui mériterait sans doute qu’on fasse appel à des linguistes aguerris.

Il est évident que l’évolution et le développement des réseaux sociaux donne l’opportunité de faire circuler tout un ensemble d’éléments, qui, avant d’être considérés comme de l’information ou fausse information, n’est autre qu’une masse de propos erronés. Avant d’investir une forte somme d’argent dans un tel programme, pourquoi ne pas mettre cet argent à disposition de l’éducation, pour permettre aux jeunes générations notamment, de ne pas tomber dans la crédulité et de pouvoir faire le tri eux-mêmes, sans passer par un logiciel nécessitant l’intervention de la défense.

Comme le rapporte un article dans Bloomberg, certains mettent d’ailleurs en avant les éventuels dangers ou conflits d’intérêts qu’il peut exister pour les responsables politiques et militaires, susceptibles d’utiliser ce type de programme pouvant être mis au service d’une surveillance pas toujours légitime.

Enfin, et surtout, il peut être intéressant de se demander à qui revient le droit d’évaluer la teneur des informations : à une agence du Département de la Défense d’un pays, c’est à dire à une petite partie de la population qui choisira ou non de divulguer ces observations, ou à l’ensemble des citoyens, libres de construire leur propre pensée ?

Compte tenu de l’état des choses, on peut penser que la réponse est simple : les informations dites, officielles, sont, et ce jusqu’à preuve du contraire, retransmises par les journaux. Ajoutons que, toujours jusqu’à preuve du contraire, les journalistes et éditeurs publiant dans ces journaux se doivent de respecter une déontologie qui consiste à vérifier leurs sources.

Tout simplement, face à la multitude d’informations disponibles et relayées sur les réseaux sociaux et sur internet, l’évaluation des informations doit être accrue. Néanmoins, il revient de droit, aux journalistes, tenus de vérifier la véracité des faits mis en avant, et aux citoyens, forcés d’être attentifs au bien fondé de ce qu’ils lisent.

Prétendre que chacun d’eux ait besoin d’être assisté par un logiciel de détection établi par la défense militaire, semble remettre en cause un système bien connu de tous : le système démocratique. Système, qui, comme chacun sait, n’est certes pas dépourvu de failles – sémantiques, ou non – mais qui reste le moins mauvais connu à ce jour.

Il ne s’agit pas d’être naïf, au point d’ignorer les problèmes que peuvent engendrer le traitement des fausses informations. Prenons le cas des logiciels de traduction utilisant l’intelligence artificielle. En créant notamment le modèle GPT-2, des chercheurs ont fait savoir que ce type de modèle pouvait être utilisé à mauvais escient. Que des spécialistes en cybersécurité soient à même d’évaluer les risques encourus par l’utilisation de certains programmes, pour éviter la production de fausses informations, ou pour repérer ces dernières, paraît être une nécessité. Il ne semble tout simplement pas nécessaire, et encore moins fondé, que cette tâche revienne d’abord à des agences militaires.