Face aux fake news, les géants du web balbutient. La menace est nouvelle, pas encore bien délimitée et l’équilibre entre modération et censure s’avère très délicat. Après avoir publié sa ligne de conduite concernant les mensonges des chefs d’Etat, Twitter rend public un brouillon de ses guidelines sur les deepfakes. La démarche se veut modeste : le réseau social n’a pas d’idée préconçue sur la question et demande l’avis de ses utilisateurs.

Confronté à une vidéo manipulée, Twitter envisage plusieurs options possibles : placer un avertissement sur les tweets contenant des contenus fake, avertir les utilisateurs avant qu’ils ne partagent ou ne likent des vidéos manipulées, ou ajouter un lien vers un article détaillant pourquoi les médias considèrent ce contenu comme étant un deepfake. Enfin, un tweet pourrait être purement et simplement supprimé s’il s’avère que le contenu trafiqué peut mettre en danger des personnes.

Twitter précise bien que ces règles sont à l’état de « brouillon » et demande aux internautes de les évaluer à travers un questionnaire en ligne — qualifié de « rapide » comme tous les questionnaires longs à remplir.

Questionnaire Twitter sur les deepfakes

Sur ce débat hautement enflammé, l’idée d’écouter la parole des utilisateurs est bienvenue, même si Twitter n’envisage pas que ce sondage sur les vidéos manipulables… puisse lui-même être manipulé. Cette période de consultation prendra fin le 27 novembre. Twitter annoncera plus tard sa décision définitive sur le sujet.

Face à un calendrier électoral à haut risques (législatives britanniques sur fond de Brexit en décembre, présidentielles américaines en 2020), Twitter préfère prendre les devants sur la question des fausses vidéos. La menace des deepfakes politiques reste pourtant largement hypothétique. Une étude récente a montré que le phénomène était surtout inquiétant dans le domaine du porno (96% des deepfakes) mais ne touchait encore que très marginalement la politique.

Aux États-Unis, un incident reste néanmoins dans toutes les mémoires. En mai dernier, une vidéo de Nancy Pelosi, la présidente de la Chambre des représentants, avait été truquée pour donner l’impression qu’elle était ivre ou droguée. Le Washington Post avait établi que la vidéo avait été ralentie de 75% et que le son avait probablement été aussi modifié pour coller aux images.

Confrontés à une première, la réaction des géants du web avait été sensiblement différente, démontrant un certain embarras et la nécessité de mettre en place des règles précises. YouTube avait immédiatement supprimé toutes les copies de la vidéo. Facebook avait laissé ses fact-checkers partenaires décider de la véracité de la vidéo puis avait renvoyé les utilisateurs à ces articles. Twitter de son côté n’avait rien fait.

Parallèlement, Twitter a annoncé mettre en place des nouveaux outils pour lutter contre la désinformation à l’occasion des élections britanniques de décembre. Les utilisateurs pourront désormais signaler de fausses informations concernant les manières de voter ou de s’inscrire sur les listes (ex : « vous pouvez voter en envoyant BORIS par SMS ») ou de fausses affirmations sur la date de l’élection.

Alors que Donald Trump inonde Facebook de messages politiques sponsorisés, Twitter a pris la décision de bannir les publicités politiques de son réseau à compter du 22 novembre. Le PDG du réseau social, Jack Dorsey, avait expliqué que « la portée d’un message politique doit être méritée et non achetée ». Face à la menace des fake news, les géants du web n’ont définitivement pas une réponse coordonnée.