Le 3 février, YouTube a publié sur son blog officiel les règles prévues d’être appliquées lors de la campagne présidentielle américaine en 2020.

YouTube fait part de ses conditions

Toute vidéo dont le contenu a été « manipulé » ou « trafiqué » induisant ainsi les utilisateurs en erreur, et pouvant présenter un « risque grave de préjudice flagrant », exemple : une vidéo qui simule la mort d’un fonctionnaire du gouvernement, explique YouTube, sera supprimée.

Même sanction pour les types de contenu pouvant influencer les gens sur le vote ou les processus de recensement, exemple : transmettre une fausse date pour le vote. Idem pour toute vidéo véhiculant de fausses informations sur le caractère éligible des candidats.

En outre, la plateforme prévoit de supprimer les chaînes des utilisateurs qui essaieront d’usurper l’identité de quelqu’un d’autre, de déformer l’image de son pays d’origine, ou de dissimuler ses liens avec des acteurs gouvernementaux. YouTube fera de même avec les personnes qui essaieront d’augmenter artificiellement le nombre de vues, de likes ou de commentaires.

La plateforme suit son grand-frère

Ces directives suivent bien entendu la politique de Google qui déclarait fin 2019 avoir investi dans des systèmes robustes pour détecter « les tentatives de phishing et de piratage et les interférences étrangères » pour prévenir les attaques numériques contre la campagnes électorale.

La plateforme YouTube a d’ailleurs précisé sur son blog qu’elle travaillait en étroite collaboration avec le Threat Analysis Group (TAG) de Google, pour identifier les usurpateurs et supprimer leurs chaînes.

Cette annonce fait écho avec les centaines de vidéos mensongères de Donald Trump retirées en décembre 2019, par la plateforme. YouTube avait supprimé les publicités politiques de l’actuel président, car celles-ci étaient invérifiables.

Rappelons que Facebook a décidé de laisser les publicités politiques apparaître sur son interface, tandis que Twitter a pris le pli opposé, bannissant tout contenu de ce type.