Face à la hausse fulgurante des infox quelques jours après l’élection américaine le 3 novembre dernier, Facebook a décidé de remanier temporairement son algorithme, en priorisant les médias traditionnels, tels que CNN, le New York Times, qui obtiennent un bon résultat quant à la “qualité de l’information”. Cette modification temporaire du fil d’actualité entraînera une diminution du flux des pages dites partisanes comme Breitbart, Occupy Democrats.

« Il y a de nombreuses variables en jeu dans chaque décision que nous prenons, mais toutes visent à créer la meilleure expérience possible pour les gens », a déclaré Joe Osborne, le porte-parole de Facebook, lors d’une interview à The Verge.

Promouvoir une plateforme plus saine et moins clivante

Les employés de Facebook ont demandé aux dirigeants de l’entreprise de conserver, sur le long terme, la modification de l’algorithme pour pouvoir bénéficier d’une plateforme d’information plus saine et moins clivante. Ils sont cependant tiraillés entre la lutte contre la désinformation et la croissance économique de la plateforme. En effet, ils veulent limiter la polarisation sur le réseau social, tout en conservant un bon chiffre de croissance, comme cela a été le cas cette année avec une hausse de 22% du chiffre d’affaires par rapport à l’année dernière.

Les employés sont moins fiers de Facebook
Bien que les salaires des employés de Facebook soient parmi les plus élevés dans le domaine de la technologie, ils affirment être moins fiers de l’entreprise que les années antérieures. En effet, seulement la moitié d’entre eux estiment que Facebook a un impact positif sur le monde, contre environ trois quart au début de l’année, selon un sondage approuvé par le New York Times.

En mai dernier, en pleine explosion du mouvement Black Lives Matter, les employés n’ont pas hésité à manifester leur désaccord suite à la décision controversée de Mark Zuckerberg de ne pas enlever la publication de Donald Trump qui incitait à la violence : “Quand le pillage commence, les coups de feu commencent”. Selon le président-directeur général de Facebook, la publication n’enfreignait pas les règles du réseau social, alors que les règlements sont les suivants : interdiction aux déclarations haineuses, aux attaques directes à un individu ou un groupe.

Lutter en amont contre les infox

Après la campagne de sensibilisation aux fausses nouvelles de cet été, et de la mise en place d’un système d’alerte rétroactif sur les infox, Facebook a décidé de limiter la diffusion active des contenus qui pouvaient provoquer une vague de commentaires aux discours haineux. Toutefois, selon Guy Rosen, le vice-président du groupe responsable de l’intégrité de Facebook, le logiciel de détection des contenus haineux sur le réseau social pouvait “injustement punir les éditeurs pour les commentaires haineux écrits par les utilisateurs, ou permettre à des mauvaises personnes de nuire à la portée d’une page en la bombardant de commentaires toxiques”.

Après des élections mouvementées, truffées de déclarations trompeuses et inexactes, les employés de Facebook espèrent pouvoir pérenniser l’expérience de la modification de l’algorithme dans l’optique de maximiser une utilisation sereine sur la plateforme utilisée par 2,74 milliards d’utilisateurs. L’avenir nous confirmera si cette altération des algorithmes aidera à endiguer le fléau des fausses nouvelles qui menace la démocratie, mais également son impact sur les autres médias.