Membre du collège de l’Arcom, Benoît Loutrel préside le groupe de travail « Supervision des plateformes en ligne » du nouveau régulateur français de l’audiovisuel et du numérique né de la fusion du CSA et de Hadopi en janvier 2022. Siècle Digital l’a rencontré à l’occasion de la publication du bilan annuel sur la lutte contre la manipulation de l’information en ligne.

Dans cette première partie de l’entretien, il revient pour nous sur ses principales conclusions et fait le point sur la première année de travail de l’Arcom, marquée notamment par les élections présidentielles et législatives. Une seconde partie publiée ultérieurement sera consacrée à la mise en œuvre du règlement européen sur les services numériques par l’Arcom.

Publié fin novembre, ce troisième bilan de l’Arcom sur les moyens mis en œuvre par les plateformes contre la manipulation de l’information dresse un constat pour le moins préoccupant. Sur la base des déclarations des 12 plateformes soumises à cet exercice en raison de leur taille critique, dont Meta, Twitter et Snapchat, il dénonce des “lacunes répétées” dans la communication d’informations et de données chiffrées. En particulier, « l’absence d’informations tangibles » transmises par TikTok, Yahoo et dans une moindre mesure Google empêche toute évaluation de la pertinence et de l’efficacité des mesures prises par ces plateformes.

Siècle Digital : Les conclusions du bilan de l’Arcom sur la lutte contre la manipulation de l’information sont assez édifiantes. Quel regard portez-vous sur les réponses des opérateurs des plateformes à votre questionnaire sur les moyens mis en œuvre contre la manipulation de l’information ?

Benoît Loutrel : Les réponses de certains opérateurs restent insuffisantes de notre point de vue. Certes, il y a des progrès par rapport à l’année dernière, mais nous attendons d’elles encore plus de transparence. L’enjeu est important, il faut que les citoyens aient confiance en leur écosystème informationnel. C’est un élément important de la cohésion de la société.

Nous aimerions que les plateformes communiquent sur les politiques qu’elles mettent en place en matière de modération, de démonétisation ou de décélération de la diffusion des contenus problématiques. Cette transparence, les plateformes la doivent également au monde de la recherche, qui devrait pouvoir faire sa propre évaluation de la modération : est-ce que ces mesures ont eu l’effet escompté ? Est-ce qu’il y a eu des effets collatéraux qui n’étaient pas souhaités ?

La manipulation de l’information est un sujet complexe qui nécessite de faire appel à beaucoup de sources. À ce titre, nous suivons de près les travaux du milieu académique ou de la société civile, qui nourrissent nos propres réflexions.

SD : Dans votre bilan, vous regrettez que les plateformes ne soient pas assez transparentes. Estimez-vous que la législation en vigueur contre la manipulation de l’information sur laquelle vous vous appuyez vous donne assez de moyens pour agir ?

BL : La loi de 2018 dispose que les services de plateforme en ligne ont un devoir de coopération envers le régulateur. Ils doivent mettre en place des outils de lutte contre la manipulation de l’information. La loi leur impose de répondre aux questions de l’Arcom, qui rend publiques ces déclarations dans un bilan annuel.

C’était une très bonne loi pour entrer dans la régulation de ces acteurs. Elle nous a permis de monter en compétence. Il est maintenant nécessaire de pouvoir exiger une transparence accrue de toutes les plateformes. C’est l’un des apports du DSA. Il nous permettra, collectivement, d’être plus ambitieux et exigeant.

SD : Le DSA fera l’objet de la seconde partie de notre entretien. Avant cela, j’aimerais en savoir plus sur votre collaboration avec les plateformes au quotidien. Quelle relation de travail avez-vous avec elles ?

BL : Nous avons un cadre de discussion formel avec les plateformes comme cela a été le cas pour établir ce bilan annuel de la lutte contre les infox. Nous leur adressons un questionnaire précis et leur imposons un délai de réponse. S’il n’y a pas de réponse, nous le disons et n’hésitons pas à faire du name-and-shame. Dans ce bilan, nous désignons les acteurs lorsque nous estimons que leurs réponses ne sont pas satisfaisantes [ndlr : TikTok, Yahoo et Google en particulier] ou, à l’inverse, lorsque notre dialogue avec eux a progressé, ce qui est le cas par exemple de Snapchat.

Et puis au-delà de ce dialogue formel, nous avons de nombreux échanges informels. Cela a beaucoup été le cas pendant la période électorale, au cours de laquelle les plateformes numériques avaient un rôle important à jouer pour prévenir les ingérences étrangères et participer au travail des fact-checkers vérifiant les informations en ligne en lien avec la campagne.

Il a notamment pu nous être indiqué, à l’occasion de l’une de nos réunions, qu’un algorithme de modération avait mal fonctionné et bloqué par erreur des comptes de membres d’une équipe de campagne. Nous leur avons rappelé qu’ils avaient l’obligation de corriger le problème, mais aussi d’être transparents et de s’expliquer. Ils ont donc communiqué publiquement sur cet épisode.

SD : l’Arcom a récemment publié un rapport sur les élections de 2022 dans lequel vous formulez des recommandations à l’égard des réseaux sociaux. Selon vous, les plateformes devraient-elles avoir des obligations d’équité ou d’égalité lors d’élections à l’instar des médias audiovisuels ?

BL : Non, ce n’est pas le souhait de l’Arcom. Les TV et radios maîtrisent leurs offres éditoriales, celles-ci s’imposent en quelque sorte à leur audience. Elles doivent donc s’attacher à représenter tout l’éventail des courants de pensées. C’est pour cela qu’on leur impose, par exemple, de respecter des critères d’équité puis d’égalité des temps de parole entre candidats dans les dernières semaines de l’élection présidentielle.

Sur les réseaux sociaux, les internautes sont plus actifs. Si vous êtes abonnés au compte de M. Mélenchon et de M. Zemmour, vous allez consulter des contenus de M. Mélenchon et de M. Zemmour. C’est vous qui avez pris la décision de vous abonner à ces comptes. On est vraiment sur des natures différentes de médias. En revanche, les plateformes doivent faire preuve de transparence vis-à-vis de leurs utilisateurs sur les raisons pour lesquelles tel ou tel contenu leur est « poussé ».

SD : Et concernant les utilisateurs ? Dans votre rapport, vous recommandez par exemple de clarifier les obligations des utilisateurs, comme les équipes de campagne et les influenceurs.

BL : Il y a deux sujets différents. Le premier, c’est de laisser les candidats et leur soutien faire campagne librement sur les réseaux sociaux. Cela fait partie de la démocratie. Mais ils doivent naturellement le faire dans le respect des règles de droit, notamment celles qui protègent la propriété intellectuelle. Vous n’avez pas le droit de publier une œuvre ou une musique sans avoir obtenu l’accord des ayants droit. Sur YouTube, quand vous avez enfreint trois fois cette règle, votre chaîne est fermée. Les clips de campagne doivent respecter ces règles. [ndlr : le clip de d’Eric Zemmour annonçant sa candidature a fait l’objet d’une exception sur YouTube malgré de nombreux signalements pour violation de la propriété intellectuelle. Sa vidéo a finalement été retirée quelques mois plus tard suite à sa condamnation par le tribunal judiciaire de Paris.]

Le second, c’est qu’en France, le Code électoral s’applique aussi aux influenceurs. Il prévoit une période de silence du vendredi soir jusqu’à la fermeture du dernier bureau de vote le dimanche. Les médias arrêtent de rendre compte de la politique et les candidats ne font plus campagne. Cette année, la Commission en charge du contrôle de la campagne présidentielle est intervenue pour demander aux plateformes de supprimer les contenus d’influenceurs qui parlaient de politique pendant cette période.

C’est la première fois que cela arrivait, parce que les réseaux sociaux et les influenceurs ont pris une importance nouvelle, qu’ils n’avaient pas il y a cinq ans.