La Commission européenne a lancé une enquête sur X, anciennement Twitter, afin de déterminer si la société respecte le Digital Services Act (DSA). Depuis la recrudescence des violences entre Israël et le Hamas, les réseaux sociaux sont envahis de contenus considérés comme illégaux.
Une première deadline au 18 octobre
Des photographies trafiquées, des vidéos mal étiquetées et des images d’une rare violence pullulent sur X, Instagram, Facebook et TikTok. Afin de prévenir la propagation de la désinformation, Thierry Breton, commissaire européen au marché intérieur, a donné 24 heures aux plateformes concernées pour informer l’UE de la manière dont elles se débarrassent des contenus préjudiciables sur leurs plateformes dans le cadre du DSA.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Entrée en vigueur en août, cette législation interdit la diffusion de contenus illégaux sur les grandes plateformes en ligne, et les tient responsables si des mesures concrètes ne sont pas prises pour les supprimer. Le DSA « est là pour protéger la liberté d’expression et nos démocraties, y compris en temps de crise », a écrit Breton.
Finalement, la Commission européenne a envoyé une demande formelle d’informations à X. La société a jusqu’au 18 octobre pour répondre aux questions des régulateurs concernant « l’activation et le fonctionnement » de son protocole de réponse aux crises, et devra s’expliquer pour d’autres requêtes d’ici au 31 octobre, a-t-elle indiqué dans un communiqué.
« Cette demande formelle d’informations est une étape pour comprendre pleinement les mesures prises par X pour assurer la sécurité en ligne », a détaillé la vice-présidente de la Commission, Vera Jourova. À travers cette enquête, la Commission va se renseigner sur la conformité de la plateforme avec le DSA, en se concentrant sur « ses politiques et pratiques concernant les avis sur les contenus illégaux, le traitement des plaintes, l’évaluation des risques et les mesures visant à atténuer les risques identifiés ».
Un test pour l’UE
La décision de l’UE d’enquêter sur X intervient alors que Linda Yaccarino, la PDG de l’entreprise, a annoncé la mise en place d’un groupe de travail qui s’attelle 24 heures sur 24 à lutter contre les contenus problématiques. Elle a également assuré que X veillait à ce que ses modérateurs soient en état d’alerte, y compris pour les contenus en hébreu et en arabe.
Les efforts de la société, dont les équipes de modération ont été vidées par Elon Musk, semblent toutefois minimes par rapport à ceux de ses homologues. X a fait état d’une moyenne d’environ 8 900 décisions de modération par jour au cours des trois jours précédant et suivant l’attaque, contre 415 000 pour Facebook. Dans environ trois quarts des cas, X a apposé une étiquette NSFW (not safe for work) sur les messages dans le cadre de ces décisions, mais ne les a pas supprimés.
Il s’agit de la première enquête officielle lancée en vertu du DSA, et donc d’un véritable test pour les régulateurs européens. En cas de non-respect de la loi, X s’expose à une amende pouvant atteindre 6 % de son chiffre d’affaires global.