« En Europe, l’oiseau volera selon nos règles européennes » avait lancé le commissaire européen chargé du numérique et du marché intérieur, Thierry Breton, au nouveau patron de Twitter, Elon Musk. Celui-ci se targuait d’avoir libéré le réseau social lors de son rachat. Trois semaines plus tard, le 16 novembre, c’est chose faite avec l’entrée en vigueur partielle du règlement sur les services numériques, plus connu sous son acronyme anglais DSA pour Digital Services Act. Il vient encadrer l’activité de toutes les entreprises numériques, notamment des « très larges plateformes et moteurs de recherche », celles qui comptent plus de 45 millions d’utilisateurs mensuels en Europe.

Aperçu de Thierry Breton et Elon Musk à Austin.

Photographie : Thierry Breton / Twitter.

Qualifié de « loi la plus ambitieuse au monde » par Thierry Breton, l’un de ses promoteurs, ce texte composé de 93 articles dote les autorités de régulation de nouveaux moyens d’action pour contrôler l’activité des plateformes et les sanctionner au besoin. « Ces nouvelles règles nous font entrer dans une nouvelle ère, où les grandes plateformes en ligne ne se comporteront plus comme si elles étaient trop grandes pour pouvoir se dispenser de leurs responsabilités » a déclaré M. Breton, à l’occasion de cette entrée en vigueur partielle.

Le « pouvoir exclusif » de la Commission européenne pour les très grandes plateformes

Avec le DSA, c’est la Commission européenne qui devient l’autorité de référence en matière de régulation des très grandes plateformes et moteurs de recherche en ligne. Ses compétences s’en voient considérablement élargies. Elle est chargée de les surveiller, bénéficie de larges pouvoirs d’enquête. Elle peut par exemple requérir l’accès à leurs bases de données ou à leurs algorithmes. En cas de non-respect du règlement, la Commission pourra leur infliger des amendes allant jusqu’à 6 % de leur chiffre d’affaires mondial. En outre, elle pourra formuler des lignes directrices dans de nombreux domaines, de la transparence des activités des plateformes à la conception de leurs interfaces en ligne.

Certains regrettent toutefois que ce rôle n’ait pas été dévolu à une autorité de régulation indépendante spécifique. C’est le cas de Patrick Breyer, un eurodéputé allemand du parti pirate et membre du groupe Verts, qui a été rapporteur pour la commission des Libertés civiles sur le DSA au Parlement européen. Il déclare auprès de Siècle Digital y voir « deux problèmes : le premier concerne la capacité des équipes de la Commission, seront-elles suffisamment nombreuses pour réguler les grandes plateformes ? »

Le second problème qu’il pointe concerne la volonté et les objectifs politiques de la Commission européenne, « la Commission est avant tout un organe politique et je peux déjà dire d’après ce que j’ai vu lors des négociations que son but premier est de protéger les entreprises. Ils ne vont pas vouloir utiliser leurs outils pour remettre en question le modèle économique des plateformes mais uniquement s’intéresser aux contenus illégaux et aux irrégularités de certaines plateformes. »

Interrogé sur le sujet, un porte-parole de la Commission européenne défend au contraire que « la Commission est tenue selon les traités européens d’agir indépendamment des États membres ou de tout opérateur de marché, et dispose déjà de pouvoirs exécutifs directs vis-à-vis des entreprises en ce qui concerne l’application des règles de concurrence et de défense commerciale de l’Union. » Cela faisait donc d’elle un « candidat naturel » pour réguler les très grandes plateformes, d’autant que ces pouvoirs d’enquête et d’exécution restent « strictement circoncis et du même ordre » que ceux qu’elles possèdent déjà dans d’autres domaines.

D’ores et déjà, la Commission a lancé des discussions avec les très grandes plateformes pour qu’elles prennent des engagements sur certains points avec des codes de conduite. Ces codes sont des initiatives d’autorégulation auxquelles participent volontairement les grandes plateformes, à l’instar de celui contre la désinformation qui a été révisé en 2022. « La Commission a suivi de près le processus de révision du code », nous a souligné son porte-parole, et elle préside désormais le groupe de travail ad hoc chargé de veiller à son application. Bien que ce groupe de travail ouvert à des organisations de la société civile soit présenté comme « inclusif et transparent » par la Commission, sa transparence pose question. M. Breyer y voit des « sortes de partenariats public-privé ». Ce qui serait un signe de plus montrant que les plateformes ont un statut particulier aux yeux de l’UE, alors que son service diplomatique a annoncé l’ouverture d’une représentation diplomatique en plein cœur de la Silicon Valley en septembre.

De leur côté, les régulateurs nationaux ne sont pas en reste. Ils peuvent désormais, entre autres, exiger des informations aux fournisseurs de services et procéder à des inspections. En cas d’infraction, les régulateurs peuvent imposer des mesures correctives, des amendes et dans les cas les plus graves, ordonner le blocage de l’accès à leur service pour une période de quatre semaines.

Le régulateur français concerné, l’Arcom, a publié un communiqué pour saluer un texte « novateur et ambitieux » qui « ménage un équilibre entre, d’une part, la protection des publics et l’intégrité des démocraties et, d’autre part, la liberté d’expression ».

Margrethe Vestager Vice-présidente exécutive de la Commission européenne

Margrethe Vestager, Vice-présidente exécutive de la Commission européenne lors de la présentation du Digital Services Act et du Digital Markets Act. Capture d’écran : Siècle Digital / Parlement Européen.

Une approche inédite de régulation

Le DSA met en place une forme inédite de régulation. Les très grandes plateformes et moteurs de recherche auront l’obligation d’être proactifs dans la réduction des risques systémiques qu’elles font peser sur la société. Ces risques incluent la diffusion de contenus illégaux, les atteintes à l’intégrité des élections, aux droits des utilisateurs, à la sécurité ou à la santé publique. Comme le stipulent les articles 34 et 35, les très grandes plateformes devront procéder à des évaluations régulières de ces « risques systémiques » et mettre en place des mesures adaptées pour les atténuer.

Ces mesures d’atténuation des risques pourront concerner l’ensemble des fonctionnalités de leurs services. Cela pourrait consister à changer la conception de leurs interfaces, les conditions générales d’utilisation, les processus de modération ou même le fonctionnement des algorithmes. Et ce, en fonction notamment des recommandations de la Commission européenne. Des audits indépendants permettront de vérifier que les très grandes plateformes respectent bien leurs engagements.

Transparence des plateformes sur leurs activités

Toutes les plateformes seront désormais tenues de publier des rapports réguliers détaillant, entre autres, leur nombre d’utilisateurs et leurs actions de modération. Devront y figurer le nombre de contenus modérés, de signalements des utilisateurs, de demandes de modération de la part des autorités et de contestation de la part des utilisateurs. Les plateformes devront également y préciser les moyens automatisés et humains qu’elles consacrent à la modération.

La publicité en ligne sera aussi plus transparente. Les très grandes plateformes devront mettre à disposition de leurs utilisateurs un registre public sur leurs publicités. Pour chacune d’elles, ce registre devra préciser l’intention et l’identité de l’annonceur, le nombre total d’utilisateurs qui l’ont vue, son public cible et sa durée de visibilité, entre autres.

L’ensemble de ces mesures vise à mieux comprendre l’influence des plateformes sur leurs utilisateurs et in fine sur la société. « Si cela fonctionne comme espéré, le DSA fera la différence » analyse Sam Jeffers, le directeur exécutif de l’organisation Who Targets Me qui étudie l’influence du ciblage publicitaire dans les élections. « Mais la route reste longue » nuance-t-il rappelant les échecs de précédentes tentatives, c’est « une législation qui pourrait débloquer des données pour la recherche, mais où de nombreux aspects pratiques et détails doivent être réglés. »

L’absence de précision sur l’application concrète du DSA inquiète également au sein des entreprises numériques. La directrice de la politique chez la plateforme de vidéo Vimeo, Erika Barros, reconnaît auprès de Siècle Digital qu’il faudra « attendre d’avoir des lignes directrices sur certaines obligations pour comprendre pleinement comment appliquer le DSA, se mettre en conformité et connaître l’impact réel qu’il aura pour nous. » Elle reconnaît toutefois qu’il a « le potentiel de créer un internet plus sûr et de meilleure qualité, tout en favorisant la concurrence numérique, l’innovation et le choix des consommateurs ».

Grandes règles encadrant la modération

Le DSA va aussi renforcer le droit des utilisateurs en imposant aux plateformes des grandes règles concernant la modération. Les procédures de modération et de suspension de compte devront être précisément définies dans leurs conditions générales d’utilisation. Les plateformes devront respecter les droits fondamentaux de leurs utilisateurs, en particulier à leur liberté d’expression. Les utilisateurs devront être dûment et systématiquement informés lorsque leurs publications sont supprimées, déclassées ou démonétisées.

Des voies de recours devront être proposées à ces utilisateurs. En plus d’un recours judiciaire, le DSA garantit qu’ils pourront faire appel à la modération des plateformes à travers des mécanismes internes ou extrajudiciaires indépendants. Ces derniers sont encadrés par de nouvelles règles garantissant leur transparence et l’équité de traitement entre les utilisateurs.

Les plateformes vont devoir lutter davantage contre les contenus illégaux. Cela passera par l’amélioration des procédures de signalement de contenus par les utilisateurs. Surtout, elles auront l’obligation d’agir contre certains contenus à la demande des autorités judiciaires ou administratives nationales compétentes.

Si ces injonctions émises par les autorités devront se limiter « à ce qui est strictement nécessaire pour atteindre leur objectif », certains craignent des dérives notamment dans des États où l’indépendance des autorités judiciaires ou administratives est réduite. « On pourra désormais exiger le retrait d’un contenu légal là où il a été publié, mais illégal dans un autre pays, » dénonce l’eurodéputé allemand Patrick Breyer. « Ce qui est inquiétant car certains pays ont des lois répressives sur l’expression, comme la Hongrie ou la Pologne ».

Parlement européen à Strasboug

Le Parlement européen doit voter le DSA le lendemain de l’allocution d’Emmanuel Macron. Image : Parlement européen.

L’intérêt des industriels contre le droit des utilisateurs

Selon l’eurodéputé, « le DSA ne parvient pas à protéger efficacement les droits fondamentaux, la vie privée et la liberté d’expression en ligne. Il est très favorable à l’industrie et aux gouvernements, mais pas aux utilisateurs et aux citoyens. » Celui-ci remet en cause « la volonté politique » du Conseil européen présidé par la France lors des négociations et de la Commission européenne pour vraiment « s’attaquer à leur modèle économique en interdisant le traçage et le profilage qui est omniprésent en ligne. »

Seules certaines propositions favorables à la liberté de choix des utilisateurs ont été conservées dans le DSA. C’est le cas de l’interdiction des dark patterns, ces interfaces ou fonctionnalités trompeuses qui altèrent les choix des utilisateurs. « Le DSA est loin d’être parfait, mais il apporte bien des protections supplémentaires pour la liberté d’expression et la vie privée en ligne » tempère l’avocat Ian Barber auprès de Siècle Digital. Juriste pour l’organisation britannique de défense des droits humains en ligne Global Digital Partners, il reconnaît cependant un manque d’ambition au sujet des pratiques commerciales des entreprises et de la publicité basée sur la « surveillance » des utilisateurs.

Pour les entreprises numériques, l’entrée en application du DSA fait craindre un manque de cohérence et d’adaptation aux spécificités de chacun selon leurs services. Selon la directrice de la politique de Vimeo Mme Barros, « pour que le DSA puisse tenir ses promesses, il est essentiel de tenir compte, à chaque étape du processus, du fait que des plateformes différentes ont des modèles commerciaux, des types d’utilisateurs et des approches de la confiance et de la sécurité différents. Sans quoi, il pourrait y avoir de sérieuses répercussions pour les plateformes de petite et moyenne taille. »

Tel sera l’enjeu du DSA : démontrer que cette loi sans précédent dans le monde n’empêche pas les entreprises du numérique de prospérer dans l’UE tout en protégeant au maximum les citoyens européens.