Dans le cadre du Digital Services Act (DSA), la Commission européenne a ordonné à Snapchat et Meta de lui livrer des informations sur leurs mesures respectives visant à protéger les mineurs en ligne. La veille, une requête similaire a été envoyée à TikTok et YouTube.

Une demande d’informations dans le cadre du DSA

En vigueur depuis le mois d’août, le DSA vise à diminuer la diffusion de contenus illégaux. Le texte, qui s’applique à 19 grandes plateformes revendiquant plus de 45 millions d’utilisateurs au sein de l’Union européenne (UE), prend spécifiquement en compte la protection des mineurs.

Par exemple, il interdit la publicité ciblant les mineurs, de même que les annonces basées sur des données sensibles comme les opinions politiques, la religion ou l’orientation sexuelle. Les entreprises concernées par le DSA sont même contraintes prendre des mesures pour protéger les enfants, indique la législation. Dans ce contexte, les régulateurs européens ont octroyé à Snapchat et Meta un délai s’étendant jusqu’au 1er décembre afin qu’ils présentent les progrès accomplis dans ce domaine.

YouTube et TikTok ont également été épinglées par la Commission, qui leur a adressé une demande d’informations quant aux « obligations liées à l’évaluation des risques et les mesures d’atténuation […], en particulier en ce qui concerne les risques pour la santé mentale et la santé physique, et sur l’utilisation de leurs services par les mineurs ».

Plusieurs pays appellent à des initiatives internationales pour protéger les mineurs en ligne

Dans le même temps, plusieurs pays européens dont la France, ainsi que l’Australie, lancent un appel en faveur d’initiatives internationales pour renforcer la protection des enfants en ligne. « Les enfants sont de plus en plus exposés, et de plus en plus tôt, à des contenus nocifs », écrivent-ils dans un communiqué partagé par Bercy. S’ils saluent les diverses initiatives législatives, à l’instar du DSA, visant à mieux protéger les mineurs, les auteurs reconnaissent un besoin de collaboration plus étroite pour contrer le phénomène.

« Les données sont éloquentes : un enfant sur trois a été exposé à des contenus pornographiques avant l’âge de douze ans ; dans le monde, un tiers des enfants ont indiqué avoir été la cible de cyberharcèlement et le nombre de contenus en ligne montrant des abus sexuels sur enfant a presque doublé entre 2017 et 2019 », continuent-ils.

Au mois d’octobre, X, TikTok et Meta ont également été contraintes de livrer davantage d’informations à la Commission européenne concernant la modération du contenu lié au conflit israélo-palestinien. Pour l’heure, le régulateur n’a pas lancé d’enquête formelle dans le cadre du DSA, mais la multiplication des requêtes de ce type suggère que cette possibilité pourrait se concrétiser prochainement.