Mark Zuckerberg est présent en Europe depuis la semaine dernière, à l’occasion de la Conférence de Munich sur la sécurité. Comme le relaie The Guardian, le patron de Facebook a été invité à répondre à de nombreuses questions, mais également à exprimer son avis devant de nombreux politiciens, diplomates et responsables de la sécurité, notamment quant à la réglementation à laquelle devraient se soumettre les plateformes de contenus en ligne.

Mark Zuckerberg veut une nouvelle réglementation

Lors de la conférence de Munich, Mark Zuckerberg a fait de nombreuses déclarations. S’il a admis que sa plateforme avait été lente face aux problèmes d’ingérence étrangère, il l’a également défendu face aux accusations de polarisation politique. Il a par ailleurs voulu affirmer sa position, concernant la façon dont le contenu en ligne devrait être soumis à la réglementation. À ce propos, le patron de Facebook a indiqué qu’il n’y avait pas forcément, à l’heure actuelle, de cadre réglementaire totalement adapté.

Selon lui, il faudrait un nouveau cadre, mêlant deux cadres déjà existants, “À l’heure actuelle, je pense qu’il y a deux cadres pour les plateformes existantes, celui pour les journaux et les médias, et le modèle dédié aux télécoms. Je pense que nous devrions être entre les deux”.
Zuckerberg a également précisé qu’aujourd’hui, Facebook voit passer chaque jour, 100 milliards de contenus en ligne et, “il n’est tout simplement pas possible d’avoir une sorte d’éditeur humain chargé de vérifier chacun”.

Facebook est, aujourd’hui, proactif et 99% du contenu terroriste est supprimé avant toute plainte des utilisateurs

Mark Zuckerberg a aussi tenu à rappeler son engagement et celui de ses équipes pour lutter contre les contenus violents qu’il exclut autant que possible de sa plateforme. Il a ainsi déclaré que sa société était passée d’un modèle réactif à un modèle proactif, précisant qu’actuellement, 99% du contenu terroriste était supprimé avant que toute plainte ne soit émise par des utilisateurs. Du côté du contenu haineux, il a avoué que l’intelligence artificielle de Facebook avait encore quelques difficultés notamment pour différencier un discours de haine et un discours dénonçant la haine, tout en indiquant que 80% du contenu concerné était actuellement supprimé sans notification ni avertissement.

Le patron de Facebook a également rappelé qu’aujourd’hui, sa société employait 35 000 personnes chargées de vérifier la nature des contenus, autant sur Facebook que sur Instagram. Cela dans l’objectif de permettre des élections démocratiques plus sereines, et sans interférences venues de l’étranger, comme cela avait pu être le cas au moment de l’élection de Donald Trump ou encore du référendum du Brexit. Le FBI et le département de la Justice américaine avaient justement enquêté pour comprendre le rôle de Cambridge Analytica lors des élections américaines. Pour comprendre tous les détails du scandale liés à Cambridge Analytica, l’entreprise venue interférer dans les élections, vous pouvez toujours visionner The Great Hack sur Netflix.