Un changement de mode opératoire assumé est en cours, pour le conglomérat de Mark Zuckerberg. Depuis un moment, il est de notoriété publique que l’intelligence artificielle aide le réseau à modérer le contenu qui fuse chaque seconde sur la plateforme. On ne savait cependant pas vraiment les détails, ni les perspectives entrevues.

Dans une déclaration du jeudi 12 novembre 2020, une chef de produit de Facebook travaillant sur “l’intégrité de la communauté” Ryan Barnes a déclaré à la presse prévoir “d’utiliser plus d’automatisation lorsque la violation de contenu est moins grave, surtout si le contenu n’est pas viral … ou s’il est très vite partagé par un grand nombre de personnes”. Assumée, la direction que souhaite prendre Facebook afin de répondre aux défis de la modération de contenus se précise. Et cette réponse sera algorithmique.

On sait aujourd’hui que l’intelligence artificielle aide à supprimer des contenus à “faible priorité” (des discours haineux, par exemple, spécialement ceux sans cible directe). Son rôle dans la détection de la “haute priorité” (terrorisme, nudité, images violentes et sexuelles…) transmise aux modérateurs humains devrait cependant augmenter. Facebook favorise désormais de manière assumée l’importance des algorithmes dans la hiérarchisation et la différenciation de ces deux priorités.

L’IA : au service de la protection des utilisateurs ?

Avant la mise en œuvre et l’utilisation des algorithmes d’apprentissage pour détecter les contenus nuisibles, la file d’attente des contenus à modérer était principalement triée chronologiquement. Les contenus déclarés aux modérateurs étaient traités dans l’ordre par lequel les messages étaient signalés. Premier signalé, premier modéré. Évidemment, cela posait quelques soucis quant au temps de réaction pour des publications plus problématiques.

“Chaque jour, plus d’un milliard de personnes, en moyenne, utilisent Facebook. Elles publient des contenus dans des dizaines de langues : mises à jour de leur statut, photos, vidéos, diffusions de vidéos en direct…” écrit en 2019 Arun Chandra, le vice-président Scaled Operations de Facebook.

Parmi ces contenus, seule une petite partie pose problème : des messages, photos et vidéos relatifs aux préjudices réels, tels que le suicide, l’automutilation, le terrorisme, et l’exploitation des enfants. Ceux-ci sont prioritaires par rapport aux autres catégories lorsqu’ils sont signalés ou détectés par l’IA.

Les plateformes modèrent aussi des contenus légaux, mais considérés comme nuisibles. Un exemple notable se trouve dans la politique de Facebook, qui chasse les “comportements inauthentiques” et les “posts cruels et insensibles”.

Aujourd’hui, avec l’intelligence artificielle qu’il souhaite renforcer, Facebook utilise des algorithmes d’apprentissage automatique pour hiérarchiser les contenus signalés. Cette hiérarchisation désormais assumée par l’équipe obéit à des critères : les algorithmes classent les contenus en fonction de leur viralité, de leur gravité et de la probabilité qu’ils enfreignent les règles de la plateforme. Ces contenus, détectés automatiquement ou par le signalement d’un utilisateur, sont ensuite adressés dans cette forme hiérarchisée aux 15 000 modérateurs de Facebook.

Cet investissement de Facebook dans la modération pari sur une technique particulière, celle du whole post integrity embeddings (intégrité de l’entière publication). Cette technique permet aux algorithmes du réseau social d’ingérer un déluge d’informations contenues dans des images, des vidéos, des titres, des textes, des commentaires, et d’en détecter les parties nuisibles.

Un problème de fond dans la modération

Ce dévoilement de l’engagement de Facebook pour une modération plus rapide intervient alors que des rapports suggèrent que l’entreprise ne parvient pas à endiguer la propagation de la désinformation, de la violence et des discours de haine sur sa plateforme. En janvier, une professeure de l’Université de Seattle, Caitlin Carlson, a publié les résultats d’une expérience dans laquelle elle et un de ses collègues ont collecté plus de 300 messages qui semblaient enfreindre les règles de discours haineux de Facebook. Les deux professeurs les ont signalés via les outils mis à disposition sur la plateforme, et ont constaté a posteriori qu’environ la moitié seulement des contenus avaient été supprimés.

De plus, Facebook est souvent accusé de ne pas soutenir les modérateurs, lesquels subissent des épreuves psychologiques lourdes en étant parfois spectateurs d’atrocités. En mai dernier, la plateforme avait été condamnée à payer 52 millions de dollars pour pallier les traumatismes de ses modérateurs, après qu’une ancienne modératrice au syndrome post-traumatique ait porté plainte.

La preuve d’une inefficience frappante ?

Facebook y répond par le potentiel qu’il voit dans l’intelligence artificielle. Dans le cadre de son programme Deep Entity Classification (DEC), elle serait responsable d’une réduction de 20% des comptes enfreignant les règles au cours des deux dernières années. La compagnie affirme également que le recours accru au machine learning pour la hiérarchisation automatique du contenu lui a permis de s’attaquer plus rapidement aux contenus préjudiciables. En remplaçant les modérateurs humains sur le repérage et le classement des contenus nuisibles, l’IA les laisse passer plus de temps sur des décisions complexes, comme celles impliquant l’intimidation et le harcèlement.

La complexité des contenus en ligne est aussi pointée par Arun Chandra afin d’affirmer la nécessité des modérateurs humains : “Certaines décisions que nous devons prendre sur ce que nous retirons et ce que nous maintenons sont en effet très complexes et nuancées. Certains propos, par exemple, peuvent être utilisés pour s’en prendre à d’autres utilisateurs, alors qu’ils peuvent également être prononcés pour plaisanter, pour mettre en lumière le sectarisme auquel un utilisateur peut être confronté, ou pour citer des éléments issus de la culture populaire. C’est pourquoi nous nous appuyons également sur cet autre moyen essentiel (l’intelligence humaine soutenue par l’intelligence artificielle) pour l’application de ces règles.”

Et en effet, l’utilisation de l’IA par Facebook pour modérer ses platesformes en lieu et place des humains a fait l’objet d’un examen minutieux dans le passé. Les critiques pointent notamment le fait que l’intelligence artificielle n’ait pas la capacité d’un humain à juger du contexte de nombreuses communications en ligne. La désinformation, l’intimidation et le harcèlement sont des sujets si complexes, même pour un humain, qu’il est bien difficile de penser qu’un ordinateur pourrait s’en charger.

L’IA peut cependant être utile pour lutter contre des contenus ciblés, comme cela a été le cas pour l’attentat de Christchurch. Dans un rapport, Facebook avait annoncé que la vidéo diffusée en direct avait été regardée par moins de 200 personnes. Avant sa suppression, 17 minutes après le début de la diffusion, la vidéo avait ensuite été vue 4 000 fois. Mais la lutte n’était pas finie : il a été question de supprimer 1,5M de vidéos concernant l’attaque le jour d’après. Une mission où les algorithmes ont été bien utiles. Facebook explique avoir « haché la vidéo d’origine afin que les autres partages visuellement similaires soient détectés et automatiquement supprimés. Certaines variantes comme des captures d’écran étaient plus difficiles à détecter, nous avons donc étendu nos systèmes de détection, y compris l’utilisation de la technologie audio. » Un exemple qui justifie l’usage de l’intelligence artificielle, malgré les critiques qu’elle suscite sans cesse.

Ainsi, aussi nuancé soit le nouveau modèle assumé par Facebook -donnant un rôle indispensable à la modération humaine-, il donne à l’IA un rôle décisif. Des algorithmes sont chargés de distinguer l’urgent du non urgent, et l’important du minime.

Dans le principe, on comprend bien les questions qui peuvent surgir : souhaitons-nous mettre dans les mains de l’intelligence artificielle les droits humains ? Souhaitons-nous parier sur les bénéfices, la rapidité, et le pragmatisme des algorithmes, à la charge de leurs lacunes, de leurs biais, et de leurs incorrections ? Comment assurer que l’IA n’aide ni à la censure, ni au laxisme, mais bien à garantir l’application des droits et à protéger l’utilisateur ?

Ce que nous dit la loi

Pour rappel, la modération sur les réseaux sociaux peut être liée directement au Pacte international relatif aux droits civils et politiques (PIDCP), ainsi qu’à celui relatif aux droits économiques, sociaux et culturels.

Le PIDCP est l’un des traités les plus importants dans le domaine des droits de l’homme et de la liberté d’expression. L’article 19, souvent brandi, est celui qui affirme que chacun a le droit d’émettre des opinions, et a ainsi droit à la liberté d’expression. Ce droit comprend la liberté de rechercher, de recevoir, et de répandre des informations et des idées de toutes sortes, sans considération de frontières ou de moyens.

Or, l’exercice de la liberté d’expression comporte des devoirs et des responsabilités. Elle peut donc être soumise à certaines restrictions. Par exemple, pour le respect des droits ou de la réputation d’autrui ; pour la protection de la sécurité nationale ou de l’ordre public ; ou de la santé. Cela explique, entre autres, comment des propos faisant l’apologie du terrorisme peuvent se retrouver supprimés des plateformes telles que Facebook, même si leur auteur exercait par là sa liberté d’expression.

Aux États-Unis, les médias sociaux peuvent jusqu’ici supprimer la parole en ligne puisque la Cour suprême a déclaré que le premier amendement ne s’appliquait pas aux entreprises privées. La modération de contenus en ligne, aujourd’hui, est encadrée par la section 230 de la loi sur la décence en matière de communication, mais elle pourrait être bientôt modifiée avec la mise en place du projet de loi Protecting Americans from Dangerous Algorithms Act.

Dans les grandes lignes, si ce projet de loi passait, les réseaux sociaux seraient tenus responsables du contenu partagé sur leurs plateformes et seraient obligés de modérer de manière plus efficace certains sujets. Un virage brusque dans la vision américaine de la liberté d’expression : traditionnellement, ce droit prévaut sur les restrictions, aussi offensif puisse être le discours.

Mais voilà tout le problème : Facebook n’est pas un pays, et est loin d’être présent seulement aux Etats-Unis. Depuis mai 2016, les seuls pays à interdire l’accès au réseau sont la Chine, l’Iran, la Syrie et la Corée du Nord. Tous les autres autorisent leurs citoyens à utiliser la plateforme. Comment pourrait-elle alors être contrainte par tous les principes de droit international qu’il incombe aux pays de garantir, et respecter les législations nationales ?

Un point de tension : la sécurité et le respect des lois à grande échelle

La plateforme a, pour pallier au problème, signé les Principes directeurs relatifs aux entreprises et aux droits de l’homme qui obligent les entreprises à respecter les droits de l’homme. Ces principes des Nations Unis visent à renforcer l’application des droits fondamentaux par les entreprises, qui ont une responsabilité des plus primaires. L’échelle du problème à traiter ne peut représenter une excuse. Même si Facebook est présent dans tous les continents, avec 7 milliards d’inscrits, sa taille colossale ne peut l’excuser d’enfreindre les droits humains et fondamentaux.

Un second problème émerge alors, qui est celui des divergences de législation d’un pays à l’autre. Facebook pourrait-il constituer une zone de non-droit à l’intérieur des nations ? C’est tout le débat sur les frontières d’internet, qui en lui-même, par nature, n’en a aucune.

Par exemple, tout comme la France et l’Allemagne, l’Autriche a des lois interdisant la négation de l’Holocauste (le négationisme). Cette particularité législative a entraîné l’interdiction de 78 publications sur Facebook en 2013 dans le pays. La Cour de Justice Européenne en 2019 a clairement établi que les réseaux sociaux pourraient être contraints de bloquer un contenu au niveau mondial si l’un des tribunaux nationaux de l’UE décidait que le contenu en question était diffamatoire ou illicite.

En octobre 2020, Facebook a finalement annoncé qu’il ne tolérerait plus les contenus négationnistes, partout dans le monde. Un retour sur l’éternelle réticence de Mark Zuckerberg, pourtant de confession juive, à réguler le discours par sa suppression. Une réponse, peut-être, aux boycotts des grandes marques cet été, qui avaient appelé le réseau social à réagir face aux discours de haine et aux appels à la violence.

Dans sa modération, on pourrait dire que Facebook est en quelque sorte l’auxiliaire des législations nationales. Auxiliaire, mais aussi juge des questions politiques du monde entier. En 2018, le New York Times avait révélé la “Hate List” fournie aux modérateurs humains, comprenant tous les groupes radicaux des pays, comme Lealtà Azione, un groupe néo-fasciste du Nord de l’Italie. Facebook a déjà été accusé à plusieurs reprises de protéger les pages de ces groupes d’extrême droite. Une critique récurrente qui s’ajoute aux facteurs d’inefficacité déjà mentionnés, et qui peuvent participer à motiver la plateforme à employer plus d’intelligence artificielle. Cette dernière, pour Facebook, est gage d’efficacité, de traitement de larges quantités de données, et de rapidité.

Pourtant, des publications problématiques continuent de passer à travers les mailles du filet. Dans un groupe Facebook dépassant les 400 000 membres, une majorité appelait récemment à un recomptage national de l’élection présidentielle américaine de 2020. Beaucoup ont échangé des accusations non fondées sur des allégations de fraude électorale, à un rythme effréné. De quoi attirer l’attention du système de modération de Facebook, mais beaucoup trop tardivement. Autant le système a tendance à faire beaucoup d’erreurs de sanction sur ce qui a trait à l’ironie ou à la nudité, autant le laxisme est parfois de mise pour la désinformation.

Gardons en tête que Facebook assume ne pas vouloir se faire “arbitre de la vérité”, prenant ainsi de la distance dans sa lutte contre la désinformation. En mai dernier, en réaction au commentaire de Twitter invitant à lire quelques articles sous une déclaration de Donald Trump, Mark Zuckerberg déclarait : « Je crois fermement que Facebook ne devrait pas être l’arbitre de la vérité de tout ce que les gens disent en ligne. Les entreprises privées ne devraient pas l’être, en particulier les plateformes ».

Le contexte COVID-19, difficile mais déterminant pour la plateforme

Depuis la crise de la COVID-19, cette même désinformation n’a fait que prendre de l’ampleur. On parle ainsi d’infodémie : un trop-plein d’informations, de toutes sources, et dans toutes directions. Durant les crises, ces infodémies tendent à se développer, comme nous le rappelle le rapport du Groupe de Travail sur les Infodémies publié début novembre. Selon lui, c’est précisément durant les crises qu’émergent à la fois les infodémies, et l’habileté des plateformes à modérer le contenu problématique en employant un éventail de moyens.

Dans un article du Monde de mars 2020 a été pointé du doigt le renvoi temporaire pour raison sanitaire d’une partie des modérateurs des réseaux sociaux. Facebook avait ainsi commenté le problème créé, qui peut expliquer aujourd’hui sa volonté assumée de miser sur l’intelligence artificielle pour la modération : “certaines tâches de modération ne peuvent être réalisées à domicile pour des raisons de sécurité, de vie privée ou de droit”. Les modérateurs humains sont donc actuellement moins nombreux, et donnent le pouvoir aux algorithmes. “Cela signifie que nos systèmes automatiques vont supprimer certains contenus sans supervision humaine” écrit, d’un ton assumé, YouTube, rapporté par l’article. L’inverse est également valable et a été vu, avec une profusion de partages de fausses informations, construites et favorisées par la peur.

Le rapport sur les Infodémies offre des critères pour les plateformes à prendre en considération, pour respecter les droits humains (comme la liberté d‘expression) tout en mitigeant la désinformation. Ceux-ci sont particulièrement utiles pour construire les algorithmes qui, en ces temps d’automatisation, ont de plus en plus de travail.

La priorité devrait être donnée aux pays où lesdits réseaux ont un nombre d’utilisateurs important, et un impact sur l’opinion public non négligeable, comme durant un événement polémique (une élection, une catastrophe naturelle, un conflit armé…). Selon le rapport, les modérations devraient prendre en compte de façon cumulative des facteurs tels que le type de contenu (illégal, légal mais offensant, légal) ; l’auteur (une personne publique très suivie, un citoyen lambda…), la sévérité du contenu ; la fréquence et répétition des contenus nuisibles ; et le contexte.

Ce dernier critère s’applique particulièrement à la COVID-19 à travers le monde. La modération s’y applique, compte tenu des fausses informations circulant. Or, cette dernière a été abusivement utilisée au nom de la cyber-souveraineté, comme l’a récemment révélé un rapport de Freedom House sur les libertés en ligne et la crise sanitaire dans le monde.

Des critères précis sont nécessaires, pour éviter les dérives autoritaires et le règne des infox, que les équipes produit de Facebook devront prendre en compte dans leurs algorithmes. Le rapport de novembre évoque l’idée d’un “ratio risque”. Autrement dit : un compteur indiquant le taux de risque de désinformation présent dans un certain pays, en fonction du contexte diplomatique, politique, géopolitique, économique qu’il traverse. La modération (algorithmique, puis humaine, dans le cas Facebook) saurait ainsi s’adapter et renforcer l’attention sur certaines zones.

En somme, un work-in-progress requérant… bien des progrès

Ce mariage de la puissance du machine learning (des algorithmes d’apprentissage) et de l’intelligence humaine est un travail en cours. Si ce tri par l’IA en fonction de paramètres précis – viralité, gravité, impact – pose la question de la perfection de cette même intelligence artificielle. Elle a en tout cas le mérite de tenter de répondre à l’échelle du problème de la désinformation, des droits humains et de la sécurité sur internet. Une chose est à garder en tête : la nature du réseau en question. Facebook a seulement un statut d’hébergeur – et non d’éditeur . Il est difficile d’espérer une modération a priori, quand celle-ci ne peut en théorie se faire qu’à posteriori, c’est-à-dire après un signalement par un utilisateur, ou une détection (imparfaite) par les algorithmes de la plateforme.

L’ingénieur logiciel de Facebook Chris Palow assume que le système pourrait encore être sujet à défauts. Même si leur objectif final est d’inculquer un niveau d’intelligence acceptable et semblable à l’humain dans les modèles de reconnaissance algorithmiques, ce travail ne pourra être évalué que sur le long terme. Sans aucun doute, l’IA est et sera utile pour prendre des décisions contextuelles dans des modérations de publication très importantes. La question est simplement : ces décisions nous sont-elles acceptables ?

“Le système consiste à marier l’IA et des critiques humains pour faire moins d’erreurs totales”, a déclaré Chris Palow. “L’IA ne sera jamais parfaite”, selon ce dernier. Et ça, c’est probablement ce qu’il ne nous faut pas oublier.

À retenir…

Facebook a récemment assumé le renforcement de son utilisation de l’intelligence artificielle afin de modérer ses contenus en ligne. En tant qu’hébergeur, sa responsabilité sur les publications de ses utilisateurs est un sujet polémique. Le récent débat sur la section 230 aux États-Unis le montre bien. En Europe, la Cour de Justice contraint la plateforme à bloquer tout contenu jugé illicite par l’un de ses pays membres.

Une pression de plus en plus forte est mise sur le réseau social afin d’obtenir des efforts dans le sens d’une modération plus efficace, à l’image du boycott de Twitter et Facebook par les grandes marques cet été. Pour l’heure, les discours de haine, les appels à la violence et la désinformation sont encore très présents. L’intelligence artificielle représente un moyen -limité par ses lacunes, mais fort de son efficience à grande échelle- de les combattre.

En cela, Facebook prévoit d’utiliser davantage d’automatisation, surtout sur les contenus à faible priorité, pour classer les publications signalées, et pour détecter celles à problème.