C’est la question à laquelle à tenter de répondre Ellen Silver, Vice Présidente des Opérations de Facebook, dans un long article de blog.

Pour se remettre dans le contexte, Facebook est un peu comme une autre planète, une plateforme sur laquelle des millions de personnes se connectent chaque jour pour discuter, liker ou tout simplement scroller. Des dizaines de millions de contenus sont partagés et il est nécessaire pour Facebook de vérifier ces publications. Trop souvent l’entreprise est accusée de favoriser la diffusion de fake news, de contenus discriminants ou incitant à la haine. Récemment l’entreprise et d’autres réseaux sociaux ont même été accusés de protéger l’extrême droite. Pour lutter contre cela, Facebook a déjà pris plusieurs mesures comme par exemple la suppression de fake news susceptibles de créer des violences. Et alors qu’une modératrice a récemment publié un témoignage glaçant sur le contenu qu’elle devait modérer au quotidien, Facebook tente de mettre les choses au clair.

L’entreprise explique qu’en plus des outils basés sur l’intelligence artificielle et le machine learning qui permettent de supprimer une grande partie du contenu, bien souvent avant qu’il ne soit vu, la technologie a ses limites notamment lorsque le contexte doit être pris en compte pour analyser une publication. Un point qui semble assez logique. Dans son article, Ellen Silver est d’accord pour dire que « ce travail n’est pas facile. Cela signifie parfois regarder des contenus troublants ou violents et prendre des décisions sur les mesures à prendre, en tenant compte à la fois du contexte culturel et des normes communautaires qui établissent nos politiques. » Elle explique également ne pas avoir trop parlé des modérateurs pour des questions de sécurité, en évoquant la fusillade survenue au siège de YouTube en avril dernier.

Les modérateurs de contenus sont ainsi environ 7 500 personnes, employées à temps plein, entrepreneurs, ou des entreprises partenaires. Ce nombre qui augmente chaque année, permet de couvrir l’ensemble des fuseaux horaires et plus de 50 langues. La langue est clé oui, mais pour des contenus où il est question de nudité, il suffit d’une simple analyse visuelle qui peut se faire par n’importe quel modérateur. Facebook insiste sur le fait que « en plus de la maîtrise de la langue, nous recherchons également des personnes qui connaissent et comprennent la culture […] nous vérifions également la résilience. Cela signifie que nous regardons la capacité d’un candidat à faire face à l’imagerie violente par exemple. » 

Ces modérateurs sont formés de manière intense plusieurs semaines. Ils ont ainsi une pré-formation leur permettant de comprendre à quoi s’attendre. Par la suite a lieu un apprentissage pratique afin d’exercer dans un environnement réel, avec au minimum de 80 heures avec un instructeur en direct. Ensuite, les modérateurs reçoivent un rapport leur indiquant dans quels domaines ils sont bons et dans lesquels ils ont besoin de plus de pratique. Une fois embauchés, les modérateurs sont régulièrement coachés.
Une fois sur le terrain, ils doivent évaluer plusieurs messages un par un. En fonction des contenus cela peut prendre quelques secondes, mais dans le cas d’une usurpation d’identité, le processus est plus long. En précisant cela, Facebook veut faire comprendre que non « ils ne sont pas tenus d’évaluer un nombre donné de message. »
Pour finir, il est question de bien-être et de suivi. Il est ainsi expliqué qu’une équipe de quatre psychologues cliniciens sont présents afin « de concevoir, d’offrir et d’évaluer des programmes de résilience. » Il est également ajouté que « tous les examinateurs de contenu ont accès à des ressources en santé mentale, y compris des professionnels pour des conseils individuels et de groupe. » Et contrairement aux idées reçues, les modérateurs ne sont pas enfermés dans des greniers. Dans l’article de blog, plusieurs photos de bureaux dont celle au début de cet article sont publiées pour montrer que les modérateurs sont intégrés dans des bureaux qui ressemblent beaucoup à ceux de Facebook.

Quoi qu’il en soit, la réalité expliqué par une ancienne modératrice semble loin de ces explications. Alors simple article pour lisser l’image de Facebook ou réalité ? Une chose est sûre, la population n’est pas forcément éduquer aux bonnes pratiques. Les modérateurs sont donc essentiels et doivent s’attendre à voir des contenus difficiles au quotidien, mais probablement pas autant qu’ils n’auraient pu le penser.