Les polémiques autour de la modération ne cessent de se multiplier ces dernières années. Sur les réseaux sociaux, dans les médias, sur les applications de messagerie, les enjeux se multiplient dans des contextes toujours plus instables. La Guerre en Ukraine, la pandémie de covid-19 ou encore le rachat de Twitter remettent ce sujet et la sécurité de l’information au centre de l’attention.

Face à la multiplication des polémiques, certains acteurs du secteur appellent à changer de modèle de modération, notamment en décentralisant. Parmi eux se trouve Amandine Le Pape, cofondatrice de la start-up Element. Start-up à l’origine du standard de communication Matrix, entre autres utilisé par le gouvernement français et IBM.

Dans cet entretien accordé à Siècle Digital, Amandine Le Pape revient sur ce modèle qu’elle juge limité et donne sa vision d’une modération plus efficace.

Siècle Digital : Premièrement, apportons un peu plus de précisions qu’en introduction, sur Element. C’est donc une startup franco-britannique qui développe des applications de communication ?

Amandine Le Pape : C’est ça.

SD : Et avec Element, vous êtes notamment à l’origine du standard de communication ouvert et sécurisé Matrix, qui est d’ailleurs utilisé par plusieurs gouvernements, dont le français, mais aussi par des grandes entreprises et des grandes industries, à l’image notamment d’IBM. Tout cela fait que vous êtes confrontés, chez Element et Matrix, aux problématiques justement liées à la modération et à l’interopérabilité, encore plus avec la guerre en Ukraine actuellement.

Avant d’aller plus loin, comment en êtes-vous venues à créer Element ? Pourquoi s’être lancée dans ce secteur-là et par quel parcours surtout ?

ALP : Oui, c’est vrai qu’on a eu un parcours un peu inhabituel. En fait, à la base, on était deux équipes séparées, une en Angleterre, une en France, qui travaillaient sur des choses différentes. En Angleterre, ils étaient particulièrement focalisés sur tout ce qui est messagerie, voix sur IP, et en France, à Rennes, on faisait des applications mobiles. Et ces deux startups ont été rachetées par une grosse entreprise qui s’appelle Amdocs et qui, après un certain temps, s’est dit que, finalement, de faire travailler ces deux groupes ensemble leur permettrait de vendre des clones de Skype ou de WhatsApp à leurs clients qui sont des opérateurs mobiles.

Donc c’est là qu’on a commencé à vraiment développer des applications de messagerie complètes. Sauf que, finalement, c’étaient des applications de messagerie qui n’arrivaient pas à entrer en compétition avec WhatsApp, qui avait toujours une longueur d’avance. Par exemple, un de nos gros clients au Brésil, l’application avait 12 % de pénétration de marché. Pour une application brandée pour un opérateur mobile, ce n’est pas mal. Et WhatsApp en était à 98,5 % de pénétration. Voilà.

Face à ça, on s’est trouvé un peu… Disons que ce n’était pas très excitant parce qu’on savait qu’on n’arriverait jamais à avoir un impact. Et puis surtout, on se retrouvait face à cette fragmentation du marché de communication qu’on trouvait complètement fou. Pourquoi avec l’email, on a le droit de choisir où nos données sont stockées ? On a droit d’accéder à nos emails en utilisant n’importe quelle application, mais pour tout ce qui est tchat et voix sur IP, il faut installer une application donnée. C’est réparti chez différents vendeurs. Si tout le monde utilise WhatsApp, je suis obligé d’utiliser WhatsApp, même si je n’aime pas l’interface, etc.

Donc, comme ça faisait déjà une bonne quinzaine d’années qu’on travaillait dans le domaine de la messagerie et de la voix sur IP, on s’est dit qu’on était plutôt bien placés pour essayer d’imaginer ce que pourrait être le futur des communications et d’imaginer ce à quoi pourrait ressembler un standard ouvert pour tout ce qui est messagerie, voix sur IP, mais aussi n’importe quel type de données. Donc Matrix peut être utilisé pour des objets connectés, pour de la réalité virtuelle, etc.

SD : Un usage assez large, oui.

ALP : Voilà. C’est là que c’est arrivé et on a eu la chance de réussir à faire financer le projet par Amdocs, où on travaillait à l’époque pendant trois ans. C’est là que Matrix est né. Et quand Matrix a commencé à avoir du succès, on a mis en place Element en entité commerciale, pour embaucher l’équipe et monétiser Matrix, complètement indépendante d’Amdocs. Donc, on a d’un côté une fondation à but non lucratif qui gère le standard Matrix ouvert, et d’un autre côté Element, en tant qu’entité qui va construire des applications, vendre des produits et promouvoir le standard pour essayer de faire grandir l’écosystème Matrix.

SD : Personnellement, pourquoi s’être lancée dans cette aventure, dans ce milieu-là tout particulièrement, face justement à des géants de la communication, vous avez évoqué avant WhatsApp ?

ALP : Moi, personnellement, j’ai un diplôme d’ingénieur en télécom et j’ai toujours été intéressée par les communications. À l’époque où j’étais à l’école, la 3G arrivait et je trouvais fou qu’on puisse échanger enfin des images, des messages, de la voix. On pouvait échanger n’importe quoi avec n’importe qui et je trouvais ça vraiment top. Et du coup, après, dans mon entreprise à Rennes, je travaillais sur des applications mobiles, mais quand le projet est arrivé de pouvoir faire une application comme ça, focalisée sur tout ce qui est communication, ça m’a tout de suite intéressée.

Et l’idée de pouvoir participer à ce changement de l’industrie tout entière, c’était une opportunité qui se présentait. On savait qu’on avait une bonne équipe professionnelle, qui travaillait ensemble depuis des années, et donc on s’est dit que c’était le moment d’essayer, que le moment était le bon dans l’histoire, parce que d’autres avaient essayé avant, mais il n’y avait pas forcément tous les critères réunis.

SD : Quelle différence entre Matrix, par exemple, et un WhatsApp ou un Signal ?

ALP : La différence est que Matrix, c’est vraiment la technologie qu’on utilise. WhatsApp et Signal sont développés par des entreprises. Signal fait un peu d’open source, donc le code est visible, etc., mais toutes les données qui sont échangées par WhatsApp et Signal sont conservées sur les serveurs de ces entreprises de manière complètement fermée.

SD : Oui, centralisée.

ALP : Voilà. Matrix permet à chacun de déployer son propre WhatsApp, son propre Slack, équivalent de Slack. On met à disposition des technologies open source que chacun peut utiliser pour déployer son serveur et après peut utiliser des applications comme Element, mais il y a d’autres applications Matrix développées par d’autres entreprises, et donc chacun peut choisir quelle application il utilise pour accéder à ses données.

Matrix, c’est vraiment une technologie. Et l’idée aussi, c’est, qu’à terme, les acteurs existants du marché peuvent s’intégrer avec Matrix. Donc on peut s’attendre à ce qu’un WhatsApp s’intègre complètement avec Matrix et rejoigne le réseau Matrix. On a des gens comme Rocket.Chat, par exemple, qui est un équivalent d’un Slack open source, qui est en train de travailler pour que leur application intègre Matrix nativement et que les utilisateurs Rocket.Chat puissent interagir avec n’importe quel utilisateur Matrix.

SD : Avant de passer à la modération en elle-même, nous avons évoqué certains de vos clients. Le gouvernement français, mais il y a aussi IBM, il y a Thalès. Comment ça se fait que vous avez de tels clients ? Des gouvernements ? En plus, ça doit apporter son lot de complications.

ALP : C’est sûr que quand on a commencé avec Matrix et qu’on s’est dit : « Il va falloir qu’on finance tout ça un jour, quels sont les business models qu’on pourrait utiliser ? », on a fait une liste de 72 business models dont un était : « On pourrait fournir ça au gouvernement ». Puis on s’est dit : « Non, trop compliqué ; on va plutôt faire dans l’entreprise, sinon il va falloir faire des appels d’offres. Trop difficile ». Et en effet, la première personne qui est venue taper à la porte, c’était le gouvernement français parce que, mine de rien, en termes d’architecture, Matrix correspond très bien à la structure des gouvernements. Parce que chaque ministère peut avoir son propre déploiement, donc ils ont complètement le contrôle sur leurs données. Ils peuvent utiliser des antivirus spécifiques.

Par exemple, le ministère de la Culture a peut-être un antivirus qui est moins puissant que celui de la Défense, mais ce qui ne les empêche pas de parler les uns avec les autres. Et s’il y en a un qui est coupé du monde, ils peuvent continuer à parler ensemble. On est sur de la technologie open source, donc ça veut dire qu’ils ne sont attachés à aucun vendeur. Aujourd’hui, Element supporte le gouvernement français, mais si demain ils décident de choisir quelqu’un d’autre pour le faire ou qu’ils veulent le faire en interne tout seul, ça marche aussi. C’est à la fois la liberté, la transparence de l’open source et puis l’architecture de la technologie elle-même.

SD : Et ça n’amène pas particulièrement de contraintes d’avoir des clients aussi importants ?

ALP : Si, certaines contraintes. Déjà, c’est sûr que les cycles de vente via les appels d’offres, c’est toujours un petit peu laborieux, mais on a des grosses entreprises avec qui le cycle de vente est aussi long, voire plus long que certains gouvernements. Et puis, après, c’est sûr qu’en termes de sécurité, il y a certaines accréditations, des fois, qu’il faut qu’on passe, qu’il faut qu’on ait, etc. Donc il y a quelques contraintes comme ça, mais je m’attendais à pire.

SD : Donc, justement, comme dit avant, nous sommes aussi réunis pour parler de modération. Ce mot est très régulièrement, on le sait bien à Siècle Digital, au cœur de beaucoup de polémiques.

On a parlé du Covid-19, de la guerre en Ukraine aussi. C’est surtout, en ce moment, ça qui amène des problèmes de modération. Il faut faire face à la propagande, à la désinformation surtout. Ce constat, ça amène à une question : quels sont, pour vous, les enjeux actuels autour de la modération ?

ALP : Un autre sujet sur la modération récemment, c’est la potentielle acquisition de Twitter par Elon Musk.

SD : C’est vrai.

ALP : Ça crée aussi pas mal de polémiques et c’est assez typique des problèmes qu’on peut voir. En fait, la manière dont le monde voit la modération aujourd’hui, c’est : « Je suis Facebook, je suis Twitter, j’ai des terms and conditions, et donc je vais les faire appliquer par les utilisateurs ».

Et je crois que c’est assez difficile pour les gens, pour qui que ce soit d’ailleurs, en particulier ces grosses entreprises, d’imaginer qu’il y ait d’autres moyens de faire. Mais en même temps, ça veut dire que la modération est complètement décidée et gérée par des grosses entreprises. Si on regarde un Facebook ou un Twitter, c’est des grosses entreprises de la côte ouest américaine qui décident de ce qui a le droit d’être publié ou pas le droit d’être publié, ce qui est bon ou mauvais. Des fois, c’est blanc ou noir. C’est sûr que tout ce qui est terrorisme ou pédophilie, etc., on est tous d’accord, on ne veut pas ça sur les réseaux sociaux, mais par contre, il y a des fois, ce n’est pas aussi clair.

Pour nous, la modération, c’est un sujet qui est particulièrement critique parce que Matrix, c’est un réseau complètement ouvert, donc n’importe qui peut déployer un serveur, n’importe qui peut rejoindre le réseau. Et ça veut dire aussi que chaque serveur peut avoir des termes d’utilisation différents et que, en tant que fondation Matrix, on ne peut pas forcer quelle que modération que ce soit. On ne peut pas définir les règles, parce que chacun définit ses propres règles.

SD : Mais il y a quand même des règlements européens. Il y a le Digital Market Act (DMA) et le Digital Services Act (DSA) qui arrivent bientôt, qui vont changer certaines choses à ce niveau-là. Ça ne risque pas de nuire justement à toutes ces règles ?

ALP : Il y a des législations locales. Si je fais tourner un serveur en Angleterre, il faut que je respecte les choses qui sont légales en Angleterre. Mais après, c’est chaque administrateur de serveur qui va devoir s’assurer qu’il est dans la légalité à l’endroit où il est hébergé. La DMA, pour nous, c’est un énorme progrès dans le futur pour l’Internet, en général. En gros, le DMA a concrétisé ce que nous on essaye de faire depuis huit ans avec Matrix. Cette idée que le marché de communication, entre autres, pour nous en particulier, est complètement géré et fermé par des grosses entreprises qui refusent de l’ouvrir.

Donc l’idée de Matrix, c’est que tout le monde doit pouvoir parler avec tout le monde, quelle que soit l’application qu’ils utilisent, et jusqu’à présent, si on voulait construire ce qu’on appelle un bridge, donc un moyen de communiquer entre Matrix et une autre application, comme WhatsApp ou Slack par exemple, on ne pouvait pas le faire de manière qui soit alignée avec les conditions d’utilisation de ces applications.

Slack, par exemple, a des API qui sont disponibles, donc n’importe qui peut s’intégrer avec Slack, sauf que dans leurs conditions d’utilisation, ils disent qu’on ne peut pas les utiliser pour entrer en compétition avec eux. Donc, en gros, elles sont là, elles sont disponibles, elles sont ouvertes, mais, nous, on n’est pas censés les utiliser pour interagir, pour faire de la messagerie et relier la messagerie de Slack avec la messagerie de Matrix. C’est typiquement un comportement anti-compétitif. Donc le fait que le DMA arrive en disant : « Ça, c’est illégal ; si vous voulez faire du business en Europe et que vous êtes un gatekeeper, donc une grosse entreprise, il va falloir que vous mettiez à disposition des points d’entrée pour que d’autres applications de messagerie puissent s’interfacer avec vous et que les utilisateurs puissent utiliser d’autres applications pour parler à vos utilisateurs. »

Donc ça, nous, on voit ça vraiment comme une révolution, qui va enfin casser tout ça. Par contre, c’est sûr que c’est là que viennent les problématiques de modération, parce que modérer un réseau ouvert et décentralisé, ça devient un peu plus compliqué que quand il y a un seul endroit sous le contrôle d’une seule entreprise qui peut décider ce qui est noir ou blanc. Comme c’est un problème qu’on a au jour le jour dans Matrix, parce que c’est sûr que Matrix est utilisé par des contenus illégaux, des contenus légaux, etc., on a commencé à construire des outils qui nous permettent de gérer tout ça.

L’approche qu’on a, par contre, c’est que ça ne doit pas venir du haut, mais il faut que ça vienne du bas. Donc il faut que chaque serveur ou chaque administrateur de serveur soit capable de dire : « Moi, j’accepte ce genre de contenus ». Je ne sais pas. « Moi, je suis un serveur pour les amateurs de chats, donc je décide que si vous voulez parler des chiens, vous n’avez pas le droit d’être là ». Donc chaque serveur doit pouvoir afficher ce qui est acceptable et pas acceptable pour eux. Et après, c’est aux autres serveurs de décider s’ils sont d’accord avec ça. Parce que certaines fois, comme on l’a dit, c’est légal ou pas légal, on est d’accord. Certaines fois, c’est moins évident.

L’idée, c’est de pouvoir construire des outils de modération de manières qui sont relatives. Il ne faut pas qu’il y ait une seule personne qui décide pour tout le monde, mais chacun doit pouvoir ajuster ce qu’il voit au sein du réseau suivant les choses dans lesquelles il croit.

SD : Ça doit être adaptatif.

ALP : Voilà, c’est ça. Et ce qui est important, c’est qu’au moins, si un utilisateur est exposé à un certain flux de données, il doit savoir pourquoi. Il va être exposé à tel flux de données parce qu’il a enregistré son compte sur tel serveur qui a telles règles et que lui a décidé qu’il préférait entendre parler les gens qui aiment les chats et un peu moins ceux qui aiment les chiens. Et donc il décide d’adapter comme ça les flux de données qui passent devant eux. Mais c’est un choix qui est fait par l’utilisateur plutôt qu’une entreprise qui dit : « Voilà, c’est comme ça ».

SD : Dans ce que vous dites, il y a un défaut qui ressort plus que les autres dans le modèle actuel de la modération, qui serait la centralisation…

ALP : C’est exactement ça. L’idée, c’est qu’il faut que ce soit décentralisé, que chacun puisse se faire son propre avis.

SD : Et quel est, pour vous, la principale limite à un modèle plus vertueux de modération ? Ou les principales limites ?

ALP : Ce qui va être clé, ça va être l’interface utilisateur, parce que c’est sûr qu’il y a un risque, c’est que ça crée des chambres d’écho où les gens se regroupent et puis que ça fasse du bruit. Ce qui est clé, c’est de pouvoir montrer aux utilisateurs ce qu’il se passe à côté. Est-ce que vous vous rendez compte que le groupe auquel vous parlez correspond à 0,01 % de la population et que peut-être que vos croyances et vos positions ne sont pas forcément les bonnes ? Donc pouvoir exposer les gens à d’autres visions et qu’ils fassent ce choix d’eux-mêmes.

SD : Et ça aurait quel impact sur la modération, justement ?

ALP : De pouvoir casser un peu les cercles d’écho qu’on a et casser un peu les croyances un peu extrêmes qui peuvent poser des problèmes aujourd’hui.

SD : Donc on aurait une diminution, un peu, par effet de ruissellement, des contenus à modérer ?

ALP : Voilà, c’est ça. Et puis tout ce qui est, par exemple, les bots qui se retrouvent… Ils se retrouveraient dans des espèces de cercles sans fin, parce que seuls leurs copains bots les soutiendraient, etc., alors que tous les vrais humains diraient : « Mais non, c’est n’importe quoi ce qui est dit là. »

SD : Justement, les bots, la guerre en Ukraine, parlons-en. On a évoqué Twitter qui, c’est vrai, a un gros impact là-dessus, surtout avec la vision très particulière d’Elon Musk quant à la modération. Mais qu’est-ce que la guerre en Ukraine, par exemple, change de particulier à la modération ?

ALP : Ça a mis en évidence quand même les modes d’erreurs. La guerre a mis pas mal en évidence les choses qui ne fonctionnent pas, parce qu’on pouvait bien voir. Mais, honnêtement, c’était probablement vrai des deux côtés. En parlant aux gens en Russie, ils étaient persuadés que la Russie faisait ce qui était bien. En même temps, mais même en Angleterre, des fois, ça faisait un petit peu peur.

Basée à Londres, quand on lisait les articles dans la presse, c’était toujours les mêmes choses qui ressortaient, au point de se demander : « Est-ce qu’on n’est pas en train de nous laver le cerveau avec des messages bien précis, et que le gouvernement remonte les messages bien précis ? ». Je crois que ça a mis pas mal en évidence, justement, ces espèces de dystopies qui sont mises en place de chaque côté de la barrière, parce que les informations qui sont passées sont sélectionnées soigneusement.

SD : Oui. Et des deux côtés.

ALP : Voilà, c’est ça. Des deux côtés.

SD : Parce qu’on parle beaucoup de ce qui a changé de négatif, etc., par rapport à la modération actuellement, mais il y a quand même du positif, non ? Dans ce modèle.

ALP : Dans les modèles à venir, vous voulez dire ?

SD : Oui, dans les modèles à venir déjà, mais dans le modèle actuel aussi, il n’y a pas tout à jeter ?

ALP : Oui, dans le modèle actuel, ce qui est bien, c’est que, maintenant, il y a une certaine conscience des problèmes, qu’il n’y avait pas du tout avant. Donc je pense que ça fait réagir les gens. Ça force un petit peu les entreprises à essayer de trouver des solutions et à se tourner vers des gens comme nous qui sommes en train de travailler sur des solutions. Pour moi, ce qui est bien, c’est comme le DMA, c’est des événements qui enfin réveillent un petit peu le monde sur des choses qui sont en place depuis quelque temps. Mais ça y est, on commence enfin à réaliser qu’il y a des problèmes à résoudre.

SD : Est-ce qu’il y a une chose à amener en particulier, pour changer le modèle de façon très rapide et positive à l’avenir ?

ALP : Rapide et positif, ça va être dur. Je ne suis pas sûr qu’il y ait de solutions très rapides.

SD : Pas de solution miracle ?

ALP : À mon avis, il n’y a pas vraiment de solution miracle. Ça va être du travail qui va prendre un peu de temps, parce que changer les modèles de pensée d’entreprises comme Facebook et Twitter, ça va être un peu compliqué. C’est vrai que l’approche d’Elon Musk, on ne sait pas trop si finalement il se décide à racheter Twitter, parce qu’apparemment on n’est plus trop sûr que ça va se passer.

SD : À l’heure où on parle, le rachat a été suspendu.

ALP : En gros, on ne sait pas trop s’il rachète Twitter, est-ce qu’il va venir en disant : « Voilà, c’est free speech pour tout le monde, tout le monde peut s’exprimer et puis tout est ouvert », ou s’il va essayer de prendre en main les choses et essayer de mettre en place des outils qui permettent un peu de subjectivité et d’éviter ce… C’est un peu une dictature, un diktat de ce qui peut être dit et ne peut pas être dit.

SD : Sachant que dernièrement, avant la suspension du rachat de Twitter, Elon Musk avait parlé avec Thierry Breton, qui a notamment été chargé à l’Union européenne du DMA et du DSA, à qui il a certifié que la modération respecterait a priori le modèle législatif européen. Donc il devrait adapter la modération en fonction des zones géographiques.

C’est un peu ce qu’on disait au début, finalement, avec Matrix, qu’il faut que chaque serveur, chaque zone géographique, voit sa législation respectée.

ALP : Voilà, oui.

SD : Abordons maintenant la modération sur Matrix. Comment ça se passe ? Comment ça fonctionne pour l’instant ? Est-ce que les retours sont bons ?

ALP : Oui, mais on est encore loin de la solution parfaite qu’on essaie de développer. On est pour l’instant encore sur des outils assez basiques, mais en effet, nous, on publie par exemple… Le principal serveur s’appelle Matrix.org et est géré par la fondation, et ils publient des listes de serveurs qu’on considère comme malfaisants. En gros, on la publie, cette liste, qui est réutilisée après par d’autres gens comme par exemple Mozilla, qui reprend cette liste-là et l’utilise sur leur propre déploiement. Donc il y a ce genre de choses qui sont mises en place.

On a aussi des outils pour bloquer des personnes, des chat rooms, etc. Donc il y a des outils qui sont mis en place, mais on n’a pas encore finalisé le développement de la réputation décentralisée telle qu’on l’imagine. On n’a pas encore finalisé ça.

SD : Est-ce que vous êtes optimiste, d’un point de vue général, sur la modération, pour l’avenir de la modération et donc de la sécurité de l’information ? Parce que les deux sont forcément liées.

ALP : Je pense qu’on peut y arriver, oui. Après, c’est sûr qu’il y a certains challenges qui arrivent, comme la Online Safety Bill en Angleterre, qui veut forcer des backdoors dans le chiffrement bout en bout, ce genre de choses. Donc il y a encore pas mal de challenges qui se présentent, parce que les solutions qui sont parfois proposées par les hommes politiques ne sont pas forcément… Ont l’air bien de l’extérieur, mais si on met une backdoor dans un chiffrement bout en bout, ça veut dire que n’importe qui peut l’utiliser. Il ne faut pas se leurrer. S’il y a une faille quelque part, ça ne va pas être que les personnes bien pensantes qui vont l’utiliser.

Ça ne va pas être utilisé que par le gouvernement pour chasser la pédophilie. Ça va être aussi utilisé par n’importe qui, n’importe quel hacker pour espionner, pour faire du mal, etc. La bonne nouvelle, c’est que même si les politiques affichent ces grands discours sur le sujet, les équipes techniques au sein des gouvernements, elles l’ont bien compris, donc on a de l’espoir.