Meta vient d’annoncer le déploiement d’une nouvelle fonctionnalité baptisée Personal Boundary dans ses plateformes de réalité virtuelle Horizon Worlds et Horizon Venues. Objectif : protéger les avatars de tout rapprochement non sollicité dans le métavers.

Une bulle de protection invisible

« Personal Boundary empêche les avatars de s'approcher à une certaine distance les uns des autres, ce qui crée un espace personnel plus important pour les personnes et permet d'éviter plus facilement les interactions indésirables », explique l’entreprise dans un billet de blog. La fonctionnalité se présente comme une bulle invisible qui entoure les avatars se promenant dans les espaces de réalité virtuelle (VR), créant un espace d’1,2 mètre entre chacun d’entre eux.

Ainsi, une personne ne pourra pas se rapprocher trop (virtuellement) d’une autre car la bulle l’en empêchera. Meta précise néanmoins qu’aucun retour haptique n’a été mis en place pour faire ressentir la fonctionnalité. Personal Boundary « s'appuie sur les mesures anti-harcèlement des mains déjà en place, où les mains d'un avatar disparaissent si elles empiètent sur l'espace personnel d'une personne », continue l’entreprise.

La fonctionnalité a été introduite par défaut afin d’établir des normes comportementales pour les autres espaces VR. Meta réfléchit désormais à des modifications afin de permettre, par exemple, aux utilisateurs de personnaliser leur bulle.

Des avatars entourés d'une bulle dans Horizon Worlds.

Ici, les bulles sont visibles mais elles sont en réalité invisibles au sein de la plateforme. Image : Meta

La sécurité dans le métavers pose un énorme défi

Cette décision de la part de Meta fait suite à plusieurs témoignages de femmes ayant eu des expériences dérangeantes au sein de Horizon Worlds. À chaque fois, des avatars d’hommes avaient un comportement inapproprié avec ces dernières, qui ont été choquées par ce qui leur est arrivé.

D’ailleurs, la sécurité et la modération au sein du métavers, considéré comme l’avenir d’Internet, posent question. « Lorsqu'il s'agit de rechercher des discours haineux dans un texte, c'est difficile mais faisable - vous pouvez utiliser des algorithmes d'apprentissage automatique. Pour traiter des informations visuelles sur un avatar ou sur la proximité d'un avatar avec un autre, cela va être tellement coûteux en termes de calcul, cela va demander tellement de puissance informatique, je ne sais pas quelle technologie peut faire cela », explique la journaliste spécialisée Parmy Olson.

Andrew Bosworth, directeur de la technologie chez Meta, a d’ailleurs assuré dans une interview accordée à la BBC que le métavers poserait « de plus grandes opportunités et de plus grandes menaces ». « Cela pourrait me sembler beaucoup plus réel si vous étiez violent à mon égard, car cela ressemble beaucoup plus à un espace physique », a-t-il expliqué.

La tâche s’annonce donc très complexe pour Meta, et la firme n’a pas intérêt à se manquer car, en plus de miser tout son avenir sur le métavers, elle ne jouit pas d’une très bonne réputation en matière de protection des utilisateurs. La sécurité des personnes dans la prochaine itération d’Internet a d’ores et déjà éveillé les intérêts d’un organisme de surveillance britannique. Celui-ci a ainsi demandé à Meta un examen approfondi de sa politique de sécurité vis-à-vis des enfants.