Un groupe d’entreprises technologiques vient de s’engager dans un métavers plus sûr.
Un groupe d’entreprises technologiques vient de s’engager dans un métavers plus sûr.

Mais ce sera plus difficile qu’il n’y paraît et certains noms manquent cruellement.
Internet peut ressembler à un puits sans fond où se retrouvent les pires aspects de l’humanité. Jusqu’à présent, rien n’indique que le métavers – un monde numérique virtuel envisagé où nous travaillons, jouons et vivons – sera bien meilleur. Déjà signalé le mois dernier, une bêta-testeuse de la plate-forme sociale virtuelle de Meta, Horizon Worlds, s’est déjà plaint d’avoir été tripoté.
Tiffany Xingyu Wang pense avoir une solution. En août 2020, plus d’un an avant que Facebook n’annonce qu’il allait changer son nom en Meta et abandonner sa plateforme phare de médias sociaux au profit de son propre métavers, Tiffany Xingyu Wang a lancé le Oasis Consortium, un groupe de sociétés de jeux et d’entreprises en ligne qui envisage « un Internet éthique où les générations futures ont la certitude de pouvoir interagir, cocréer et exister sans haine ni toxicité en ligne ».
Comment ? Tiffany Wang pense qu’Oasis peut garantir un métavers plus sûr et meilleur en aidant les entreprises technologiques à s’autoréguler.
Au début du mois, Oasis a publié ses normes de sécurité pour les utilisateurs, un ensemble de directives qui incluent l’embauche d’un responsable de la confiance et de la sécurité, la modération du contenu et l’intégration des dernières recherches en matière de lutte contre la toxicité. Les entreprises qui rejoignent le consortium s’engagent à travailler à la réalisation de ces objectifs.
« Je veux donner au web et aux métavers une nouvelle option », déclare Tiffany Wang, qui a passé les 15 dernières années à travailler dans l’IA et la modération de contenu. « Si le métavers doit survivre, il faut qu’il soit sécurisé ».
Elle a raison : le succès de la technologie est lié à sa capacité à garantir que les utilisateurs ne se blessent pas. Mais pouvons-nous vraiment croire que les entreprises de la Silicon Valley seront capables de s’autoréguler dans le métavers ?

Un plan pour un métavers plus sûr
Parmi les entreprises qui ont adhéré à Oasis jusqu’à présent figurent la plateforme de jeux Roblox, l’agence de rencontres Grindr et le géant des jeux vidéo Riot Games, entre autres. À elles toutes, elles comptent des centaines de millions d’utilisateurs, dont beaucoup utilisent déjà activement les espaces virtuels.
Il est toutefois à noter que Tiffany Wang n’a pas encore discuté avec Meta, sans doute le plus grand acteur du futur métavers. Sa stratégie consiste à approcher Big Tech « lorsqu’ils verront les changements significatifs que nous apportons à l’avant-garde du mouvement ». (Meta a indiqué deux documents lorsqu’on lui a demandé quels étaient ses projets en matière de sécurité dans le metaverse : un communiqué de presse détaillant les partenariats avec des groupes et des individus pour » construire le metaverse de manière responsable « , et un article de blog sur la sécurité des espaces RV. Tous deux ont été rédigés par Andrew Bosworth, directeur technique de Meta).
Tiffany Wang dit qu’elle espère assurer la transparence de plusieurs manières. L’une d’entre elles consiste à créer un système de notation pour que le public sache où se situe une entreprise en matière de confiance et de sécurité, un peu comme le système par lequel de nombreux restaurants affichent les notes de la ville pour le respect des normes de santé et de propreté. Une autre solution consiste à exiger des entreprises membres qu’elles emploient un responsable de la confiance et de la sécurité. Ce poste est devenu de plus en plus courant dans les grandes entreprises, mais il n’existe pas d’ensemble de normes convenues auxquelles chaque responsable de la confiance et de la sécurité doit se conformer, explique Wang.
Mais une grande partie du plan d’Oasis reste, au mieux, idéaliste. Un exemple est la proposition d’utiliser l’apprentissage automatique pour détecter le harcèlement et les discours de haine. Comme l’a rapporté Karen Hao l’année dernière, les modèles d’IA donnent trop de chances aux discours haineux de se répandre ou les dépassent. Pourtant, Tiffany Wang défend la promotion par Oasis de l’IA comme outil de modération. « L’IA est aussi bonne que les données peuvent l’être », dit-elle. « Les plateformes partagent différentes pratiques de modération, mais toutes travaillent à une meilleure précision, à une réaction plus rapide et à la prévention de la sécurité par la conception. »
Le document lui-même fait sept pages et décrit les objectifs futurs du consortium. Il se lit en grande partie comme une déclaration de mission, et Tiffany Wang explique que les premiers mois de travail ont été consacrés à la création de groupes consultatifs pour aider à définir les objectifs.
D’autres éléments du plan, comme la stratégie de modération du contenu, sont vagues. Wang dit qu’elle aimerait que les entreprises engagent un ensemble diversifié de modérateurs de contenu afin qu’ils puissent comprendre et combattre le harcèlement des personnes de couleur et de celles qui s’identifient comme non masculines. Mais le plan ne propose aucune autre mesure pour atteindre cet objectif.
Le consortium attendra également des entreprises membres qu’elles partagent des données sur les utilisateurs qui commettent des abus, ce qui est important pour identifier les récidivistes. Les entreprises technologiques participantes s’associeront à des organisations à but non lucratif, à des organismes publics et aux forces de l’ordre pour contribuer à l’élaboration de politiques de sécurité, précise Mme Wang. Elle prévoit également qu’Oasis dispose d’une équipe d’intervention des forces de l’ordre, dont la tâche sera d’avertir la police en cas de harcèlement et d’abus. Mais on ne sait pas encore en quoi le travail du groupe de travail avec les forces de l’ordre sera différent du statu quo.
Équilibre entre vie privée et sécurité
Malgré le manque de détails concrets, les experts pensent que le document de normes du consortium est un bon premier pas, au moins. « C’est une bonne chose qu’Oasis envisage l’autorégulation, en commençant par les personnes qui connaissent les systèmes et leurs limites », déclare Brittan Heller, avocate spécialisée dans la technologie et les droits de l’homme.
Ce n’est pas la première fois que des entreprises de la tech collaborent de cette manière. En 2017, certaines ont accepté d’échanger librement des informations avec le Global Internet Forum to Combat Terrorism. Aujourd’hui, le GIFCT reste indépendant, et les entreprises qui y adhèrent s’autorégulent.
Lucy Sparrow, chercheuse à l’école d’informatique et de systèmes d’information de l’université de Melbourne, explique que l’avantage d’Oasis est qu’il offre aux entreprises quelque chose avec lequel travailler, plutôt que d’attendre qu’elles inventent elles-mêmes le langage ou qu’un tiers fasse ce travail.
Mme Sparrow ajoute que l’intégration de l’éthique dans la conception dès le départ, comme le préconise Oasis, est admirable et que ses recherches sur les systèmes de jeux multi-joueurs montrent que cela fait la différence. « L’éthique a tendance à être mise de côté, mais ici, Oasis encourage la réflexion sur l’éthique dès le début », dit-elle.
Mais Mme Heller estime que la conception éthique ne suffit peut-être pas. Elle suggère que les entreprises technologiques révisent leurs conditions de service, qui ont été fortement critiquées pour avoir profité des consommateurs sans expertise juridique.
Mme Sparrow est d’accord et hésite à croire qu’un groupe d’entreprises technologiques agira dans le meilleur intérêt des consommateurs. « Cela soulève deux questions », dit-elle. « La première est de savoir dans quelle mesure nous faisons confiance aux entreprises axées sur le capital pour contrôler la sécurité. Et deuxièmement, quel degré de contrôle voulons-nous que les entreprises technologiques aient sur nos vies virtuelles ? »
C’est une situation délicate, notamment parce que les utilisateurs ont droit à la fois à la sécurité et à la vie privée, mais ces besoins peuvent être en tension.
Par exemple, les normes d’Oasis comprennent des directives concernant le dépôt de plaintes auprès des forces de l’ordre en cas de harcèlement des utilisateurs. Si une personne veut porter plainte maintenant, il est souvent difficile de le faire, car pour des raisons de confidentialité, les plateformes n’enregistrent souvent pas ce qui se passe.
Ce changement ferait une grande différence dans la capacité à discipliner les récidivistes ; actuellement, ils peuvent s’en tirer avec des abus et du harcèlement sur plusieurs plateformes, parce que ces plateformes ne communiquent pas entre elles pour savoir quels utilisateurs posent problème. Pourtant, Brittan Heller dit que si cette idée est excellente en théorie, elle est difficile à mettre en pratique, car les entreprises sont obligées de garder les informations des utilisateurs privées selon les conditions de service.

« Comment pouvez-vous rendre ces données anonymes et faire en sorte que le partage soit efficace ? », demande-t-elle. « Quel serait le seuil à partir duquel vos données seraient partagées ? Comment pourriez-vous rendre le processus de partage des informations transparent et les suppressions d’utilisateurs susceptibles d’appel ? Qui aurait l’autorité pour prendre de telles décisions ? »
« Il n’existe aucun précédent pour les entreprises qui partagent des informations [avec d’autres entreprises] sur les utilisateurs qui violent les conditions de service pour harcèlement ou mauvais comportement similaire, même si cela dépasse souvent les limites de la plateforme », ajoute-t-elle.
Une meilleure modération du contenu – par des humains – pourrait arrêter le harcèlement à la source. Pourtant, Mme Heller ne sait pas exactement comment Oasis prévoit de normaliser la modération du contenu, en particulier entre un média textuel et un média plus virtuel. Et la modération dans le métavers posera son propre lot de problèmes.
« La modération de contenu basée sur l’IA dans les flux de médias sociaux, qui attrape les discours haineux, est principalement basée sur le texte », explique Brittan Heller. « La modération du contenu dans la RV devra principalement suivre et surveiller le comportement – et les mécanismes actuels de signalement de la RV [réalité virtuelle et augmentée] sont au mieux bancals, et souvent inefficaces. Ils ne peuvent pas être automatisés par l’IA à ce stade. »
C’est donc à l’utilisateur qu’incombe la charge de signaler les abus, comme l’a vécu la victime de Meta. L’audio et la vidéo ne sont souvent pas non plus enregistrés, ce qui rend plus difficile d’établir la preuve d’une agression. Selon Mme Heller, même parmi les plateformes qui enregistrent le son, la plupart ne conservent que des bribes, ce qui rend le contexte difficile, voire impossible, à comprendre.
Tiffany Wang a souligné que les normes de sécurité pour les utilisateurs ont été créées par un comité consultatif sur la sécurité, mais qu’elles sont toutes membres du consortium – un fait qui a mis Brittan Heller et Lucy Sparrow mal à l’aise. La vérité est que les entreprises n’ont jamais eu de bons résultats en matière de protection de la santé et de la sécurité des consommateurs dans l’histoire de l’Internet ; pourquoi devrions-nous nous attendre à quelque chose de différent maintenant ?
Lucy Sparrow ne pense pas que ce soit le cas. « Il s’agit de mettre en place un système qui permette de faire régner la justice ou de signaler le type de comportement attendu et de prévoir des conséquences pour les comportements qui dépassent les bornes », explique-t-elle. Cela pourrait impliquer d’autres parties prenantes et des citoyens ordinaires, ou une sorte de gouvernance participative permettant aux utilisateurs de témoigner et d’agir comme un jury.
Une chose est sûre, cependant : la sécurité dans le métavers pourrait nécessiter davantage qu’un groupe d’entreprises technologiques promettant de veiller sur nous.
https://www.technologyreview.com/2022/01/20/1043843/safe-metaverse-oasis-consortium-roblox-meta/
https://www.oasisconsortium.com/usersafetystandards
https://www.oasisconsortium.com/
https://about.fb.com/news/2021/09/building-the-metaverse-responsibly/