Skip to main content

9 Jan, 2024

Grande-Bretagne : Meta cachera aux adolescents les contenus sur le suicide et les troubles de l’alimentation alors que la pression du gouvernement augmente

Grande-Bretagne : Meta cachera aux adolescents les contenus sur le suicide et les troubles de l’alimentation alors que la pression du gouvernement augmente

Les adolescents sur Facebook et Instagram ne pourront plus voir de contenu sur l’automutilation, le suicide et les troubles de l’alimentation, même si leurs amis les partagent.

Meta interdit aux adolescents de visionner du contenu traitant de sujets tels que le suicide, l’automutilation et les troubles de l’alimentation, a annoncé la société aujourd’hui. Le contenu, qui, selon Meta, pourrait ne pas être « adapté à l’âge » des jeunes, ne sera pas visible même s’il est partagé par une personne suivie par un adolescent.

Si un adolescent recherche ce type de contenu sur Facebook et Instagram, il sera plutôt dirigé vers des « ressources d’experts » comme la National Alliance on Mental Illnes (l’Alliance nationale pour la maladie mentale), selon Meta. Les utilisateurs adolescents peuvent également ne pas savoir si le contenu de ces catégories est partagé et s’ils ne peuvent pas le voir. Ce changement sera déployé auprès des utilisateurs de moins de 18 ans au cours des prochains mois.

En plus de masquer le contenu dans les catégories sensibles, les comptes adolescents seront également soumis par défaut à des paramètres de filtrage restrictifs qui modifient le type de contenu qu’ils voient sur Facebook et Instagram. Ce changement affecte les publications recommandées dans Search et Explore qui pourraient être « sensibles » ou « de mauvaise qualité », et Meta définira automatiquement tous les comptes adolescents sur les paramètres les plus stricts, bien que ces paramètres puissent être modifiés par les utilisateurs.

Ces mises à jour radicales interviennent alors que Meta et d’autres entreprises technologiques font l’objet d’une surveillance accrue du gouvernement sur la manière dont elles traitent les enfants sur leurs plateformes. Aux États-Unis, le PDG de Meta, Mark Zuckerberg, ainsi qu’une liste d’autres dirigeants du secteur technologique, témoigneront devant le Sénat sur la sécurité des enfants le 31 janvier. L’audience fait suite à une vague de lois à travers le pays qui tentent d’empêcher les enfants d’accéder au contenu pour adultes.

Même au-delà de la pornographie, les législateurs ont indiqué qu’ils étaient prêts à limiter l’âge de vastes pans d’Internet au nom de la protection des enfants contre certains contenus (légaux), comme les contenus traitant du suicide ou des troubles de l’alimentation. Depuis des années, des rapports ont été publiés sur la manière dont les flux d’adolescents sont inondés de contenus préjudiciables , par exemple. Mais bloquer tout matériel autre que celui que les plateformes jugent digne de confiance et acceptable pourrait empêcher les jeunes d’accéder à d’autres ressources éducatives ou de soutien.

Pendant ce temps, dans l’UE, la loi sur les services numériques tient les grandes entreprises technologiques, notamment Meta et TikTok, responsables du contenu partagé sur leurs plateformes, avec des règles concernant la transparence algorithmique et le ciblage publicitaire. Et la loi britannique sur la sécurité en ligne, entrée en vigueur en octobre , exige désormais que les plateformes en ligne se conforment aux règles de sécurité des enfants sous peine d’amendes.

La loi sur la sécurité en ligne fixe pour objectif de faire du Royaume-Uni « l’endroit le plus sûr au monde pour être en ligne » – mais la loi a suscité de vives critiques qui affirment qu’elle pourrait porter atteinte à la vie privée des utilisateurs. L’application de messagerie cryptée Signal, par exemple, a déclaré qu’elle quitterait le Royaume-Uni plutôt que de collecter davantage de données susceptibles de mettre en danger la vie privée des utilisateurs.

https://www.theverge.com/2024/1/9/24030571/meta-facebook-instagram-child-safety-dsa-online-safety-act