Meta explique son approche de la sécurité des utilisateurs suite au report du déploiement du cryptage de bout en bout
Meta explique son approche de la sécurité des utilisateurs suite au report du déploiement du cryptage de bout en bout

Meta (anciennement Facebook) a récemment annoncé son intention de retarder le déploiement du cryptage de bout en bout dans son service de messagerie jusqu’en 2023, en raison des préoccupations des défenseurs de la sécurité des enfants qui ont averti que ce changement protégerait les abuseurs de la détection. Aujourd’hui, la société a donné plus de détails sur la façon dont elle prévoit d’aborder la nécessité de prévenir les dommages parallèlement au déploiement éventuel du cryptage de bout en bout.
Si la technologie est capable d’analyser les messages privés non cryptés afin de détecter les comportements malveillants, ce n’est pas le cas dans un environnement crypté de bout en bout, a expliqué Meta. Au lieu de cela, la société prévoit d’utiliser l’intelligence artificielle et l’apprentissage automatique pour examiner les parties non cryptées de sa plateforme, comme les profils et les photos des utilisateurs, à la recherche d’autres signaux qui pourraient indiquer une activité malveillante. Par exemple, si un adulte créait de nouveaux profils et essayait de joindre des mineurs qu’il ne connaissait pas, ou s’il commençait à envoyer des messages à un grand nombre d’inconnus, l’entreprise pourrait intervenir pour prendre des mesures, selon un billet de blog de Meta.
Meta a également déployé récemment une série de protections accrues pour les comptes appartenant à des mineurs, notamment en les rendant par défaut privés ou « réservés aux amis » sur Facebook et Instagram. Cette année, Meta a également introduit des fonctionnalités qui empêchent les utilisateurs adultes d’Instagram de contacter des adolescents qui ne les suivent pas déjà.
Et sur Messenger, elle affiche désormais des avis de sécurité qui fournissent des conseils sur le repérage d’activités suspectes et sur la manière de prendre des mesures comme bloquer, signaler, ignorer ou restreindre d’autres utilisateurs, élaborés à l’aide de l’apprentissage automatique. Au cours du mois dernier, ces conseils ont été vus par plus de 100 millions d’utilisateurs. Selon Meta, ce type de fonctionnalité pourrait également fonctionner dans un environnement crypté de bout en bout.
L’entreprise a également cité la variété des fonctionnalités offertes aux utilisateurs, qui leur permettent de mieux contrôler qui peut les joindre via leur boîte de réception. Les créateurs à la recherche d’une plus grande portée souhaiteront peut-être moins de contrôles, mais voudront filtrer les abus et les spams, tandis que les personnes possédant des comptes privés voudront peut-être restreindre totalement les contacts aux seules personnes qu’elles connaissent. D’autres fonctions de messagerie permettent de brouiller les images et les vidéos et de bloquer les liens dans les demandes de messagerie (conversations entamées par des personnes que vous ne connaissez pas).
Meta a également indiqué qu’au début de l’année, elle a modifié ses fonctions de signalement afin de faciliter le signalement de contenus violant les politiques d’exploitation des enfants en ajoutant un choix indiquant « implique un enfant » dans le flux de signalement et en rendant le signalement plus accessible. L’entreprise affirme avoir constaté une augmentation de près de 50 % des signalements d’une année sur l’autre.
Lorsque des messages sont signalés, cette partie de la conversation est décryptée afin que l’entreprise puisse prendre des mesures, comme signaler une tentative d’exploitation d’enfant aux forces de l’ordre ou au NCMEC, par exemple. Meta indique également qu’elle avertit désormais les utilisateurs que le partage d’images d’exploitation d’enfants, même dans l’indignation, est préjudiciable et a lancé une campagne « signalez-le, ne le partagez pas » pour sensibiliser les utilisateurs.
La société avait déjà exposé une grande partie de ces procédures et de ces plans dans le cadre de sa réponse aux demandes des régulateurs et aux réactions des défenseurs de la sécurité des enfants qui craignent que l’exploitation des enfants ne se développe dans un environnement crypté de bout en bout. Mais Meta maintient que la combinaison de l’analyse des données non cryptées des utilisateurs et des fonctions de rapport existantes lui permettra de prendre des mesures en cas d’abus, même lorsque les messages sont cryptés.
En fait, c’est ainsi qu’elle parvient à détecter les abus sur WhatsApp, qui utilise déjà un chiffrement de bout en bout. L’entreprise a également déclaré récemment qu’un examen des cas historiques montrait qu’elle aurait été en mesure de fournir des informations aux forces de l’ordre, même si les discussions en question avaient été cryptées de bout en bout.
Les problèmes liés à la messagerie cryptée ne se limitent pas à la question de savoir si les régulateurs devraient autoriser Meta à la déployer. Alors que Meta semble affirmer aujourd’hui que E2EE n’empêchera pas l’entreprise d’assurer la sécurité des utilisateurs, un ancien employé de Meta a récemment accusé l’entreprise d’avoir planifié le passage à un système E2EE selon un « calendrier absurdement accéléré », ce qui a conduit à la démission de membres de l’équipe chargée de la sécurité des enfants qui comprennent que la protection des enfants aurait empiré de manière évidente, en raison de l’absence de feuille de route et de plan de protection dans un environnement E2EE. Les problèmes spécifiques que l’employé, David Thiel, a soulevés dans son fil Twitter n’ont pas été abordés par le message de Meta, qui simplifie à l’extrême ce qui est nécessaire pour créer un environnement réellement sûr pour les utilisateurs tout en permettant les communications cryptées
https://about.fb.com/news/2021/12/metas-approach-to-safer-private-messaging/
https://about.fb.com/news/2021/02/preventing-child-exploitation-on-our-apps/
https://transparency.fb.com/policies/improving/working-with-law-enforcement/