Microsoft dévoile un nouvel outil de détection des Deepfakes
Microsoft dévoile un nouvel outil de détection des Deepfakes

Un pionnier de la technologie chez Microsoft a lancé un nouvel outil pour aider à déterminer les photos et les vidéos « deepfake », qui sont devenues un outil de plus en plus courant pour la désinformation en ligne.
Deepfake, un portmanteau des termes « deep learning » et « fake », fait référence à des photos, vidéos ou audios synthétiques qui ont été altérés à l’aide de l’IA ou de la technologie de deep learning, créant ainsi des médias difficiles à détecter qui peuvent tromper les gens. Selon une étude, cette technologie a été utilisée pour influencer des campagnes. Microsoft a annoncé sa nouvelle technologie dans un communiqué de presse daté du 1er septembre.
De la désinformation à la diffamation
Un travail de recherche dirigé par le professeur Jacob Shapiro de l’université de Princeton, réalisé avec le soutien de Microsoft, a permis de cataloguer 96 campagnes différentes influencées par l’étranger qui ont ciblé 30 pays entre 2013 et 2019.
Les campagnes sur les médias sociaux visaient des personnes importantes en les diffamant, en persuadant l’opinion publique, et même en influençant les débats. Sur l’ensemble des cas enregistrés, 26 % des campagnes de désinformation visaient les États-Unis. Parmi les autres pays ciblés par les efforts de malveillance figurent l’Australie, le Canada, l’Allemagne, la France, les Pays-Bas, l’Arabie saoudite, le Royaume-Uni, l’Arménie, le Brésil, la Pologne, l’Afrique du Sud, Taïwan, l’Ukraine et le Yémen.
En outre, selon l’étude soutenue par Microsoft, environ trois efforts d’influence étrangère (FIE) sur cinq utilisent trois approches – amplifier, créer et déformer -, tandis que les efforts d’influence intérieure (DIE : Domestic Influence Efforts) utilisent les mêmes stratégies dans quatre cas sur cinq. En outre, la création de contenu original dans la désinformation est utilisée pour 93 % des FIE et 90 % des DIE, l’amplification des médias existants est utilisée pour 74 % (FIE) et 95 % (DIE). En comparaison, 74 % (FIE) et 90 % (DIE) utilisent la déformation de faits vérifiables.
Les plateformes les plus utilisées dans les efforts d’influence étrangère sont Twitter, Facebook et les médias d’information. Twitter a été utilisé par 86 % des FIE et 75 % des DIE, tandis que Facebook représente 70 % des efforts étrangers et 79 % des efforts nationaux.
L’étude a également observé que les « comptes de médias sociaux chinois inauthentiques » encourageaient les récits pro-chinois dans les questions internationales. Ces questions comprennent des événements tels que les relations avec Taïwan, la réponse à la pandémie mondiale de coronavirus et même les manifestations de George Floyd aux États-Unis.
L’authentificateur vidéo de Microsoft
Pour lutter contre la prévalence croissante de la désinformation, Microsoft a développé deux technologies différentes pour combattre spécifiquement certains aspects de la question.
Sur le front de la falsification, Microsoft introduit son Microsoft Video Authenticator, qui analyse les photos et les vidéos et génère un score de confiance indiquant que le média suspect est en fait manipulé artificiellement.
Pour les vidéos, le Video Authenticator fournit une note de confiance en temps réel en analysant l’échantillon, image par image. La nouvelle technologie trouve la limite de mélange de la manipulation assistée par l’IA, ainsi que des éléments subtils de décoloration et de niveaux de gris qui pourraient passer inaperçus à l’œil nu.
Microsoft Research a initialement développé cette technologie, avec son équipe d’IA responsable et son comité d’IA, d’éthique et d’effets en ingénierie et en recherche (AETHER) – le conseil consultatif de Microsoft qui assure le développement responsable de sa technologie.
Le Microsoft Video Authenticator a été développé à l’aide d’un ensemble de données publiques Face Forensic++, testé sur l’ensemble de données DeepFake Detection Challenge. Les deux ensembles de données sont les principaux modèles des technologies de détection de faux visage.
L’autre technologie consiste en une paire de hachages et un générateur de certificats et un lecteur qui vérifie ces certificats. La première moitié est un outil Microsoft Azure, qui permet aux créateurs de contenu d’ajouter des hachages numériques et des justificatifs d’identité à leur travail. L’autre moitié, qui existe sous la forme d’une extension de navigateur ou d’autres formes futures, sera un lecteur qui vérifiera les hachages et les certificats numériques comme mesure d’authentification.
