Skip to main content

9 Sep, 2019

Facebook est en train de créer ses propres deepfakes avec IA pour éviter un désastre de désinformation

Facebook est en train de créer ses propres deepfakes avec IA pour éviter un désastre de désinformation

Le directeur technique de Facebook affirme que les vidéos forgées à l’aide de l’intelligence artificielle seront utilisées à des fins malveillantes sur ses plates-formes d’ici peu.

Facebook craint que les vidéos de « deepfake » générées par Intelligence Artificielle ne soient la prochaine grande source de désinformation virale parmi ses utilisateurs, avec des conséquences potentiellement catastrophiques pour la prochaine élection présidentielle américaine.

Sa solution ? Fabriquer des tas de deepfakes pour aider les chercheurs à construire et à perfectionner leurs outils de détection.

Facebook a demandé à son équipe de chercheurs en intelligence artificielle de produire un certain nombre de fausses vidéos très réalistes mettant en scène des acteurs qui font et disent des choses courantes. Ces clips serviront d’ensemble de données pour tester et évaluer les outils de détection des deepfakes. Les deepfakes de Facebook seront publiés lors d’une importante conférence sur l’IA à la fin de l’année.

La montée en puissance des deepfakes a été stimulée par les récents progrès de l’apprentissage machine. Les studios de cinéma ont depuis longtemps la possibilité de manipuler des images et des vidéos avec des logiciels et des ordinateurs, et des algorithmes capables de capturer et de recréer l’image d’une personne ont déjà été utilisés pour créer des outils « pointer-cliquer » afin de coller le visage d’une personne sur un autre.

Il existe des méthodes de repérage des médias falsifiés, mais elles font souvent appel à une analyse minutieuse par des experts. Les outils permettant d’attraper les deepfakes automatiquement ne font qu’émerger.

Mike Schroepfer, directeur technique de Facebook, affirme que les deepfakes progressent rapidement, et qu’il est donc essentiel de trouver de bien meilleures façons de repérer ou de bloquer les contrefaçons potentielles.

« Nous n’avons pas encore vu cela comme un énorme problème sur nos plates-formes, mais mon hypothèse est que si vous augmentez l’accès – rendez cela moins cher, plus facile, plus rapide pour construire ces choses – cela augmente clairement le risque que les gens l’utilisent d’une manière malveillante « , a déclaré Mike Schroepfer, qui est à la tête de cette initiative. « Je ne veux pas être dans une situation où il y a un énorme problème et que nous n’avons pas investi des sommes considérables dans la R&D. »

Comparant cet effort à la lutte contre le spam, Mike Schroepfer a déclaré que Facebook pourrait ne pas être en mesure de détecter les faux les plus sophistiqués. « Nous attraperons les plus évidentes », a-t-il dit. Mais il a dit que Facebook n’employait pas encore de méthodes parce que les contrefaçons s’améliorent si rapidement ».

Facebook

Le réseau social consacrera 10 millions de dollars au financement de la technologie de détection au moyen de subventions et de récompenses lors de concours sur ce challenge. En collaboration avec Microsoft, The Partnership on IA et des universitaires d’institutions telles que le MIT, UC Berkeley et l’Université d’Oxford, la société lance le Deepfake Detection Challenge, qui offrira des récompenses en espèces non spécifiées pour les meilleures méthodes de détection.

La réalisation d’un deepfake nécessite généralement deux clips vidéo. Les algorithmes apprennent l’apparence de chaque visage afin de coller l’un sur l’autre tout en maintenant chaque sourire, clignement des yeux et signe de la tête. Différentes techniques d’IA peuvent également être utilisées pour recréer la voix d’une personne spécifique. Le terme « deepfake » est tiré d’un utilisateur de Reddit qui a publié un tel outil en 2017. Il fait référence à l’apprentissage profond, la technique d’IA employée.

L’une des grandes inquiétudes est que des deepfakes pourraient être utilisés pour diffuser des informations erronées très contagieuses lors des élections américaines de l’année prochaine, ce qui pourrait même influencer le résultat. Plusieurs sénateurs américains ont tiré la sonnette d’alarme au sujet de la menace et l’un d’entre eux a présenté un projet de loi visant à rendre illégal la création ou la distribution de deepfakes dans une intention malveillante. Un récent rapport sur la désinformation électorale de la NYU identifie les deepfakes comme l’un des principaux défis pour les élections de 2020.

Les vidéos manipulées se répandent déjà sur les plateformes sociales, en fait. Plus tôt cette année, un clip qui semblait montrer Nancy Pelosi (femme politique américaine, membre du Parti démocrate et présidente de la Chambre des représentants des États-Unis depuis 2019) en train de bredouiller son discours (simplement en ralentissant les images) s’est rapidement diffusé sur Facebook. La société a refusé de retirer ce post ou un deepfake de Mark Zuckerberg, choisissant plutôt de signaler les clips comme faux auprès d’organismes de vérification des faits.

Il est logique pour Facebook d’essayer de prendre les devants, surtout après les retombées de la dernière élection présidentielle. Au fur et à mesure que les détails des campagnes de désinformation politique sont apparus, Facebook a fait l’objet de vives critiques pour avoir permis la diffusion d’une telle propagande.

La promotion du défi sur le deepfake pourrait toutefois avoir des conséquences involontaires.  Henry Ajder, analyste chez Deeptrace, une société néerlandaise qui travaille sur des outils permettant de repérer les clips contrefaits, note que la narration autour des deepfakes peut permettre aux politiciens d’échapper à leur responsabilité, en prétendant que des informations réelles ont été falsifiées. « L’idée même des deepfakes crée déjà beaucoup de problèmes, » assure Henry Ajder. « C’est un virus dans la sphère politique qui a infecté l’esprit des politiciens et des citoyens. »

De plus, malgré l’alarme, Henry Ajder, qui traque des deepfakes dans la nature, doute que la technologie soit utilisée à des fins politiques pendant un certain temps. Il croit qu’elle deviendra plus immédiatement un outil puissant de cyberharcèlement et d’intimidation.

Il existe déjà quelques méthodes pour détecter les deepfakes. Les techniques simples consistent à analyser les données d’un fichier vidéo ou à rechercher des mouvements de bouche et des clignements d’yeux révélateurs, ce qui est plus difficile à capturer et recréer par un algorithme.

Une méthode mise au point récemment par un groupe d’éminents experts consiste à former un algorithme d’apprentissage profond pour reconnaître les mouvements spécifiques de la tête d’une personne, car ce n’est pas quelque chose que les algorithmes apprennent habituellement.

Cette approche est le fruit d’un autre effort de développement d’outils de détection, financé par la Defense Advanced Research Projects Agency (DARPA).

De nombreux experts ont été surpris et alarmés par la rapidité avec laquelle les contrefaçons d’IA progressent. Pas plus tard que cette semaine, une application chinoise appelée Zao a déclenché le débat en publiant des vidéos truquées soi-disant créées à partir d’une image fixe. Hao Li, artiste d’effets visuels et professeur associé à l’Université de Californie du Sud, a averti qu’il pourrait être possible de produire en masse des deepfakes indétectables avant longtemps.

https://www.technologyreview.com/s/614269/facebook-is-making-ai-deepfakes-to-head-off-a-disinformation-disaster/

https://www.partnershiponai.org/

https://ai.facebook.com/blog/deepfake-detection-challenge