Apparition de la première utilisation de Deepfakes dans une campagne électorale indienne
Apparition de la première utilisation de Deepfakes dans une campagne électorale indienne

Les fausses vidéos générées par l’AI, qui sont notoirement répandues dans le porno, s’infiltrent maintenant dans la politique.
Le 7 février, un jour avant les élections législatives à Delhi, deux vidéos du président du parti Bharatiya Janata (BJP), Manoj Tiwari, critiquant le gouvernement d’Arvind Kejriwal, ont été diffusées sur WhatsApp. Alors qu’une vidéo montrait Tiwari s’exprimant en anglais, l’autre le faisait parler dans le dialecte hindi de l’Haryanvi. » Kejriwal nous a trompés sur la base de promesses. Mais maintenant, Delhi a une chance de tout changer. Appuyez sur le bouton du lotus le 8 février pour former le gouvernement dirigé par Modi », a-t-il déclaré.
On pourrait penser que ce monologue de 44 secondes fait partie d’une action politique standard, mais il y a une chose qui n’est pas standard : Ces vidéos n’étaient pas réelles. Voilà ce qu’était la vidéo originale :
Nous sommes en 2020, et les deepfakes sont devenus un outil puissant et inquiétant, qui permet aux humains de manipuler ou de fabriquer des contenus visuels et sonores sur Internet pour les faire paraître très réels. Ils ressemblent beaucoup aux animations de visages des films hollywoodiens, bien que moins chers et avec un côté sombre. Depuis son introduction en 2017, les 20 plus grandes célébrités ont vu leurs visages poussés sur des vidéos pornographiques existantes, faisant des deepfakes un outil tristement célèbre pour son utilisation abusive.
Lorsque la cellule informatique du BJP de Delhi s’est associée à la société de communication politique The Ideaz Factory pour créer des « campagnes positives » utilisant des deepfakes pour atteindre des bases d’électeurs de différentes langues, cela a marqué le début des deepfakes dans les campagnes électorales en Inde. « La technologie des deepfakes nous a permis d’intensifier nos efforts de campagne comme jamais auparavant », déclare Neelkant Bakshi, co-responsable des médias sociaux et de l’informatique pour BJP Delhi, au VICE. « Les vidéos Haryanvi nous ont permis d’approcher de manière convaincante le public cible même si le candidat ne parlait pas la langue de l’électeur ».
La vidéo fabriquée par Tiwari a été largement utilisée pour dissuader l’importante population de travailleurs migrants de langue haryanvi à Delhi de voter pour le parti politique rival. Selon Bakshi, ces faux ont été distribués à travers 5 800 groupes WhatsApp dans la région de Delhi et de la RCN, touchant environ 15 millions de personnes.
Il n’est donc pas surprenant que la perspective de créer des entreprises de campagne utilisant des deepfakes pour influencer les masses ait alarmé les organisations de vérification des faits et les clins d’œil politiques. Nombreux sont ceux qui pensent que les deepfakes porteraient la guerre actuelle contre la désinformation et les fausses nouvelles à un tout autre niveau – une guerre qui a déjà été qualifiée de « crise de santé publique ».
Les « deepfakes » politiques : Un génie sorti de la bouteille
Depuis l’explosion de Deepfakes en 2017, cette technologie a été largement utilisée pour créer de fausses vidéos pornographiques en utilisant des séquences vidéo de célébrités existantes et des algorithmes d’IA. En fait, 96 % de ces vidéos sont de la pornographie de contrefaçon profonde non consensuelle. L’utilisation sans précédent, et donc problématique, de ces faux est liée au fait qu’une grande partie du code nécessaire à la fabrication des vidéos est disponible publiquement sur plusieurs sites web de dépôt de code, ce qui rend la création de telles vidéos très facile.
Sur le front politique, la technologie a d’abord attiré l’attention en 2018, lorsqu’un comédien se faisant passer pour Barack Obama a diffusé une vidéo d’intérêt public sur la façon dont les deepfakes peuvent être trompeurs.
Dans un incident moins connu, une apparition vidéo d’Ali Bongo, le président de la nation gabonaise d’Afrique de l’Est, a été considérée comme un faux-semblant, dont le point culminant a été un coup d’État manqué par les militaires du pays. Mais les retombées politiques de ces faux-semblants ont été assez limitées jusqu’à présent.
Cependant, avec des campagnes électorales truquées, nous entrons dans une ère où il sera impossible de faire confiance à ce que nous voyons et entendons. La vidéo de Tiwari, assis devant un mur de couleur verte et parlant à la caméra, a été utilisée pour reproduire une version contrefaite où il dit des choses qu’il n’a jamais vraiment dites, dans une langue qu’il ne connaît même pas ! Dans ce cas, le discours a été scénarisé, contrôlé et approuvé par le BJP pour la création des deepfakes. Mais il n’est pas difficile d’imaginer quelqu’un qui truque une vidéo pour proférer des menaces ou de la haine contre une partie spécifique de la population.
Alors que de nombreuses vidéos de deepfake populaires sont des faceswaps (échange de visages) complets, une version plus subtile consiste à modifier uniquement les mouvements des lèvres d’une vidéo originale pour qu’ils correspondent à l’audio cible. The Ideaz Factory prétend avoir réalisé cette dernière pour la vidéo de Tiwari. « Nous avons utilisé un algorithme de « synchronisation labiale » et l’avons entraîné avec les discours de Manoj Tiwari pour traduire les sons audio en formes de bouche de base », explique Sagar Vishnoi, le stratège en chef de l’Ideaz Factory. La firme a engagé un artiste de doublage pour imiter Tiwari lisant le script en Haryanvi, qui a ensuite été superposé sur la vidéo.
Bakshi, de BJP, affirme que la réaction à ces vidéos a été encourageante. « Les femmes au foyer du groupe ont dit qu’il était réconfortant de voir notre chef parler ma langue », a-t-il déclaré, en relatant l’un des commentaires sur un groupe de WhatsApp. Après la réponse « virale », le parti a continué avec une deuxième vidéo de Tiwari parlant anglais, destinée aux « électeurs urbains de Delhi ».
Le magazine sur Internet VICE a partagé les vidéos avec des chercheurs du Rochester Institute of Technology (RIT) à New York, qui pensent qu’il s’agit bien de deepfakes, mais attendent la confirmation de leur logiciel de détection automatique des deepfakes. Ideaz Factory a refusé de partager plus d’informations sur la technologie utilisée, mais Saniat Javid Sohrawardi, un chercheur sur les deepfakes au RIT, déclare que « à en juger par la chronologie de leurs travaux, je penserais qu’ils ont utilisé le code vid2vid de Nvidia ». Le seul autre algorithme connu pour réaliser cette tâche est face2face, une application qui a été utilisée pour réaliser la vidéo deepfake d’Obama.
En Inde, cependant, les deepfakes ont encore quelques décalages. Dans les vidéos de Tiwari, quelques membres des groupes de WhatsApp ont signalé une brève anomalie dans le mouvement de la bouche. Mais Vishnoi assure que, mis à part quelques coudes mineurs, « nous avons utilisé un outil qui n’a jusqu’à présent servi qu’à des campagnes négatives ou d’embuscade et l’avons fait débuter pour des campagnes positives ». Il admet que la technologie utilisée par son entreprise n’est actuellement pas assez mature pour générer synthétiquement la voix de la cible à l’aide d’algorithmes. Mais ils ont des plans pour étendre la campagne « positive » de Tiwari aux prochaines élections au Bihar et aux élections américaines de 2020.
Tarunima Prabhakar, cofondatrice de Tattle, un projet de technologie civique qui construit une archive consultable sur le contenu diffusé sur WhatsApp, déclare : « Le problème avec le discours de campagne « positif » est qu’il met le génie hors de la bouteille. Cela signifie que même si l’entreprise s’autoréglemente et décide de ne pas produire de vidéos malveillantes, d’autres entreprises, peut-être pas aussi ouvertement, trouveront d’autres utilisations pour armer cette technologie. « Le fait de dire que seules certaines formes de contrefaçons sont autorisées par les partis politiques, laisse beaucoup de place à la subjectivité et au pouvoir d’interprétation sur la définition de ces formes », explique Prabhakar.
Des lignes de vérité floues
L’augmentation du nombre de deepfakes, aidée par le nombre croissant d’outils et de services, a permis à des non-experts de créer facilement des vidéos deepfake. The Ideaz Factory n’est qu’une des nombreuses entreprises qui ont vu le jour en Inde pour profiter de cet accès. Il existe des portails de deepfake et des utilisateurs individuels dans le monde entier qui font de la publicité pour créer des deepfakes personnalisés pour seulement 30 dollars. Il va sans dire que cette faible barrière à l’entrée a entraîné une augmentation du nombre d’opérateurs clandestins de deepfake, le nombre de deepfakes ayant doublé pour atteindre 14 678 en 2019.
Cela signifie également que la plupart des contenus de contrefaçon contourneront inévitablement la vérification des faits et les experts et ressources techniques qui tentent de juguler la menace. Pratik Sinha, le fondateur d’AltNews, un site indien de vérification des faits qui vérifie les affirmations faites sur les médias sociaux, a déclaré : « À l’heure actuelle, il est impossible de vérifier les faits ou de vérifier que quelque chose que vous ne reconnaissez pas est falsifié ». Lorsque VICE a partagé les vidéos avec Sinha pour vérifier leur validité, AltNews n’a pas pu en déduire qu’elles étaient fausses. « C’est dangereux », déclare Sinha, dont l’organisation a vérifié des milliers d’images déformées et de vidéos manipulées au cours de ses trois années d’activité. « C’est la première fois que je vois quelque chose comme ça émerger en Inde. »
Dans un pays comme l’Inde, où la culture numérique est naissante, même les versions à faible technologie de la manipulation vidéo ont conduit à la violence. En 2018, plus de 30 décès ont été liés à des rumeurs circulant sur WhatsApp en Inde. « Deepfakes va être un surchargeur sur le type de désinformation que nous avons », a déclaré Sinha. Bien que les outils permettant de détecter de manière fiable les deepfakes ne soient pas disponibles actuellement, des chercheurs ont tenté d’en développer quelques-uns. Reality Defender, un plugin pour navigateur permettant de détecter les fausses vidéos, est l’un d’entre eux.
Cependant, des experts comme Sinha estiment qu’aucune entreprise ne devrait être autorisée à faire du commerce légitime avec des faux pour les campagnes électorales en Inde. En octobre de l’année dernière, l’État de Californie aux États-Unis a adopté une loi qui rend illégale la circulation de fausses vidéos de politiciens dans les 60 jours suivant une élection. Cette loi a été signée pour protéger les électeurs contre la désinformation. Mais Prabhakar ajoute qu’en Inde, la mise hors la loi des deepfakes est vouée à l’échec, car ils ne seraient jamais ouvertement approuvés par les partis politiques. « Ils continueraient seulement à être exploités par des sociétés fantômes », dit-elle.
Cependant, il pourrait y avoir une solution. Mme Vishnoi pense que le gouvernement devrait mettre en place une politique de lutte contre la désinformation dans son ensemble, et que la manière de contrer les faux-semblants négatifs passe par des campagnes de sensibilisation. Mais le Dr Matthew Wright, directeur du Centre pour la cybersécurité à RIT, considère l’émergence de la falsification profonde pour les campagnes électorales comme « un cas d’utilisation potentiellement positif tant qu’il y a divulgation ». « Pourquoi nos dirigeants politiques ne devraient-ils être accessibles qu’à ceux qui savent lire, en supposant que la traduction soit facilement disponible dans la bonne langue écrite », demande-t-il. « Mais si elle est utilisée de manière trompeuse, c’est une autre histoire, et je suis sûr que certains brouilleront les pistes ».
https://www.vice.com/en_in/article/jgedjb/the-first-use-of-deepfakes-in-indian-election-by-bjp
https://www.nytimes.com/2019/04/29/opinion/india-elections-disinformation.html
https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
https://twitter.com/liloulaliloula2/status/1080112632785457152
https://www.motherjones.com/politics/2019/03/deepfake-gabon-ali-bongo/
https://www.wxxinews.org/post/rit-develop-software-detect-deepfake-videos