Skip to main content

3 Jan, 2024

Les informations d’identification de contenu combattront les deepfakes lors des élections de 2024 aux Etats-Unis

Les informations d’identification de contenu combattront les deepfakes lors des élections de 2024 aux Etats-Unis

Les médias combattent la désinformation grâce à des manifestes numériques

En avril dernier, une publicité de campagne est apparue sur la chaîne youtube du comité national républicain. La publicité montrait une série d’images : le président Joe Biden célébrant sa réélection, les rues des villes américaines avec leurs banques fermées et la police anti-émeute, et les immigrants traversant la frontière entre les Etats-Unis et le Mexique. La légende de la vidéo disait : « un regard généré par l’IA sur l’avenir possible du pays si Joe Biden est réélu en 2024. »

Même si cette publicité parlait franchement de son utilisation de l’IA, la plupart des photos et vidéos truquées ne le sont pas : le même mois, un faux clip vidéo a circulé sur les réseaux sociaux prétendant montrer Hillary Clinton soutenant le candidat républicain à la présidentielle, Ron DeSantis. L’essor extraordinaire de l’IA générative au cours des dernières années signifie que la campagne électorale américaine de 2024 ne se contentera pas d’opposer un candidat contre un autre : elle sera également un combat entre la vérité et le mensonge. Et les élections américaines sont loin d’être les seules élections à enjeux élevés cette année. Selon l’ Integrity Institute , une organisation à but non lucratif axée sur l’amélioration des médias sociaux, 78 pays organiseront des élections majeures en 2024.

Heureusement, de nombreuses personnes se préparaient à ce moment. L’un d’eux est Andrew Jenks , directeur des projets de provenance des médias chez Microsoft . Les images et vidéos synthétiques, également appelées deepfakes , « vont avoir un impact » sur l’élection présidentielle américaine de 2024, dit-il. « Notre objectif est d’atténuer cet impact autant que possible. » Jenks est président de la Coalition for Content Provenance and Authenticity (C2PA), une organisation qui développe des méthodes techniques pour documenter l’origine et l’historique des fichiers multimédias numériques, réels et faux. En novembre, Microsoft a également lancé une initiative visant à aider les campagnes politiques à utiliser les informations d’identification du contenu .

Le groupe C2PA rassemble la Content Authenticity Initiative dirigée par Adobe et un effort en provenance des médias dénommé Project Origin ; en 2021, il a publié ses premières normes pour attacher des métadonnées cryptographiquement sécurisées aux fichiers image et vidéo. Dans son système, toute altération du fichier est automatiquement reflétée dans les métadonnées, brisant le sceau cryptographique et mettant en évidence toute falsification. Si la personne qui modifie le fichier utilise un outil prenant en charge l’identification du contenu, les informations sur les modifications sont ajoutées au manifeste qui accompagne l’image.

Depuis la publication des normes, le groupe a continué à développer les spécifications open source et à les mettre en œuvre avec des sociétés de médias de premier plan : la BBC, la Société Radio-Canada (CBC) et le New York Times sont tous membres du C2PA. Pour les sociétés de médias, les informations d’identification du contenu sont un moyen d’instaurer la confiance à une époque où la désinformation généralisée permet aux gens de crier au « faux » sur tout ce avec quoi ils ne sont pas d’accord (un phénomène connu sous le nom de dividende du menteur (the liar’s dividend)). « Il est vraiment important que votre contenu soit un phare qui brille à travers l’obscurité », déclare Laura Ellis , responsable des prévisions technologiques à la BBC.

Cette année, le déploiement des informations d’identification de contenu commencera sérieusement, stimulé par les nouvelles réglementations sur l’IA aux États-Unis et ailleurs . «Je pense que 2024 sera la première fois que ma grand-mère rencontrera des informations d’identification de contenu», déclare Andrew Jenks.

Pourquoi avons-nous besoin d’informations d’identification de contenu ?

Dans le système d’identification du contenu, une photo originale est complétée par des informations de provenance et une signature numérique qui sont regroupées dans un manifeste inviolable. Si un autre utilisateur modifie la photo à l’aide d’un outil approuvé, de nouvelles affirmations sont ajoutées au manifeste. Lorsque l’image apparaît sur une page Web, les internautes peuvent cliquer sur le logo des informations d’identification du contenu pour obtenir des informations sur la manière dont l’image a été créée et modifiée. C2PA

Le nœud du problème est que les outils de génération d’images tels que DALL-E 2 et Midjourney permettent à quiconque de créer facilement des photos réalistes mais fausses d’événements qui ne se sont jamais produits, et des outils similaires existent pour la vidéo. 

Alors que les principales plateformes d’IA générative disposent de protocoles pour empêcher les gens de créer de fausses photos ou vidéos de personnes réelles, comme des politiciens, de nombreux pirates informatiques s’amusent à « jailbreaker » ces systèmes et à trouver des moyens de contourner les contrôles de sécurité. Et les plateformes moins réputées disposent de moins de garanties.

Dans ce contexte, quelques grandes organisations médiatiques s’efforcent d’utiliser le système d’identification de contenu du C2PA pour permettre aux internautes de vérifier les manifestes qui accompagnent les images et vidéos validées. Les images authentifiées par le système C2PA peuvent inclure une petite icône « cr » dans le coin ; les utilisateurs peuvent cliquer dessus pour voir toutes les informations disponibles sur cette image : quand et comment l’image a été créée, qui l’a publiée pour la première fois, quels outils ils ont utilisés pour la modifier, comment elle a été modifiée, etc. Cependant, les téléspectateurs ne verront ces informations que s’ils utilisent une plate-forme ou une application de médias sociaux capable de lire et d’afficher les données d’identification du contenu.

Le même système peut être utilisé par les sociétés d’IA qui créent des outils de génération d’images et de vidéos ; dans ce cas, le média synthétique créé serait étiqueté comme tel. Certaines entreprises sont déjà à bord : Adobe , cofondateur du C2PA, génère les métadonnées pertinentes pour chaque image créée avec son outil de génération d’images, Firefly , et Microsoft fait de même avec son Bing Image Creator.

L’évolution vers les informations d’identification de contenu intervient alors que l’enthousiasme pour les systèmes automatisés de détection des deepfakes s’estompe. Selon Ellis de la BBC, « nous avons décidé que la détection des deepfakes était un espace de jeu de guerre », ce qui signifie que le meilleur détecteur actuel pourrait être utilisé pour former un générateur de deepfake encore meilleur. Les détecteurs ne sont pas non plus très bons. En 2020, le Deepfake Detection Challenge de Meta a décerné le premier prix à un système qui n’avait qu’une précision de 65 % pour distinguer le vrai du faux.

Bien que seules quelques entreprises intègrent jusqu’à présent des informations d’identification de contenu, des réglementations sont actuellement en cours d’élaboration pour encourager cette pratique. La loi de l’Union européenne sur l’IA , en cours de finalisation, exige que les contenus synthétiques soient étiquetés. Aux États-Unis, la Maison Blanche a récemment publié un décret sur l’IA qui oblige le ministère du Commerce à élaborer des lignes directrices pour l’authentification du contenu et l’étiquetage du contenu synthétique.

Bruce MacCormack , président de Project Origin et membre du comité directeur du C2PA, affirme que les grandes entreprises d’IA ont commencé à s’engager sur la voie de l’authentification du contenu à la mi-2023, lorsqu’elles ont signé des engagements volontaires avec la Maison Blanche, notamment un engagement à filigraner le contenu synthétique. «Ils ont tous accepté de faire quelque chose », note-t-il. « Ils n’étaient pas d’accord pour faire la même chose. Le décret est la fonction motrice pour forcer tout le monde à entrer dans le même espace. »

Que se passera-t-il avec les informations d’identification de contenu en 2024

Certaines personnes comparent les informations d’identification du contenu à une étiquette nutritionnelle : s’agit-il d’un média indésirable ou de quelque chose fabriqué avec de vrais ingrédients sains ? Tessa Sproule , directrice des métadonnées et des systèmes d’information à la CBC, dit qu’elle considère cela comme une chaîne de traçabilité utilisée pour suivre les preuves dans les affaires judiciaires : « Ce sont des informations sécurisées qui peuvent croître tout au long du cycle de vie du contenu d’une image fixe », dit-elle. dit. « Vous l’appliquez à l’entrée, puis lorsque nous manipulons l’image via un recadrage dans Photoshop, ces informations sont également suivies. »

Tessa Sproule affirme que son équipe a remanié les systèmes internes de gestion d’images et conçu l’expérience utilisateur avec des couches d’informations que les utilisateurs peuvent exploiter, en fonction de leur niveau d’intérêt. Elle espère lancer, d’ici mi-2024, un système d’identification du contenu qui sera visible par tout spectateur externe utilisant un type de logiciel reconnaissant les métadonnées. Tessa Sproule dit que son équipe souhaite également revenir dans ses archives et ajouter des métadonnées à ces fichiers.

À la BBC, Ellis dit qu’ils ont déjà fait des essais pour ajouter des métadonnées d’identification de contenu aux images fixes, mais « là où nous avons besoin que cela fonctionne, c’est sur les plateformes [de médias sociaux] ». Après tout, il est moins probable que les téléspectateurs doutent de l’authenticité d’une photo sur le site Web de la BBC que s’ils rencontraient la même image sur Facebook . 

La BBC et ses partenaires ont également organisé des ateliers avec des organisations médiatiques pour discuter de l’intégration de systèmes d’accréditation de contenu. Conscient qu’il peut être difficile pour les petits éditeurs d’adapter leurs flux de travail, le groupe d’Ellis explore également l’idée de « centres de services » auxquels les éditeurs pourraient envoyer leurs images pour validation et certification ; les images seraient renvoyées avec des métadonnées cryptographiquement hachées attestant de leur authenticité.

MacCormack note que les premiers utilisateurs ne sont pas nécessairement désireux de commencer à faire de la publicité pour leurs informations d’identification de contenu, car ils ne veulent pas que les internautes doutent d’une image ou d’une vidéo qui n’a pas la petite icône « cr » dans le coin. « Il doit y avoir une masse critique d’informations contenant des métadonnées avant de dire aux gens de les rechercher », dit-il.

Au-delà du secteur des médias, la nouvelle initiative de Microsoft pour les campagnes politiques , appelée Content Credentials as a Service, vise à aider les candidats à contrôler leurs propres images et messages en leur permettant de tamponner le matériel de campagne authentique avec des métadonnées sécurisées. Un article de blog de Microsoft indique que le service « sera lancé au printemps en tant qu’aperçu privé » et sera disponible gratuitement pour les campagnes politiques. Un porte-parole a déclaré que Microsoft étudiait des idées pour ce service, qui « pourrait éventuellement devenir une offre payante » plus largement disponible.

Les grandes plateformes de médias sociaux n’ont pas encore rendu public leurs projets d’utilisation et d’affichage des informations d’identification du contenu, mais Claire Leibowicz , responsable de l’IA et de l’intégrité des médias pour le Partenariat sur l’IA, affirme qu’elles ont été « très engagées » dans les discussions. 

Des entreprises comme Meta réfléchissent désormais à l’expérience utilisateur, dit-elle, et réfléchissent également aux aspects pratiques. Elle cite comme exemple les exigences de calcul : « Si vous ajoutez un filigrane à chaque élément de contenu sur Facebook, cela entraînera-t-il un décalage qui obligera les utilisateurs à se déconnecter ? » Claire Leibowicz s’attend à ce que la réglementation soit le plus grand catalyseur de l’adoption des informations d’identification de contenu, et elle souhaite obtenir plus d’informations sur la manière dont le décret de Biden sera promulgué.

Avant même que les informations d’identification du contenu ne commencent à apparaître dans les flux des utilisateurs, les plateformes de médias sociaux peuvent utiliser ces métadonnées dans leurs algorithmes de filtrage et de classement pour trouver du contenu fiable à recommander. « La valeur apparaît bien avant qu’elle ne devienne une technologie destinée au consommateur », déclare MacCormack de Project Origin. Les systèmes qui gèrent les flux d’informations depuis les éditeurs vers les plateformes de médias sociaux « seront opérationnels bien avant que nous commencions à éduquer les consommateurs », dit-il.

Si les plateformes de réseaux sociaux représentent la fin du processus de distribution d’images, les caméras qui enregistrent les images et les vidéos n’en sont que le début. En octobre, Leica a dévoilé le premier appareil photo doté d’ informations d’identification de contenu intégrées ; Les sociétés membres du C2PA, Nikon et Canon, ont également fabriqué des prototypes d’appareils photo intégrant une accréditation. 

Mais l’intégration matérielle doit être considérée comme « une étape de croissance », déclare Jenks de Microsoft. « Dans le meilleur des cas, vous commencez par l’objectif lorsque vous capturez quelque chose, et vous avez cette chaîne de confiance numérique qui s’étend jusqu’à l’endroit où quelque chose est consommé sur une page Web », dit-il. « Mais il est toujours utile de parcourir ce dernier kilomètre. »

https://spectrum.ieee.org/deepfakes-election

NDLR : Ceci n’est qu’un exemple de ce qu’il va se passer lors des prochaines élections présidentielles aux Etats-Unis. Imaginez les évènements qui vont se dérouler pour les élections en 2027 en France.