Skip to main content

26 Juil, 2023

Il s’avère que les Deepfakes sont sacrément doués pour nous faire inventer de faux souvenirs

Il s’avère que les Deepfakes sont sacrément doués pour nous faire inventer de faux souvenirs

Une nouvelle étude montre que le visionnage de vidéos « deepfake » est un moyen facile d’amener les gens à se « souvenir » d’événements qui n’ont jamais eu lieu. Total Recall….

En 2005, Will Smith a joué dans un remake de Matrix. Le film a fait un petit malheur au box-office avant de tomber discrètement dans l’oubli. Vous vous en souvenez peut-être, ce qui serait étrange car on a tout simplement inventé ce film. Et pourtant, rien qu’en lisant ces deux phrases, il y a de fortes chances que bon nombre d’entre vous y aient cru. De plus, certains d’entre vous se sont peut-être même dit : « Oui, je me souviens que Will Smith a joué dans un remake de Matrix », alors que ce film n’a jamais existé.

Il s’agit d’un faux souvenir, un phénomène psychologique qui consiste à se souvenir de choses qui ne se sont jamais produites. Si l’histoire ci-dessus n’a pas suffi à vous piéger, ne vous inquiétez pas : vous avez probablement beaucoup de faux souvenirs qui remontent à votre enfance. Ce n’est pas un reproche, c’est humain. Nous nous racontons des histoires et, parfois, ces histoires sont racontées et redécrites si souvent qu’elles se transforment en quelque chose qui ne ressemble que très peu à l’événement d’origine.

Même de petits coups de pouce peuvent modifier votre mémoire. Dans les années 1970, une étude a montré que si l’on demande à un témoin d’accident automobile à quelle vitesse une voiture en a percuté une autre, il se souviendra que l’accident s’est produit beaucoup plus rapidement qu’il ne l’a probablement fait.

Toutefois, ce phénomène très humain peut aussi être facilement utilisé comme une arme contre nous pour diffuser des informations erronées et causer des dommages dans le monde réel. Avec la prolifération d’outils d’IA tels que la technologie deepfake, on craint même qu’elle ne soit utilisée à grande échelle pour manipuler les élections et diffuser de faux récits.

C’est ce qui ressort d’une étude publiée le 6 juillet dans PLOS One, selon laquelle les participants se souviennent à tort d’extraits de films qui n’existent pas réellement, grâce à la technologie deepfake. Certains spectateurs ont même estimé que les faux remakes étaient meilleurs que les originaux, ce qui souligne le pouvoir alarmant de la technologie du deepfake pour manipuler la mémoire.

Toutefois, il y a une lueur d’espoir : les auteurs de l’étude ont également constaté que de simples descriptions textuelles des faux remakes induisaient aussi efficacement de faux souvenirs chez les participants. En soi, cela semble être une mauvaise chose – et ça l’est !

Mais cette découverte suggère que les « deepfakes » de l’IA ne sont peut-être pas plus efficaces pour répandre la désinformation que des méthodes moins complexes sur le plan technologique. Nous nous retrouvons donc avec une image complexe des dommages que la technologie pourrait créer – certainement à craindre, mais aussi avec ses propres limites.

Les participants ont visionné des clips ou des descriptions de remakes de films. Certains étaient de véritables remakes de studio (par exemple Carrie, Tomb Raider), tandis que d’autres étaient des « deepfakes » fictifs : Brad Pitt dans Shining, Will Smith dans Matrix, Charlize Theron dans Captain Marvel, Chris Pratt dans Indiana Jones. pic.twitter.com/AhXnhQpaZY

– Gillian Murphy (@gillysmurf) 13 juillet 2023

« Nous ne devrions pas nous précipiter pour prédire des avenirs dystopiques sur la base de nos craintes concernant les technologies émergentes », a déclaré au Daily Beast l’auteur principal de l’étude, Gillian Murphy, chercheur en désinformation à l’University College Cork, en Irlande. « Il est vrai que les deepfakes ont des effets néfastes très réels, mais nous devrions toujours recueillir des preuves de ces effets néfastes en premier lieu, avant de nous précipiter pour résoudre des problèmes dont nous avons simplement supposé qu’ils pourraient exister.

Pour l’étude, les auteurs ont recruté un groupe de 436 personnes à qui ils ont demandé de visionner des clips de diverses vidéos « deepfakes » en leur disant qu’il s’agissait de remakes de vrais films. Il s’agissait notamment de Brad Pitt et Angelina Jolie dans Shining, Chris Pratt dans Indiana Jones, Charlize Theron dans Captain Marvel et, bien sûr, Will Smith dans The Matrix. Les participants ont également regardé des clips de remakes réels, notamment Carrie, Total Recall et Charlie et la chocolaterie. Pendant ce temps, certains participants ont reçu une description textuelle du faux remake.

Les chercheurs ont constaté qu’en moyenne 49 % des participants croyaient que les vidéos truquées étaient réelles. Une bonne partie de ce groupe a déclaré que le remake était meilleur que l’original. Par exemple, 41 % des participants ont déclaré que le remake de Captain Marvel était meilleur que l’original, tandis que 12 % ont déclaré que le remake de Matrix était meilleur.

Tous les films ont été présentés comme s’ils étaient réels et on a demandé aux participants s’ils les avaient vus et s’ils les comparaient à l’original. pic.twitter.com/MYxzAJnrDy

– Gillian Murphy (@gillysmurf) 13 juillet 2023

Toutefois, les résultats ont montré que lorsque les participants recevaient une description textuelle du deepfake, celui-ci faisait aussi bien, voire mieux, que la vidéo. Cela pourrait suggérer que les moyens éprouvés de désinformation et de déformation de la réalité, tels que les articles de fausses nouvelles, pourraient être tout aussi efficaces que l’utilisation de l’IA.

« Nos résultats ne sont pas particulièrement inquiétants, car ils ne suggèrent pas que les « deepfakes » représentent une menace particulièrement puissante par rapport aux formes existantes de désinformation », a expliqué Gillian Murphy. Elle ajoute toutefois que l’étude n’a porté que sur la mémoire à court terme. « Il se peut que les deepfakes soient un vecteur plus puissant de diffusion de la désinformation, par exemple parce qu’ils sont plus susceptibles de devenir viraux ou qu’ils sont plus mémorables à long terme.

Cela renvoie à un problème plus large qui est à la base de la désinformation : le raisonnement motivé, ou la manière dont les gens laissent leurs préjugés percevoir l’information. Par exemple, si vous pensez que les élections de 2020 ont été volées, vous serez plus enclin à croire une vidéo truquée montrant quelqu’un en train de bourrer des urnes que quelqu’un qui pense qu’elles n’ont pas été volées.

« C’est le gros problème de la désinformation », a déclaré au Daily Beast Christopher Schwartz, chercheur en cybersécurité et en désinformation au Rochester Institute of Technology, qui n’a pas participé à l’étude. « Plus que la qualité de l’information et la qualité des sources, le problème est que lorsque les gens veulent que quelque chose soit vrai, ils essaient de le faire passer pour vrai.

Selon Mr Schwartz, le raisonnement motivé explique en grande partie pourquoi notre paysage culturel et politique actuel est tel qu’il est. Si les humains ne sont pas nécessairement influencés par les « deepfakes » ou les « fake news », ils sont en revanche plus enclins à rechercher des articles et des opinions qui confirment leur vision du monde. Nous nous enfermons dans nos propres bulles numériques et sociales où nous voyons et entendons les mêmes pensées répétées, jusqu’à ce que nous soyons convaincus que ce que nous croyons est la seule chose qui soit vraie.

Un tel climat devient alors un terrain fertile pour que quelque chose comme un deepfake d’IA montrant l’arrestation de Donald Trump ou l’incendie du Pentagone prenne racine et devienne incontrôlable. Bien sûr, cela peut sembler ridicule, mais lorsque cela confirme ce que nous croyons déjà être vrai, notre cerveau le rendra aussi réel que nous en avons besoin.

Heureusement, il y a de l’espoir. Selon Gillian Murphy, les participants à l’étude ont largement approuvé l’utilisation de l’IA pour créer de faux personnages dans les films, mais se sont inquiétés du risque d’abus envers les acteurs concernés. Cela suggère que les gens pourraient être largement défavorables à l’IA et aux deepfakes, ce qui pourrait décourager l’utilisation future de ces technologies dans les médias.

« Ils ne voulaient pas regarder un film remanié dans lequel les acteurs n’étaient pas correctement rémunérés ou n’avaient pas consenti à leur inclusion dans le projet », a-t-elle déclaré. Ils considéraient un tel processus comme « inauthentique » et « en faillite artistique ».

En ce qui concerne la désinformation, Mme Schwartz estime que la solution réside dans deux des questions les plus controversées de la société américaine moderne : l’éducation et les médias. Tout d’abord, les gens doivent être suffisamment au fait de la technologie pour savoir comment identifier un « deepfake ». Deuxièmement, ils doivent être prêts à remettre en question leurs hypothèses lorsqu’il s’agit d’images, d’articles ou d’autres médias qui confirment leurs croyances. Cela peut et doit commencer dans les salles de classe, où les gens peuvent comprendre ces questions tôt et souvent.

De même, les salles de presse et les organisations médiatiques ont le devoir non seulement de sensibiliser le public aux dangers que représentent les IA deepfakes, mais aussi de dénoncer la désinformation lorsqu’elle se produit.

« Ces articles sensibilisent le public, ce qui aura un effet vaccinal sur [la désinformation en matière d’IA] », a déclaré Mr Schwartz. « Les gens en général seront sur leurs gardes et sauront qu’ils sont ciblés.

Considérez donc qu’il s’agit là d’un avertissement : Nous sommes à une époque où l’IA générative qui crée des textes, des images et des vidéos ne cesse d’exploser à un rythme exponentiel. Ces outils deviendront de plus en plus puissants et de plus en plus courants au fil des jours. Ils seront utilisés contre vous et l’ont déjà été.

Cela peut être effrayant et c’est certainement déroutant. Mais le fait de savoir que cela existe est la première étape pour déterminer ce qui est vrai et ce qui est faux – et cela pourrait faire toute la différence.

« Nous disposons des outils nécessaires pour lutter contre ce genre de choses », conclut Christopher Schwartz. « Notre capacité à raisonner est un don de Dieu. Nous devons l’utiliser et nous pouvons l’utiliser.

https://www.thedailybeast.com/deepfake-videos-trick-us-into-inventing-false-memories-new-study-finds
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0287503