Des Deepfakes de victimes de crimes authentiques, créés par l’intelligence artificielle sont un véritable cauchemar éveillé
Des Deepfakes de victimes de crimes authentiques, créés par l’intelligence artificielle sont un véritable cauchemar éveillé

Des comptes TikTok publient d’horribles clips générés par l’intelligence artificielle, dans lesquels des victimes de meurtres – des enfants pour la plupart – décrivent leur effroyable fin.
Les vidéos générées par l’intelligence artificielle, qui sont basées sur des images d’enfants réellement abusés, sont de plus en plus populaires sur TikTok. (Toute ressemblance avec une personne réelle est fortuite.) @TOUCHINGSTORY4U/TIKTOK
« Grand-mère m’a enfermé dans un four à 230 degrés alors que je n’avais que 21 mois », déclare le bébé chérubin aux yeux bleus géants et au bandeau fleuri dans la vidéo TikTok. Le bébé, qui parle d’une voix adorablement enfantine sur la mélodie plaintive de « Love Is Gone » de Dylan Mathew, s’identifie comme Rody Marie Floyd, une petite fille qui vivait avec sa mère et sa grand-mère dans le Mississippi. Elle raconte qu’un jour, elle avait faim et n’arrêtait pas de pleurer, ce qui a poussé sa grand-mère à la mettre dans le four, entraînant sa mort. « S’il vous plaît, suivez-moi pour que plus de gens connaissent ma véritable histoire », dit le bébé à la fin de la vidéo.
Le bébé de la vidéo n’est évidemment pas réel : il s’agit d’une création générée par l’IA et postée sur @truestorynow, un compte qui compte près de 50 000 adeptes et qui publie des vidéos de victimes d’actes criminels réels racontant leur histoire. L’histoire horrible qu’elle raconte est vraie, mais jusqu’à un certain point. Le bébé ne s’appelait pas Rody Marie, mais Royalty Marie, et il a été retrouvé poignardé à mort et brûlé dans un four dans la maison de sa grand-mère dans le Mississippi en 2018 ; la grand-mère, Carolyn Jones, 48 ans, a été inculpée de meurtre au premier degré plus tôt cette année. Mais Royalty avait 20 mois lorsqu’elle est morte, et non 21, et contrairement au bébé de la vidéo TikTok, elle était noire et non blanche.
De telles inexactitudes sont monnaie courante dans le monde grotesque des vidéos TikTok de victimes de crimes réels, un sous-genre de l’énorme fandom des crimes réels, qui utilise l’intelligence artificielle pour ressusciter des victimes de meurtres, dont beaucoup sont de jeunes enfants. Les vidéos, dont certaines ont été visionnées des millions de fois, montrent une victime s’exprimant à la première personne sur les détails horribles de sa mort ; la plupart d’entre elles ne sont pas précédées d’un avertissement sur le contenu.
« Elles sont assez étranges et effrayantes », déclare Paul Bleakley, professeur adjoint de justice pénale à l’université de New Haven. Elles semblent conçues pour déclencher des réactions émotionnelles fortes, car c’est le moyen le plus sûr d’obtenir des clics et des mentions « J’aime ». C’est désagréable à regarder, mais je pense que c’est peut-être le but recherché ».
De nombreux comptes comportent une clause de non-responsabilité indiquant que la vidéo n’utilise pas de vraies photos des victimes, afin de « respecter la famille », comme l’indique Nostalgia Narratives, un compte qui publie des vidéos d’IA de victimes de crimes authentiques et qui compte 175 000 adeptes, dans les légendes des vidéos. Le compte raconte non seulement l’histoire d’enfants victimes de meurtres célèbres comme Elisa Izquierdo, une fillette de six ans assassinée par sa mère violente en 1995, et Star Hobson, un enfant d’un an assassiné par la petite amie de sa mère en 2020, mais aussi celle d’adultes victimes de meurtres comme George Floyd et JFK.
Aucun des comptes contactés par Rolling Stone n’a répondu aux demandes de commentaires, mais le fait qu’ils modifient l’apparence des victimes est probablement dû aux directives de la communauté TikTok interdisant les fausses représentations profondes de personnes privées ou de jeunes, une politique que la plateforme a instituée en mars. (Un porte-parole de TikTok a confirmé à Rolling Stone que @truestorynow avait été supprimé pour avoir enfreint les directives de la communauté).
La prolifération de ces vidéos de victimes de crimes authentiques sur TikTok est la dernière question éthique soulevée par l’immense popularité du genre « true-crime » en général. Bien que des documentaires comme The Jinx et Making a Murderer et des podcasts comme Crime Junkie et My Favorite Murder aient suscité un immense culte, de nombreux critiques du genre se sont interrogés sur les implications éthiques de la consommation par le public d’histoires réelles d’agressions et de meurtres horribles en tant que pur divertissement, l’augmentation du nombre de détectives en fauteuil et d’obsédés du crime vrai risquant de traumatiser à nouveau les proches des victimes.
Cette préoccupation s’applique doublement aux vidéos comme celle de Royalty, qui racontent l’histoire d’une victime de son point de vue et utilisent son nom, vraisemblablement sans le consentement de la famille, avec un effet incroyablement effrayant. « Ce genre de vidéo peut réellement revictimiser des personnes qui ont déjà été victimes d’actes criminels », explique M. Bleakley. « Imaginez que vous soyez le parent ou le proche de l’un de ces enfants dans ces vidéos d’IA. Vous allez en ligne, et avec cette étrange voix aiguë, voici une image d’IA [basée sur] votre enfant décédé, racontant en détail ce qui lui est arrivé ».
Il y a cependant un petit côté positif : les deux comptes mentionnés par Rolling Stone ont maintenant été supprimés, alors peut-être que la modération de contenu interne de TikTok fonctionne après tout.