Skip to main content

20 Juin, 2023

Les images sexuelles d’enfants générées par l’IA font naître un nouveau cauchemar sur le web

Les images sexuelles d’enfants générées par l’IA font naître un nouveau cauchemar sur le web

Les enquêteurs affirment que ces images troublantes pourraient nuire aux efforts déployés pour retrouver les victimes du monde réel.

La révolution de l’intelligence artificielle a provoqué une explosion d’images troublantes et réalistes montrant l’exploitation sexuelle d’enfants, ce qui fait craindre aux enquêteurs chargés de la sécurité des enfants qu’elles ne sapent les efforts déployés pour trouver les victimes et lutter contre les abus dans le monde réel.

Les outils d’IA générative ont déclenché ce qu’un analyste a appelé une « course aux armements prédateurs » sur les forums pédophiles parce qu’ils peuvent créer en quelques secondes des images réalistes d’enfants se livrant à des actes sexuels, ce que l’on appelle communément la pédopornographie.

Des milliers d’images pédo sexuelles générées par l’IA ont été trouvées sur des forums du dark web, une couche de l’internet visible uniquement à l’aide de navigateurs spéciaux, certains participants partageant des guides détaillés sur la manière dont d’autres pédophiles peuvent réaliser leurs propres créations.

« Les images d’enfants, y compris le contenu de victimes connues, sont réutilisées à des fins vraiment maléfiques », a déclaré Rebecca Portnoff, directrice Data Science chez Thorn, un groupe à but non lucratif de protection de l’enfance qui a constaté une augmentation mensuelle de la prévalence des images depuis l’automne dernier.

« L’identification des victimes est déjà un problème d’aiguille dans une botte de foin, lorsque les forces de l’ordre essaient de trouver un enfant en danger », a-t-elle déclaré. « La facilité d’utilisation de ces outils est un changement important, tout comme le réalisme. La facilité d’utilisation de ces outils est un changement important, tout comme le réalisme. Cela rend tout plus difficile. »

L’afflux d’images pourrait déconcerter le système de suivi central mis en place pour bloquer ce type de matériel sur le web, car il n’est conçu que pour repérer les images d’abus connues, et non pour détecter celles qui sont nouvellement créées. Il risque également de submerger les responsables de l’application de la loi qui travaillent à l’identification des enfants victimes et qui devront passer du temps à déterminer si les images sont vraies ou fausses.

Les images ont également suscité un débat sur la question de savoir si elles violent les lois fédérales sur la protection de l’enfance, car elles représentent souvent des enfants qui n’existent pas. Les fonctionnaires du ministère de la justice qui luttent contre l’exploitation des enfants affirment que ces images restent illégales même si l’enfant représenté est généré par l’IA, mais ils n’ont pu citer aucun cas dans lequel un suspect a été inculpé pour avoir créé une telle image.

Les nouveaux outils d’IA, connus sous le nom de modèles de diffusion, permettent à quiconque de créer une image convaincante simplement en tapant une brève description de ce qu’il veut voir. Les modèles, tels que DALL-E, Midjourney et Stable Diffusion, ont été alimentés par des milliards d’images tirées de l’Internet, dont beaucoup montraient de vrais enfants et provenaient de sites de photos et de blogs personnels. Ils imitent ensuite ces modèles visuels pour créer leurs propres images.

Ces outils ont été célébrés pour leur inventivité visuelle et ont été utilisés pour gagner des concours d’arts plastiques, illustrer des livres pour enfants et créer de fausses photos d’actualité, ainsi que pour créer de la pornographie synthétique avec des personnages inexistants qui ressemblent à des adultes.

Mais ils ont aussi augmenté la vitesse et l’ampleur avec lesquelles les pédophiles peuvent créer de nouvelles images explicites, car ces outils nécessitent moins de sophistication technique que les méthodes antérieures, telles que la superposition de visages d’enfants sur des corps d’adultes à l’aide de « deepfakes », et peuvent rapidement générer de nombreuses images à partir d’une seule commande.

Les forums pédophiles ne permettent pas toujours de savoir comment les images générées par l’IA ont été créées. Mais les experts en sécurité des enfants ont déclaré que nombre d’entre elles semblaient s’appuyer sur des outils open-source, tels que Stable Diffusion, qui peuvent être utilisés sans restriction et sans contrôle.

Stability AI, qui gère Stable Diffusion, a déclaré dans un communiqué qu’il interdisait la création d’images d’abus sexuels sur des enfants, qu’il aidait les forces de l’ordre à enquêter sur les utilisations « illégales ou malveillantes » et qu’il avait supprimé le matériel explicite de ses données d’entraînement, réduisant ainsi « la capacité des mauvais acteurs à générer du contenu obscène ».

Mais n’importe qui peut télécharger l’outil sur son ordinateur et l’utiliser comme bon lui semble, échappant ainsi largement aux règles et à la surveillance de l’entreprise. La licence open-source de l’outil demande aux utilisateurs de ne pas l’utiliser « pour exploiter ou nuire à des mineurs de quelque manière que ce soit », mais ses fonctions de sécurité sous-jacentes, notamment un filtre pour les images explicites, sont facilement contournées grâce à quelques lignes de code qu’un utilisateur peut ajouter au programme.

Les testeurs de Stable Diffusion discutent depuis des mois du risque que l’IA soit utilisée pour imiter les visages et les corps d’enfants, selon une étude du Washington Post portant sur des conversations sur le service de chat Discord.

Un commentateur a indiqué avoir vu quelqu’un utiliser l’outil pour essayer de générer de fausses photos de maillots de bain d’une enfant actrice, le qualifiant de « quelque chose d’horrible qui ne demande qu’à se produire ».

Mais l’entreprise a défendu son approche open-source comme étant importante pour la liberté de création des utilisateurs. Le directeur général de Stability AI, Emad Mostaque, a déclaré l’année dernière à The Verge qu' »en fin de compte, c’est la responsabilité des gens de savoir s’ils sont éthiques, moraux et légaux dans la manière dont ils utilisent cette technologie », ajoutant que « les mauvaises choses que les gens créent … ne représenteront qu’un très, très faible pourcentage de l’utilisation totale ».

Les principaux concurrents de Stable Diffusion, Dall-E et Midjourney, interdisent les contenus à caractère sexuel et ne sont pas fournis en open source, ce qui signifie que leur utilisation est limitée aux canaux gérés par l’entreprise et que toutes les images sont enregistrées et suivies.

OpenAI, le laboratoire de recherche de San Francisco à l’origine de Dall-E et de ChatGPT, emploie des contrôleurs humains pour faire respecter ses règles, notamment l’interdiction des contenus à caractère sexuel destinés aux enfants, et a supprimé les contenus explicites des données d’entraînement de son générateur d’images afin de minimiser son « exposition à ces concepts », a déclaré un porte-parole.

« Les entreprises privées ne veulent pas participer à la création du pire type de contenu sur l’internet », a déclaré Kate Klonick, professeur agrégé de droit à l’université St. « Mais ce qui m’effraie le plus, c’est la diffusion libre de ces outils, qui permet à des individus ou à des organisations peu scrupuleuses de les utiliser et de disparaître. Il n’y a pas de moyen simple et coordonné de faire tomber des acteurs décentralisés de ce type.

Sur les forums pédophiles du dark web, les utilisateurs discutent ouvertement de stratégies pour créer des photos explicites et contourner les filtres anti-pornographiques, notamment en utilisant des langues autres que l’anglais qu’ils estiment moins vulnérables à la suppression ou à la détection, selon les analystes de la sécurité des enfants.

Sur un forum comptant 3 000 membres, environ 80 % des personnes interrogées lors d’un récent sondage interne ont déclaré avoir utilisé ou avoir l’intention d’utiliser des outils d’IA pour créer des images d’abus sexuels sur des enfants, précise Avi Jager, responsable de la sécurité des enfants et de l’exploitation humaine chez ActiveFence, qui collabore avec les médias sociaux et les sites de diffusion en continu pour détecter les contenus malveillants.

Les membres du forum ont discuté des moyens de créer des selfies générés par l’IA et de construire un faux personnage d’âge scolaire dans l’espoir de gagner la confiance d’autres enfants, a déclaré M. Jager.  Rebecca Portnoff, de Thorn, a déclaré que son groupe avait également vu des cas où de vraies photos d’enfants maltraités avaient été utilisées pour entraîner l’outil d’IA à créer de nouvelles images montrant ces enfants dans des positions sexuelles.

Yiota Souras, directrice juridique du National Center for Missing and Exploited Children, une organisation à but non lucratif qui gère une base de données utilisée par les entreprises pour signaler et bloquer les contenus à caractère sexuel destinés aux enfants, a déclaré que son groupe avait reçu une forte augmentation des signalements d’images générées par l’IA au cours des derniers mois, ainsi que des signalements de personnes téléchargeant des images d’abus sexuels sur des enfants dans les outils d’IA dans l’espoir d’en générer d’autres.

Bien qu’il ne s’agisse que d’une petite fraction des 32 millions de signalements reçus par le groupe l’année dernière, la prévalence croissante et le réalisme des images menacent d’épuiser le temps et l’énergie des enquêteurs qui s’efforcent d’identifier les enfants victimes et n’ont pas la possibilité de donner suite à tous les signalements.

Le FBI a déclaré dans une alerte ce mois-ci qu’il avait constaté une augmentation des signalements concernant des enfants dont les photos avaient été modifiées en « images à thème sexuel qui semblent plus vraies que nature ».

« Quelles sont les priorités des forces de l’ordre ? se demande Yiota Souras. « Sur quoi enquêtent-ils ? Quelle est la place exacte de ces images dans le système juridique ?

Certains analystes juridiques ont fait valoir que le matériel se situe dans une zone grise juridique, car les images entièrement générées par l’IA ne représentent pas un enfant réel en train de subir un préjudice. En 2002, la Cour suprême a annulé deux dispositions de l’interdiction de la « pornographie enfantine virtuelle » décrétée par le Congrès en 1996, estimant que son libellé était suffisamment large pour criminaliser certaines représentations littéraires de la sexualité des adolescents.

Les défenseurs de l’interdiction ont fait valoir à l’époque que cette décision compliquerait la tâche des procureurs dans les affaires d’abus sexuel d’enfants, car les défendeurs pourraient prétendre que les images ne montrent pas de vrais enfants.

Dans son opinion dissidente, le président de la Cour suprême américaine, William H. Rehnquist, a écrit : « Le Congrès a un intérêt impérieux à garantir la possibilité de faire respecter les interdictions relatives à la pornographie enfantine réelle, et nous devrions nous en remettre à ses conclusions selon lesquelles l’évolution rapide de la technologie rendra bientôt cette tâche pratiquement impossible ».

Daniel Lyons, professeur de droit au Boston College, estime que la décision mérite probablement d’être réexaminée, compte tenu de l’évolution de la technologie au cours des deux dernières décennies.

« À l’époque, il était techniquement difficile de produire du matériel virtuel [d’abus sexuel d’enfants] de manière à ce qu’il puisse se substituer au matériel réel », a-t-il déclaré. « L’écart entre la réalité et les matériels générés par l’IA s’est réduit, et ce qui n’était qu’une expérience de pensée est devenu un problème potentiellement majeur dans la vie réelle.

Deux fonctionnaires de la section « Exploitation des enfants et obscénité » du ministère de la justice ont déclaré que les images étaient illégales en vertu d’une loi qui interdit toute image générée par ordinateur qui est sexuellement explicite et représente une personne qui est « virtuellement impossible à distinguer » d’un enfant réel.

Ils citent également une autre loi fédérale, adoptée en 2003, qui interdit toute image générée par ordinateur montrant un enfant se livrant à un comportement sexuellement explicite si elle est obscène et dépourvue de valeur artistique sérieuse. La loi précise que « l’existence réelle du mineur représenté n’est pas un élément nécessaire à la commission d’une infraction ».

« Nous n’hésiterions pas à utiliser les outils à notre disposition pour poursuivre ces images », a déclaré Steve Grocki, chef de la section.

Les responsables ont indiqué que des centaines d’agents des forces de l’ordre fédérales, étatiques et locales impliqués dans la lutte contre l’exploitation des enfants discuteront probablement de ce problème croissant lors d’une session de formation nationale qui aura lieu ce mois-ci.

Par ailleurs, certains groupes travaillent sur des moyens techniques de faire face au problème, a déclaré Margaret Mitchell, une chercheuse en IA qui a précédemment dirigé l’équipe « Ethical AI » de Google.

Une solution, qui nécessiterait l’approbation du gouvernement, consisterait à former un modèle d’IA pour créer des exemples de fausses images d’exploitation d’enfants afin que les systèmes de détection en ligne sachent ce qu’il faut supprimer, a-t-elle expliqué. Mais cette proposition aurait ses propres inconvénients, a-t-elle ajouté, car ce matériel peut avoir un « coût psychologique énorme » : Il s’agit de choses qu’on ne peut pas ne pas voir ».

D’autres chercheurs en intelligence artificielle travaillent actuellement sur des systèmes d’identification qui pourraient imprimer un code dans les images renvoyant à leurs créateurs dans l’espoir de dissuader les abus. Le mois dernier, des chercheurs de l’université du Maryland ont publié une nouvelle technique de filigrane « invisible » qui pourrait aider à identifier le créateur d’une image et qui serait difficile à supprimer.

De telles idées nécessiteraient probablement la participation de l’ensemble de l’industrie pour fonctionner et, même dans ce cas, elles ne permettraient pas de détecter toutes les violations, a déclaré M. Mitchell. « Nous construisons l’avion au fur et à mesure que nous le pilotons », a-t-elle déclaré.

Même lorsque ces images ne représentent pas de vrais enfants, Yiota Souras, du Centre national pour les enfants disparus et exploités, a déclaré qu’elles représentaient un « horrible préjudice sociétal ». Créées rapidement et en grand nombre, elles pourraient être utilisées pour normaliser la sexualisation des enfants ou banaliser des comportements odieux, de la même manière que les prédateurs ont utilisé des images réelles pour inciter les enfants à abuser d’eux.

« Il ne s’agit pas de prendre l’oreille d’un seul enfant. Le système a examiné 10 millions d’oreilles d’enfants et sait maintenant comment en créer une », conclut Mr Souras. « Le fait que quelqu’un puisse créer 100 images en un après-midi et les utiliser pour inciter un enfant à adopter un tel comportement est incroyablement préjudiciable. »

https://www.washingtonpost.com/technology/2023/06/19/artificial-intelligence-child-sex-abuse-images/

https://huggingface.co/stabilityai/stable-diffusion-2/blob/main/LICENSE-MODEL

https://www.theverge.com/2022/9/15/23340673/ai-image-generation-stable-diffusion-explained-ethics-copyright-data

https://openai.com/policies/usage-policies

https://www.missingkids.org/content/dam/missingkids/pdfs/2022-reports-by-esp.pdf

https://www.ic3.gov/Media/Y2023/PSA230605

https://supreme.justia.com/cases/federal/us/535/234/case.pdf

https://arxiv.org/abs/2305.20030