Skip to main content

22 Mai, 2024

Un modèle d’IA sournois corrompt délibérément les images d’entraînement pour contourner les droits d’auteur

Un modèle d’IA sournois corrompt délibérément les images d’entraînement pour contourner les droits d’auteur

Ambient Diffusion est un modèle d’IA texte-image qui protège les droits d’auteur d’un artiste en utilisant des images fortement corrompues.

Les modèles d’IA texte-image formés sur des images originales peuvent les mémoriser, générant des répliques qui posent un problème de violation du droit d’auteur. Un nouveau modèle d’IA a été mis au point, qui n’est formé que sur des images corrompues, ce qui élimine ce problème juridique particulier.

L’un des grands problèmes des générateurs de texte vers des images est leur capacité à reproduire les œuvres originales utilisées pour les entraîner, violant ainsi les droits d’auteur d’un artiste. Selon la loi américaine, si vous créez une œuvre originale et la « fixez » sous une forme tangible, vous possédez son copyright – littéralement, le droit de la copier. Dans la plupart des cas, une image protégée par le droit d’auteur ne peut être utilisée sans l’autorisation du créateur.

En mai, Alphabet, la société mère de Google, a fait l’objet d’une action collective en justice pour violation des droits d’auteur de la part d’un groupe d’artistes qui affirmaient qu’elle avait utilisé leurs œuvres sans autorisation pour entraîner son générateur d’images à base d’IA, Imagen. Stability AI, Midjourney et DeviantArt – qui utilisent tous l’outil de diffusion stable de Stability – font l’objet de poursuites similaires.

Pour éviter ce problème, des chercheurs de l’université du Texas (UT) à Austin et de l’université de Californie (UC) à Berkeley ont mis au point un cadre d’IA générative basé sur la diffusion qui n’est entraîné que sur des images qui ont été corrompues au point d’être méconnaissables, ce qui élimine la probabilité que l’IA mémorise et reproduise une œuvre originale.

Les modèles de diffusion sont des algorithmes avancés d’apprentissage automatique qui génèrent des données de haute qualité en ajoutant progressivement du bruit à un ensemble de données, puis en apprenant à inverser ce processus. Des études récentes ont montré que ces modèles peuvent mémoriser des exemples de leur ensemble d’apprentissage.

Cela a des conséquences évidentes sur la vie privée, la sécurité et les droits d’auteur. Voici un exemple qui n’a rien à voir avec les œuvres d’art : une IA qui doit être formée aux scanners à rayons X, mais qui ne doit pas mémoriser les images de patients spécifiques, ce qui porterait atteinte à la vie privée de ces derniers. Pour éviter cela, les créateurs de modèles peuvent introduire une corruption d’image.

Les chercheurs ont démontré avec leur cadre Ambient Diffusion qu’un modèle de diffusion peut être entraîné à générer des images de haute qualité uniquement à l’aide d’échantillons fortement corrompus.

Résultats d’Ambient Diffusion générés à partir d’images d’entraînement « propres » (à gauche) et corrompues (à droite)

L’image ci-dessus montre la différence dans la production d’images lorsque la corruption est utilisée. Les chercheurs ont d’abord entraîné leur modèle avec 3 000 images « propres » provenant de CelebA-HQ, une base de données d’images de haute qualité de célébrités.

Le modèle a généré des images presque identiques aux originaux (panneau de gauche) lorsqu’on le lui demandait. Ils ont ensuite réentraîné le modèle en utilisant 3 000 images fortement corrompues, où jusqu’à 90 % des pixels individuels étaient masqués de manière aléatoire. Bien que le modèle ait généré des visages humains réalistes, les résultats étaient beaucoup moins similaires (panneau de droite).

« Le cadre pourrait s’avérer utile pour des applications scientifiques et médicales également », a déclaré Adam Klivans, professeur d’informatique à l’UT Austin et coauteur de l’étude. « Cela serait vrai pour pratiquement toutes les recherches pour lesquelles il est coûteux ou impossible de disposer d’un ensemble complet de données non corrompues, de l’imagerie des trous noirs à certains types d’IRM. »

Comme pour les générateurs de texte-image existants, les résultats ne sont pas toujours parfaits. L’essentiel est que les artistes puissent dormir sur leurs deux oreilles en sachant qu’un modèle comme Ambient Diffusion ne mémorisera pas et ne reproduira pas leurs œuvres originales. Cela empêchera-t-il d’autres modèles d’IA de mémoriser leurs images originales et de les reproduire ? Non, mais les tribunaux sont là pour ça.

Les chercheurs ont mis leur code et leur modèle de diffusion ambiante en libre accès afin d’encourager la poursuite des recherches. Ils sont disponibles sur GitHub.

https://news.utexas.edu/2024/05/20/artificial-intelligence-trained-to-draw-inspiration-from-images-not-copy-them

https://arxiv.org/abs/2305.19256

https://github.com/giannisdaras/ambient-diffusion