Skip to main content

30 Mai, 2024

Des chercheurs de Google affirment que l’IA est désormais le principal vecteur de désinformation (et qu’ils sous-estiment gravement le problème)

Des chercheurs de Google affirment que l’IA est désormais le principal vecteur de désinformation (et qu’ils sous-estiment gravement le problème)

Il est beaucoup plus facile de produire de la désinformation générée par l’IA que de la vérifier.

Alors qu’un flot ininterrompu de réponses totalement erronées et parfois dangereuses générées par l’IA de Google devient viral sur les médias sociaux, une nouvelle étude menée par des chercheurs de Google et plusieurs organisations de vérification des faits a révélé que la majeure partie de la désinformation basée sur les images est désormais générée par l’IA, mais la manière dont les chercheurs ont recueilli leurs données suggère que le problème est encore plus grave qu’ils ne l’affirment.

L’article, repéré pour la première fois par la lettre d’information Faked Up, mesure la montée de la désinformation par l’IA en examinant ce que les vérificateurs de faits de Snopes, Politifact et d’autres sites ont déclaré être de la désinformation par l’image. L’étude porte sur un total de 135 838 vérifications de faits qui remontent à 1995, mais la majorité des affirmations ont été créées après 2016 et l’introduction de ClaimReview, un système de marquage qui permet aux vérificateurs de faits et aux éditeurs de signaler la désinformation pour des plateformes comme Google, Facebook, Bing et d’autres.

Le graphique le plus révélateur de l’étude montre la « prévalence des types de manipulation de contenu en fonction de l’ensemble des manipulations de contenu ». En d’autres termes, il montre les différents types de désinformation par l’image et leur fréquence au fil du temps. 

Comme le montre le graphique, la désinformation par l’image générée par l’IA n’existait pas jusqu’à la fin de l’année 2023, date à laquelle les générateurs d’images par l’IA sont devenus largement disponibles et populaires, et ont alors pratiquement remplacé toutes les autres formes de désinformation par l’image. Le graphique montre également qu’il y a une légère augmentation du nombre total d’échantillons de désinformation par l’image qui correspond à l’essor des images d’IA, mais seulement légèrement.

« Il est intéressant de noter que l’essor des images d’IA n’a pas entraîné de hausse de la proportion globale des allégations de désinformation fondées sur des images au cours de cette période, et que la désinformation fondée sur des images a continué à diminuer en termes relatifs alors que la désinformation fondée sur des vidéos augmentait », indique l’article.

Aussi grave que soit le problème des images générées par l’IA selon l’article, il est très possible qu’il soit bien pire parce que l’échantillon de données de l’article s’appuie sur les données des vérificateurs de faits publics, qui ne sélectionnent pas au hasard la désinformation basée sur des images générées par l’IA.

Des sites comme Snopes et Politifact, qui disposent de ressources limitées, se concentrent sur la vérification d’images qui ont atteint un certain degré de viralité ou de couverture médiatique, de sorte que leurs vérifications servent un objectif ou un public. Historiquement, les vérificateurs de faits se concentrent également sur la désinformation en langue anglaise, ce qui permet à la désinformation dans d’autres langues de devenir un problème plus important.

 Cet échantillon ne tient pas compte du flot d’images générées par l’IA que nous voyons quotidiennement sur des plateformes telles que Facebook et dont nous ne parlons pas toujours.

Par exemple, le média brésilien Núcleo a récemment fait état d’images générées par l’IA qui diffusent de la désinformation sur les inondations au Brésil sur Facebook et qui remplissent toutes ces conditions. Les images contiennent du texte en portugais, Núcleo en a trouvé 21, mais il pourrait y en avoir davantage, et Núcleo ne marque pas les images dans ClaimReview.

L’avènement de l’IA génératrice d’images a créé un problème non seulement avec la désinformation générée par l’IA, mais aussi avec le spam généré par l’IA. Les sites de vérification des faits ne disposent souvent que de la bande passante nécessaire pour vérifier les images qui deviennent virales ou qui sont diffusées à grande échelle.

Or, il a été constaté que les générateurs d’images par IA permettent de créer en masse de nombreuses variantes d’une image donnée, qui ne deviennent pas toutes virales. Outre les 21 images d’inondations générées par l’IA mentionnées par Núcleo, 404 Media a facilement trouvé des dizaines de variantes supplémentaires en recherchant les légendes couramment utilisées pour promouvoir la désinformation sur les inondations sur Facebook.

Comme Nick Dufour, auteur principal de l’article, l’a dit, il y a une « grande mise en garde qui se profile à l’horizon : la capacité des vérificateurs de faits n’est pas complètement élastique, et nous ne pouvons pas supposer qu’elle s’adaptera nécessairement au volume global de fausses informations, ni qu’il n’y a pas d’effets de nouveauté/prominence dans le choix de ce qui doit être vérifié ».

« Les résultats de l’article sont spécifiques au contenu qui a été vérifié, plutôt qu’à un échantillon totalement uniforme d’informations erronées dans la nature », a déclaré Nick Dufour. « 

Le raisonnement est le suivant : les vérificateurs de faits reflètent implicitement leur expérience considérable en ce qui concerne les éléments importants à vérifier en les créant. Comme indiqué dans la section « Limites », les tendances observées dans [l’ensemble de données AMMeBa (Annotated Misinformation, Media-Based)] sont susceptibles de refléter de manière significative les changements survenus dans le monde réel, dans une certaine mesure, mais certainement pas de manière parfaite.

Le problème de la désinformation par l’IA pourrait être encore plus grave que ne le montrent les données de l’étude, car les images générées par l’IA pourraient être incluses dans les vidéos.

« Les images étaient historiquement la modalité dominante associée aux affirmations de désinformation ; cependant, les vidéos sont devenues plus courantes à partir de 2022 et participent maintenant à plus de 60 % des affirmations vérifiées qui incluent des médias », indique l’étude.

Mais l’étude ne tient pas compte du fait que la désinformation vidéo pourrait être constituée en partie ou entièrement d’images générées par l’IA. Même le parti démocrate a commencé à utiliser des vidéos composées entièrement d’images générées par l’IA dans ses vidéos de campagne officielles à partir de l’année dernière.

« Nous voulions à l’origine appliquer des annotations similaires à la désinformation vidéo, mais cela s’est avéré trop complexe à gérer et la tâche est devenue trop élaborée et trop longue, de sorte que nous avons fini par déployer un effort légèrement plus ciblé », a déclaré Nick Dufour.

Encore une fois, il sera difficile de se faire une idée précise de l’ampleur du problème de la désinformation générée par l’IA, car il est beaucoup plus long de trouver et d’examiner ces images que de les produire. Il n’est pas non plus facile de savoir que Google lui-même promeut des contenus générés par l’IA qui ne sont pas nécessairement ce que nous considérons comme de la désinformation politique, mais qui sont tout simplement erronés, qu’il s’agisse de livres générés par l’IA ou de résultats de recherche qui conseillent aux utilisateurs de manger de la colle.

https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem