Skip to main content

29 Juin, 2023

Les humains pourraient être plus enclins à croire la désinformation générée par l’IA

Les humains pourraient être plus enclins à croire la désinformation générée par l’IA

Selon les auteurs de l’étude, la façon dont les modèles d’IA structurent le texte pourrait y être pour quelque chose.

Une nouvelle étude suggère que la désinformation générée par l’IA pourrait être plus convaincante que la désinformation écrite par des humains.

Les auteurs de l’étude ont constaté que les gens étaient 3 % moins susceptibles de repérer les faux tweets générés par l’IA que ceux rédigés par des humains.

Cet écart de crédibilité, bien que faible, est préoccupant étant donné que le problème de la désinformation générée par l’IA semble sur le point de prendre de l’ampleur, explique Giovanni Spitale, le chercheur de l’université de Zurich qui a dirigé l’étude, parue aujourd’hui dans Science Advances.

« Le fait que la désinformation générée par l’IA soit non seulement moins chère et plus rapide, mais aussi plus efficace, me donne des cauchemars », déclare-t-il. Il pense que si l’équipe répétait l’étude avec le dernier grand modèle de langage d’OpenAI, GPT-4, la différence serait encore plus grande, étant donné la puissance de GPT-4.

Pour tester notre sensibilité à différents types de textes, les chercheurs ont choisi des sujets de désinformation courants, notamment le changement climatique et le covidisme. Ils ont ensuite demandé au grand modèle de langage GPT-3 de l’OpenAI de générer 10 vrais tweets et 10 faux, et ont recueilli un échantillon aléatoire de tweets vrais et faux sur Twitter.

Ensuite, ils ont recruté 697 personnes pour répondre à un questionnaire en ligne visant à déterminer si les tweets avaient été générés par l’IA ou recueillis sur Twitter, et s’ils étaient exacts ou contenaient des informations erronées. Ils ont constaté que les participants étaient 3 % moins enclins à croire les faux tweets rédigés par des humains que ceux rédigés par l’IA.

Les chercheurs ne savent pas exactement pourquoi les gens sont plus enclins à croire les tweets rédigés par l’IA. Mais la manière dont GPT-3 ordonne les informations pourrait y être pour quelque chose, selon Spitale.

« Le texte de GPT-3 a tendance à être un peu plus structuré que le texte organique [écrit par un être humain] », explique-t-il. « Mais il est également condensé, donc plus facile à traiter.« 

L’essor de l’IA générative met des outils d’IA puissants et accessibles entre les mains de tout le monde, y compris des mauvais acteurs. Des modèles tels que GPT-3 peuvent générer des textes incorrects qui paraissent convaincants, ce qui pourrait être utilisé pour générer de faux récits rapidement et à peu de frais pour les théoriciens du complot et les campagnes de désinformation.

Les armes pour lutter contre ce problème – les outils de détection de texte de l’IA – en sont encore aux premiers stades de développement, et nombre d’entre elles ne sont pas tout à fait exactes.

L’OpenAI est consciente que ses outils d’IA pourraient être utilisés pour mener des campagnes de désinformation à grande échelle. Bien que cela soit contraire à ses politiques, elle a publié un rapport en janvier dans lequel elle avertit qu’il est « pratiquement impossible de garantir que les grands modèles de langage ne sont jamais utilisés pour générer de la désinformation ». OpenAI n’a pas répondu immédiatement à une demande de commentaire.

Toutefois, l’entreprise a également appelé à la prudence lorsqu’il s’agit de surestimer l’impact des campagnes de désinformation. Des recherches supplémentaires sont nécessaires pour déterminer les populations les plus exposées aux contenus inauthentiques générés par l’IA, ainsi que la relation entre la taille du modèle d’IA et la performance globale ou le pouvoir de persuasion de ses résultats, affirment les auteurs du rapport de l’OpenAI.

Il est trop tôt pour paniquer, estime Jon Roozenbeek, chercheur postdoctoral qui étudie la désinformation au département de psychologie de l’université de Cambridge, mais qui n’a pas participé à l’étude.

Bien que la diffusion de la désinformation en ligne puisse être plus facile et moins coûteuse avec l’IA qu’avec des fermes à trolls dotées d’un personnel humain, la modération sur les plateformes technologiques et les systèmes de détection automatisés restent des obstacles à sa propagation, ajoute-t-il.

« Ce n’est pas parce que l’IA facilite la rédaction d’un tweet qui pourrait être légèrement plus persuasif que ce qu’un pauvre type dans une usine de Saint-Pétersbourg a pu inventer que tout le monde est soudainement prêt à être manipulé », conclut-t-il.

https://www.technologyreview.com/2023/06/28/1075683/humans-may-be-more-likely-to-believe-disinformation-generated-by-ai/