Skip to main content

24 Jan, 2024

« Les mauvais acteurs » de l’IA devraient constituer une menace quotidienne pour les démocraties d’ici à la mi-2024

« Les mauvais acteurs » de l’IA devraient constituer une menace quotidienne pour les démocraties d’ici à la mi-2024

Une étude prédit que l’activité malveillante de l’IA sera quotidienne d’ici à la mi-2024

Selon une nouvelle étude, l’activité de l’IA par des « mauvais acteurs » déterminés à causer des dommages en ligne en diffusant de la désinformation sera quotidienne d’ici le milieu de l’année 2024. Ces résultats sont préoccupants car plus de 50 pays, dont les États-Unis, organiseront cette année des élections nationales dont les résultats auront un impact mondial.

Même avant la sortie des dernières itérations des systèmes Generative Pretrained Transformer (GPT), les experts en IA prévoyaient que d’ici 2026, 90 % du contenu en ligne serait généré par des ordinateurs sans intervention humaine, ce qui favoriserait la diffusion de fausses informations et de désinformations.

On part du principe que les grandes plateformes de médias sociaux, qui comptent le plus grand nombre d’utilisateurs, doivent être réglementées pour limiter les risques. Cette hypothèse est correcte, dans une certaine mesure, et fait d’elles la cible de législations telles que la loi sur les services numériques et la loi sur l’IA de l’UE.

Toutefois, il existe d’autres « mauvais acteurs », plus modestes, c’est-à-dire des personnes, des groupes et des pays qui adoptent délibérément un comportement préjudiciable à autrui, et qui utilisent l’IA à mauvais escient.

Une nouvelle étude menée par des chercheurs de l’université George Washington (GW) est la première analyse scientifique quantitative à examiner comment les mauvais acteurs peuvent abuser de l’IA et des systèmes GPT pour causer du tort à l’échelle mondiale sur les plateformes de médias sociaux, et ce qui peut être fait pour y remédier.

« Tout le monde parle des dangers de l’IA, mais jusqu’à notre étude, il n’y avait pas de données scientifiques à ce sujet », a déclaré Neil Johnson, auteur principal de l’étude. « On ne peut pas gagner une bataille sans avoir une connaissance approfondie du champ de bataille.

Les chercheurs ont commencé par cartographier le réseau dynamique des communautés de médias sociaux interconnectées qui composent le paysage de la population mondiale en ligne. Les utilisateurs – parfois quelques-uns, parfois quelques millions – rejoignent ces communautés en raison d’intérêts communs, qui peuvent inclure des préjudices.

Les chercheurs se sont concentrés sur les communautés « anti-X » extrêmes, c’est-à-dire les communautés dont au moins deux des 20 messages les plus récents contiennent des propos haineux et/ou un nationalisme et/ou un racisme extrêmes. Ces communautés anti-X comprennent celles qui sont, par exemple, anti-USA, anti-femmes, anti-avortement ou antisémites.

Les liens entre ces communautés se forment au fil du temps pour créer des groupes de communautés au sein de différentes plateformes de médias sociaux et entre elles.

« Toute communauté A peut créer un lien (c’est-à-dire un hyperlien) vers toute communauté B si le contenu de B intéresse les membres de A », expliquent les chercheurs. « A peut être d’accord ou non avec B. Ce lien attire l’attention des membres de A sur B, et les membres de A peuvent alors ajouter des commentaires sur B sans que les membres de B soient au courant du lien – les membres de la communauté B sont donc exposés aux membres de la communauté A et peuvent être influencés par eux. »

À l’aide d’un modèle mathématique, les chercheurs ont déterminé quelle activité de l’IA mauvais acteur est susceptible de se produire et pourquoi. Plus précisément, ils ont constaté que le système GPT le plus élémentaire, tel que GPT-2, est tout ce qui est nécessaire et est également plus susceptible d’attirer les mauvais acteurs que les versions plus sophistiquées, telles que GPT-3 ou -4.

En effet, GPT-2 peut facilement reproduire le style et le contenu humains déjà observés dans les communautés en ligne extrêmes, et les mauvais acteurs peuvent utiliser un outil de base tel que GPT-2 pour produire des résultats plus incendiaires en modifiant subtilement la forme d’une requête en ligne sans en changer le sens. En revanche, les outils GPT-3 et -4 contiennent un filtre qui annule les réponses aux questions potentiellement litigieuses, empêchant ainsi ce type de production.

L’addition des communautés d’acteurs malveillants et de personnes vulnérables représente plus d’un milliard d’utilisateurs

Selon les chercheurs, le « champ de bataille » en ligne où l’activité des mauvais acteurs et de l’IA se développera probablement est constitué des communautés de mauvais acteurs et des communautés auxquelles ils sont directement liés, c’est-à-dire les communautés grand public vulnérables.

En additionnant ces communautés, on obtient un écosystème en ligne de plus d’un milliard d’individus, ce qui permet à l’IA des mauvais acteurs de prospérer à l’échelle mondiale. Les chercheurs illustrent leur propos en évoquant la haine et l’extrémisme non générés par l’IA, liés au COVID-19 et, plus récemment, aux guerres entre la Russie et l’Ukraine et entre Israël et le Hamas.

Ils prévoient que, d’ici à la mi-2024, l’activité des mauvais acteurs de l’IA deviendra un phénomène quotidien. Pour ce faire, ils ont utilisé des données de substitution provenant de deux incidents historiques technologiquement similaires impliquant la manipulation de systèmes électroniques en ligne : les attaques algorithmiques automatisées de 2008 sur les marchés financiers américains et les cyber-attaques chinoises de 2013 sur l’infrastructure américaine.

En analysant ces ensembles de données, ils ont extrapolé la fréquence des attaques lors de ces deux événements dans le contexte des progrès technologiques actuels de l’IA.

2024 est présentée comme « la plus grande année électorale de l’histoire », alors que plus de 50 pays, dont les États-Unis, doivent tenir des élections nationales cette année. De la Russie, de Taïwan, du Royaume-Uni et de l’Inde au Salvador et à l’Afrique du Sud, les résultats de certaines élections auront un impact mondial et d’énormes répercussions sur les droits de l’homme, les économies, les relations internationales et la paix dans le monde. Selon les chercheurs, la menace de voir des acteurs malveillants utiliser l’IA pour diffuser et amplifier la désinformation lors de ces élections est donc bien réelle.

Ils recommandent aux entreprises de médias sociaux d’utiliser des tactiques pour contenir la désinformation plutôt que de supprimer tous les contenus générés par des acteurs malveillants.

Compte tenu de l’évolution constante du paysage de l’IA, les chercheurs ont mis en garde contre les conclusions de leur étude. Néanmoins, l’étude met en évidence certains des défis importants posés par les mauvais acteurs ayant accès à l’IA.

« Étant donné que personne ne peut prédire exactement ce qui se passera à l’avenir avec l’IA des mauvais acteurs, compte tenu du rythme rapide de la technologie et de l’évolution du paysage en ligne, les prédictions contenues dans cet article sont, à proprement parler, spéculatives », ont déclaré les chercheurs. « Mais elles sont toutes quantitatives et testables – et également généralisables – et fournissent donc un point de départ concret pour renforcer la politique relative à l’IA des mauvais acteurs.« 

https://academic.oup.com/pnasnexus/article/3/1/pgae004/7582771

https://gwtoday.gwu.edu/malicious-ai-activity-likely-escalate-daily-occurrence-2024