Diablesse d’IA : L’intelligence artificielle crée les 20 crimes les plus dangereux
Diablesse d’IA : L’intelligence artificielle crée les 20 crimes les plus dangereux

Un nouveau rapport indique les applications criminelles de l’IA dont nous devrions vraiment nous préoccuper.
Des campagnes de phishing ciblées aux nouvelles méthodes de traque : l’intelligence artificielle pourrait être utilisée de nombreuses manières pour causer des dommages si elle tombait entre de mauvaises mains. Une équipe de chercheurs de UCL a décidé de classer les applications criminelles potentielles de l’IA dans les 15 prochaines années, en commençant par celles dont nous devrions le plus nous inquiéter. En haut de la liste des menaces les plus graves ? Les Deepfakes.
En utilisant de faux sons et de fausses vidéos pour se faire passer pour une autre personne, cette technologie peut causer divers types de préjudices, ont déclaré les chercheurs. Les menaces vont du discrédit de personnalités publiques pour influencer l’opinion publique, à l’extorsion de fonds en se faisant passer pour l’enfant ou la famille de quelqu’un lors d’un appel vidéo.
Le classement a été établi après que des scientifiques de l’University College London (UCL) aient dressé une liste de 20 crimes liés à l’IA, sur la base d’articles universitaires, de nouvelles et de la culture populaire, et aient demandé à quelques dizaines d’experts de discuter de la gravité de chaque menace au cours d’un séminaire de deux jours.
Les participants ont été invités à classer la liste par ordre de préoccupation, sur la base de quatre critères : le préjudice qu’elle pourrait causer, le potentiel de profit ou de gain criminel, la facilité avec laquelle le crime pourrait être perpétré et la difficulté à y mettre fin.
Bien que les deepfakes puissent en principe sembler moins inquiétants que, par exemple, les robots tueurs, cette technologie est capable de causer beaucoup de mal très facilement, et est difficile à détecter et à arrêter. Par rapport à d’autres outils basés sur l’IA, les experts ont donc établi que les deepfakes constituent la menace la plus sérieuse.

Il existe déjà des exemples de faux contenus qui sapent la démocratie dans certains pays : aux États-Unis, par exemple, une vidéo truquée de la présidente de la Chambre des représentants, Nancy Pelosi, dans laquelle elle apparaît en état d’ébriété, a été visionnée plus de 2,5 millions de fois sur Facebook l’année dernière.
L’organisation britannique Future Advocacy a également utilisé l’AI pour créer une fausse vidéo lors des élections générales de 2019, qui montrait Boris Johnson et Jeremy Corbyn se soutenant mutuellement pour devenir Premier ministre. Bien que la vidéo ne soit pas malveillante, elle souligne le potentiel des faux pour influencer la politique nationale.
Les chercheurs de l’UCL ont déclaré qu’à mesure que les « deepfakes » deviendront plus sophistiqués et crédibles, ils seront de plus en plus difficiles à vaincre. Alors que certains algorithmes identifient déjà avec succès les deepfakes en ligne, il existe de nombreuses voies non contrôlées pour la diffusion de matériel modifié. En fin de compte, ont averti les chercheurs, cela conduira à une méfiance généralisée à l’égard des contenus audio et visuels.
Cinq autres applications de l’IA ont également été classées dans la catégorie « très préoccupantes ». Avec des voitures autonomes au coin de la rue, les véhicules sans conducteur ont été identifiés comme un mécanisme réaliste de livraison d’explosifs, voire comme des armes de terreur à part entière. L’utilisation de l’IA pour créer de fausses nouvelles est tout aussi réalisable : la technologie existe déjà, souligne le rapport, et l’impact sociétal de la propagande ne doit pas être sous-estimé.
Les applications qui empêchent les experts de l’IA de dormir la nuit seront si répandues qu’il sera pratiquement impossible de les vaincre. C’est le cas, par exemple, des attaques d’hameçonnage (phishing) imprégnées d’IA, qui seront perpétrées par le biais de messages astucieux qu’il sera impossible de distinguer de la réalité. Un autre exemple est le chantage à grande échelle, rendu possible par la capacité de l’IA à récolter de vastes ensembles de données personnelles et d’informations sur les médias sociaux.
Enfin, les participants ont souligné la multiplication des systèmes d’IA utilisés pour des applications clés comme la sécurité publique ou les transactions financières – et les nombreuses possibilités d’attaque qu’ils représentent. La perturbation de ces systèmes contrôlés par l’IA, pour des motifs criminels ou terroristes, pourrait entraîner des pannes d’électricité généralisées, une rupture de la logistique alimentaire et un chaos général dans tout le pays.
Les chercheurs de l’UCL ont qualifié certains des autres crimes qui pourraient être perpétrés avec l’aide de l’IA de « modérément préoccupants ». Parmi eux, on peut citer la vente d’une IA « snake-oil » (charlatan) frauduleuse pour des services populaires comme la détection de mensonges ou le contrôle de sécurité, ou des cyberattaques de plus en plus sophistiquées basées sur l’apprentissage, dans lesquelles l’IA pourrait facilement sonder les faiblesses de nombreux systèmes.
Plusieurs des crimes cités pourraient sans doute être considérés comme un motif de grande inquiétude. Par exemple, l’utilisation abusive de robots militaires ou la manipulation délibérée de bases de données pour introduire des biais, ont été cités comme étant modérément préoccupants.
Les chercheurs ont toutefois fait valoir que de telles applications semblent trop difficiles à pousser à l’échelle actuelle, ou pourraient être facilement gérées, et ne représentent donc pas un danger aussi imminent.
Au bas de la hiérarchie des menaces, les chercheurs ont énuméré quelques applications « peu préoccupantes » – la petite délinquance de l’IA, si vous voulez. En plus des fausses critiques ou des fausses œuvres d’art, le rapport mentionne également les robots cambrioleurs, de petits appareils qui pourraient se faufiler dans les maisons par les boîtes aux lettres ou les chatières pour transmettre des informations à une tierce partie.
Les robots cambrioleurs peuvent sembler effrayants, mais ils peuvent être facilement vaincus – en fait, ils peuvent être arrêtés par une cage pour boîte aux lettres – et ils ne peuvent pas se mettre à l’échelle. Les chercheurs ne s’attendent donc pas à ce qu’ils causent d’énormes problèmes dans un avenir proche. Le vrai danger, selon le rapport, réside dans les applications criminelles de l’IA qui pourraient être facilement partagées et répétées une fois qu’elles seront développées.
Matthew Caldwell de l’UCL, premier auteur du rapport, a déclaré : « Le danger réside dans les applications criminelles de l’IA qui pourraient être facilement partagées et répétées une fois développées : « Contrairement à de nombreux crimes traditionnels, les crimes dans le domaine numérique peuvent être facilement partagés, répétés et même vendus, ce qui permet de commercialiser des techniques criminelles et de fournir le crime comme un service. Cela signifie que les criminels peuvent être en mesure d’externaliser les aspects les plus difficiles de leur criminalité basée sur l’IA ».
La commercialisation de la criminalité basée sur l’IA pourrait donc être proche. Matthew Caldwell et son équipe anticipent l’avènement du « Crime as a Service » (CaaS), qui fonctionnerait main dans la main avec les attaques par déni de service (DoS).
Et certains de ces crimes auront des ramifications plus profondes que d’autres. Voici le classement complet des crimes liés à l’IA à surveiller, tel que compilé par les chercheurs de l’UCL :
– Crimes très préoccupants liés à l’IA : Les Deepfakes, les véhicules sans conducteur comme arme, le phishing sur mesure, la perturbation des systèmes contrôlés par l’IA, le chantage à grande échelle, les fausses nouvelles rédigées par des auteurs d’IA.
– Crimes modérément préoccupants liés à l’IA : Utilisation abusive de robots militaires ; « snake-oil »; empoisonnement des données ; cyberattaques basées sur l’apprentissage ; drones d’attaque autonomes ; refus d’accès aux activités en ligne ; tromperie de la reconnaissance faciale ; manipulation des marchés financiers ou boursiers.
– Crimes peu préoccupants liés à l’IA : robots cambrioleurs ; évasion de la détection de l’IA ; fausses critiques rédigées par des auteurs d’IA ; traque assistée par l’IA ; falsification de contenus tels que l’art ou la musique.
https://www.ucl.ac.uk/news/2020/aug/deepfakes-ranked-most-serious-ai-crime-threat