Skip to main content

29 Avr, 2024

Le clonage vocal par l’IA pousse 91% des banques à repenser la vérification

Le clonage vocal par l’IA pousse 91% des banques à repenser la vérification

Le rapport d’enquête de BioCatch se concentre sur les nouveaux risques liés à l’IA et les solutions de lutte contre la fraude

Les banques sont préoccupées par les dernières avancées de la technologie de clonage vocal et par la menace qu’elle représente pour le processus d’authentification. L’échec des solutions centrées sur l’identité pour lutter contre la fraude à l’identité synthétique a convaincu 91 % des banques américaines de reconsidérer leur utilisation de la vérification vocale pour leurs principaux clients, selon un rapport de BioCatch basé sur une enquête menée auprès de 600 combattants de la fraude dans 11 pays.

Le rapport indique que les attaques basées sur l’IA se multiplient. « Si l’IA peut être utile aux institutions financières pour la détection et la réponse aux fraudes, elle est utilisée par des acteurs malveillants pour mettre en œuvre des menaces de plus en plus avancées. L’IA permet à ces acteurs d’automatiser leurs tactiques et d’étendre leurs attaques au-delà des limites traditionnelles. L’IA et les grands modèles de langage sont également utilisés pour créer des messages crédibles pour les attaques d’ingénierie sociale, pour alimenter les escroqueries vocales et pour alimenter les vidéos de type « deepfake » », indique le rapport.

Au cours de l’année écoulée, les entreprises d’IA générative ont mis sur le marché un certain nombre d’outils qui, selon les enquêteurs, aident les criminels, notamment la traduction linguistique instantanée, la thérapie par la parole, l’aide à la lecture et la technologie de clonage vocal qui peut copier les modèles vocaux d’un titulaire de compte en utilisant seulement trois secondes d’enregistrement audio.

Selon BioCatch, le clonage de la voix peut potentiellement mettre en échec l’utilisation de la technologie de vérification par reconnaissance vocale par de nombreuses banques et sociétés de services financiers, et 91 % des personnes interrogées ont déclaré être à la recherche de nouvelles méthodes de vérification (voir : La technologie de clonage de la voix s’attaque aux comptes bancaires).

« Bien qu’elle ait été considérée comme une technologie de pointe et une réponse prometteuse à des menaces complexes, la vérification vocale ne suffira plus aux institutions financières pour protéger leurs clients. En tant que telles, les institutions financières devront utiliser une combinaison stratégique de méthodes d’authentification pour minimiser la frustration des utilisateurs tout en maximisant la protection », a déclaré BioCatch.

En 2019, la Réserve fédérale a déclaré que les identités synthétiques étaient le type de fraude qui se développait le plus rapidement et que les modèles de fraude traditionnels ne parvenaient pas à repérer jusqu’à 95 % des identités synthétiques utilisées dans les demandes de nouveaux comptes. L’enquête de BioCatch a révélé que 72 % des institutions financières sont confrontées à des fraudes à l’identité synthétique au cours du processus d’accueil des clients.

Biométrie comportementale et partage d’informations

Selon le rapport, les banques se sont principalement appuyées sur le partage d’informations entre les institutions financières, les services de police et les autorités de régulation pour repérer les identités synthétiques. Bien que ces efforts soient louables, les institutions financières devraient à l’avenir investir dans de nouvelles méthodes d’authentification qui pourraient être moins affectées par l’IA.

Les outils d’analyse comportementale et de détection des anomalies se sont avérés efficaces pour repérer les identités synthétiques. L’évolution de l’analyse comportementale, qui intègre à la fois l’expertise du comportement des utilisateurs en ligne et la psychologie de la cybercriminalité et de l’ingénierie sociale, a permis à 41 % des institutions financières de s’appuyer sur cette technologie, indique le rapport.

« Ce que nous pouvons observer, c’est leur comportement, et si quelqu’un utilise un grand nombre d’applications à partir du même appareil, de la même adresse IP, du même contexte, du même endroit, en faisant de très petits changements … il y a beaucoup d’éléments comportementaux qui peuvent être exploités dans cette capacité avec l’appareil et le réseau, et cela vous permet d’obtenir une image beaucoup plus claire de l’intention de l’individu », a déclaré Seth Ruden, directeur du conseil mondial pour les Amériques chez BioCatch, à l’Information Security Media Group.

L’augmentation de la criminalité mondiale va se poursuivre

Le rapport indique que les équipes chargées de la gestion des fraudes et de la lutte contre le blanchiment d’argent se tournent vers l’IA pour contrer les menaces de fraude. Environ 69 % des institutions financières interrogées pensent que l’IA permettra d’augmenter les revenus, d’améliorer les interactions avec les clients et de réduire le temps passé à enquêter sur les faux positifs.

Selon le rapport, les amendes mondiales pour la lutte contre le blanchiment d’argent et d’autres crimes financiers ont augmenté de 50 % en 2022 pour atteindre près de 5 milliards de dollars. Les institutions financières investissent de plus en plus et emploient des technologies telles que la détection de l’IA et les solutions d’intelligence biométrique comportementale, mais les experts et les praticiens du secteur s’attendent à ce que la criminalité financière et l’activité frauduleuse continuent d’augmenter au cours de l’année à venir, selon le rapport.

Dans le même temps, les personnes interrogées s’attendent à ce que la direction améliore la coordination entre les départements de la fraude et de la criminalité financière. Dans l’enquête, 90 % des personnes interrogées ont déclaré que les institutions financières et les autorités gouvernementales doivent partager davantage d’informations pour lutter contre la fraude et la criminalité financière.

https://www.biocatch.com/ai-fraud-financial-crime-survey