Des fraudeurs ont cloné la voix d’un directeur d’entreprise lors d’un hold-up bancaire de 35 millions de dollars, selon la police.
Des fraudeurs ont cloné la voix d’un directeur d’entreprise lors d’un hold-up bancaire de 35 millions de dollars, selon la police.

Le clonage de la voix par l’IA a été utilisé lors d’un énorme hold-up aux Émirats arabes unis, selon des enquêteurs de Dubaï, dans un contexte de mise en garde contre l’utilisation de cette nouvelle technologie par les cybercriminels.
Au début de 2020, un directeur de banque des Émirats arabes unis a reçu un appel d’un homme dont il a reconnu la voix – un directeur d’une entreprise avec lequel il avait déjà parlé auparavant. Le directeur avait de bonnes nouvelles : sa société était sur le point de faire une acquisition, et il avait besoin que la banque autorise des transferts d’un montant de 35 millions de dollars. Un avocat nommé Martin Zelner avait été engagé pour coordonner les procédures et le directeur de la banque pouvait voir dans sa boîte de réception des courriels du directeur et de Martin Zelner, confirmant quel argent devait être transféré où. Le directeur de la banque, croyant que tout semblait légitime, a commencé à effectuer les transferts.
Ce qu’il ne savait pas, c’est qu’il avait été dupé dans le cadre d’une escroquerie élaborée, dans laquelle les fraudeurs avaient utilisé la technologie de la « deep voice » pour cloner le discours du directeur, selon un document judiciaire découvert par Forbes, dans lequel les Émirats arabes unis ont demandé l’aide d’enquêteurs américains pour retrouver 400 000 dollars de fonds volés qui ont été versés sur des comptes américains détenus par la Centennial Bank. Les E.A.U. pensent qu’il s’agit d’un système élaboré, impliquant au moins 17 personnes, qui a envoyé l’argent volé sur des comptes bancaires dans le monde entier.
Le document ne donne guère plus de détails, aucun des noms des victimes n’étant fourni. Le ministère public de Dubaï, qui dirige l’enquête, n’avait pas répondu aux demandes de commentaires au moment de la publication. Martin Zelner, un avocat basé aux États-Unis, avait également été contacté pour un commentaire, mais n’avait pas répondu au moment de la publication.
Ce n’est que le deuxième cas connu de fraudeurs qui auraient utilisé des outils de façonnage de la voix pour réaliser un hold-up, mais il semble avoir été beaucoup plus réussi que le premier, dans lequel les fraudeurs ont utilisé la technologie pour se faire passer pour le PDG d’une entreprise d’énergie basée au Royaume-Uni dans une tentative de voler 240 000 $ en 2019, selon le Wall Street Journal.
Le cas de l’U.A.E. montre à quel point de telles escroqueries de haute technologie peuvent être dévastatrices et atterrit au milieu d’avertissements sur l’utilisation de l’IA pour créer des images et des voix dites deep fake dans la cybercriminalité.

« Les deep fakes audio et visuels représentent le développement fascinant de la technologie du 21e siècle, mais ils sont aussi potentiellement incroyablement dangereux, constituant une énorme menace pour les données, l’argent et les entreprises », déclare Jake Moore, ancien officier de police du département de police de Dorset au Royaume-Uni et désormais expert en cybersécurité de la société de sécurité ESET. « Nous sommes actuellement sur le point de voir des acteurs malveillants déplacer leur expertise et leurs ressources vers l’utilisation des dernières technologies pour manipuler des personnes qui ignorent innocemment les domaines de la technologie du faux profond et même leur existence.
« La manipulation de l’audio, qui est plus facile à orchestrer que la réalisation de deep fake vidéos, ne fera qu’augmenter en volume et sans l’éducation et la sensibilisation à ce nouveau type de vecteur d’attaque, ainsi que de meilleures méthodes d’authentification, davantage d’entreprises sont susceptibles d’être victimes de conversations très convaincantes. »
Autrefois une technologie confinée au domaine des caprices de fiction comme Mission : Impossible, le clonage de la voix est désormais largement disponible. Diverses start-ups technologiques travaillent sur des technologies vocales d’IA de plus en plus sophistiquées, de Aflorithmic de Londres à Respeecher d’Ukraine et Resemble.AI du Canada. Cette technologie a fait parler d’elle ces derniers mois avec la révélation que le défunt Anthony Bourdain avait fait synthétiser sa voix pour un documentaire sur sa vie. Conscientes du potentiel d’utilisation malveillante de l’IA, une poignée d’entreprises, comme la société de sécurité Pindrop, évaluée à 900 millions de dollars, affirment aujourd’hui pouvoir détecter les voix synthétisées et ainsi prévenir les fraudes.
Si des enregistrements de votre voix sont disponibles en ligne, que ce soit sur les médias sociaux, sur YouTube ou sur le site web d’un employeur, il se pourrait bien qu’une bataille secrète soit en cours pour le contrôle de votre voix à votre insu.