Les Deepfakes dans les cyberattaques ne sont pas à venir. Ils sont déjà là.
Les Deepfakes dans les cyberattaques ne sont pas à venir. Ils sont déjà là.

En mars, le FBI a publié un rapport déclarant que les acteurs malveillants tireront presque certainement parti du « contenu synthétique » pour des cyberopérations et des opérations d’influence à l’étranger dans les 12 à 18 prochains mois. Ce contenu synthétique comprend les deepfakes, des documents audio ou vidéo entièrement créés ou modifiés par l’intelligence artificielle ou l’apprentissage automatique (machine learning), afin de présenter de manière convaincante une personne comme faisant ou disant quelque chose qui n’a pas été réellement fait ou dit.
Nous avons tous entendu l’histoire du PDG dont la voix a été imitée de manière suffisamment convaincante pour initier un virement bancaire de 243 000 dollars. Aujourd’hui, les réunions Zoom constantes de l’ère de la main d’œuvre partout dans le monde ont créé une richesse de données audio et vidéo qui peuvent être introduites dans un système d’apprentissage automatique (machine learning) pour créer un duplicata convaincant. Et les attaquants ont pris note. La technologie Deepfake a connu un essor considérable sur le dark web, et des attaques ont certainement lieu.
Dans le cadre des de Rick McElroy, cybersecurity strategist chez VMware, il travaille en étroite collaboration avec les équipes de CISOs (Chief information security officer) et, au début du mois, il a discuté avec plusieurs RSSI d’entreprises internationales de premier plan sur la montée en puissance de la technologie deepfake à laquelle ils ont assisté. Voici leurs principales préoccupations.

Tutoriels du Dark Web
Recorded Future, une société spécialisée dans la réponse aux incidents, a constaté que les acteurs de la menace se sont tournés vers le dark web pour proposer des services et des didacticiels personnalisés qui intègrent des technologies d’imitation visuelle et sonore conçues pour contourner et déjouer les mesures de sécurité. Tout comme les ransomwares ont évolué vers des modèles de type « ransomware-as-a-service » (RaaS), nous voyons les deepfakes faire de même. Cette information de Recorded Future montre comment les attaquants vont un peu plus loin que les opérations d’influence alimentées par les deepfakes, contre lesquelles le FBI a mis en garde au début de l’année.
Le nouvel objectif est d’utiliser des documents audio et vidéo synthétiques pour échapper aux contrôles de sécurité. En outre, les acteurs de la menace utilisent le dark web, ainsi que de nombreuses sources d’information telles que les forums et les messageries, pour partager des outils et les meilleures pratiques en matière de techniques et de technologies deepfake dans le but de compromettre des organisations.
Deepfake phishing
Les RSSI dont les équipes de sécurité ont observé que des deepfakes étaient utilisés dans des tentatives d’hameçonnage ou pour compromettre des courriels d’entreprise et des plateformes de communication comme Slack et Microsoft Teams. Les cybercriminels profitent du passage à une main-d’œuvre distribuée pour manipuler les employés avec un message vocal bien programmé qui imite la même cadence de parole que leur patron, ou un message Slack délivrant les mêmes informations. Les campagnes de phishing via des courriels ou des plateformes de communication d’entreprise sont le mécanisme de diffusion parfait pour les deepfakes, car les organisations et les utilisateurs leur font implicitement confiance et ils opèrent dans tout un environnement donné.
Contournement des données biométriques
La prolifération de la technologie deepfake ouvre également la boîte de Pandore en matière d’identité. Les identités sont la variable commune aux réseaux, aux terminaux et aux applications, et l’accent mis sur l’identité ou l’objet de l’authentification devient essentiel pour la sécurité d’une organisation dans son cheminement vers la confiance zéro. Cependant, lorsqu’il existe une technologie capable d’imiter l’identité au point de tromper les facteurs d’authentification, comme la biométrie, le risque de compromission augmente.
Dans un rapport d’Experian décrivant les cinq menaces auxquelles les entreprises sont confrontées cette année, la fraude à l’identité synthétique, dans laquelle les cybercriminels utilisent des visages profondément imités pour tromper la vérification biométrique, a été identifiée comme le type de criminalité financière connaissant la croissance la plus rapide. Cela va inévitablement créer des défis importants pour les entreprises qui s’appuient sur des logiciels de reconnaissance faciale dans le cadre de leur stratégie de gestion des identités et des accès.
Distorsion de la réalité numérique
Dans le monde d’aujourd’hui, les attaquants peuvent tout manipuler. Malheureusement, ils sont aussi parmi les premiers à adopter des technologies avancées, comme les deepfakes. Si les cybercriminels ne se contentent plus d’utiliser les deepfakes uniquement pour des opérations d’influence ou de désinformation, ils commenceront à utiliser cette technologie pour compromettre les organisations et accéder à leur environnement. Cela devrait servir d’avertissement à tous les RSSI et professionnels de la sécurité : nous entrons dans une nouvelle réalité de méfiance et de distorsion aux mains des attaquants.
https://venturebeat.com/2021/08/28/deepfakes-in-cyberattacks-arent-coming-theyre-already-here/
https://www.ic3.gov/Media/News/2021/210310-2.pdf
https://www.recordedfuture.com/deepfakes-frauds-next-frontier/