Skip to main content

8 Jan, 2024

Attaque des clones : le gouvernement fédéral américain cherche des moyens de défense contre la falsification de la voix

Attaque des clones : le gouvernement fédéral américain cherche des moyens de défense contre la falsification de la voix

Si le clonage vocal de l’IA ne peut pas être arrêté, cela servirait de signal d’alarme pour les décideurs politiques

Avez-vous ce qu’il faut pour construire des défenses capables de détecter facilement et de manière fiable le clonage vocal généré à l’aide d’outils d’intelligence artificielle ? Si tel est le cas, la Federal Trade Commission des États-Unis souhaite avoir votre avis.

L’agence a annoncé en novembre dernier un Voice Cloning Challenge conçu « pour encourager le développement d’approches multidisciplinaires – des produits aux politiques et procédures – visant à protéger les consommateurs contre les méfaits du clonage vocal grâce à l’IA, tels que la fraude et l’utilisation abusive plus large des données biométriques et contenu créatif. »

Le défi promet de récompenser 25 000 $ au meilleur candidat, à condition qu’il réponde à trois exigences clés, ainsi que 4 000 $ pour la deuxième place et 2 000 $ pour chacune des trois mentions honorables.

La FTC a déclaré qu’elle espère que le Voice Cloning Challenge « favorisera des idées révolutionnaires sur la prévention, la surveillance et l’évaluation du clonage vocal malveillant », à mesure que la capacité des outils d’IA à générer des contrefaçons toujours plus convaincantes s’améliore.

Le défi est ouvert aux nouvelles candidatures jusqu’au 12 janvier. Les participants doivent soumettre un résumé d’une page et une explication détaillée de 10 pages, et ils ont la possibilité d’envoyer une vidéo montrant comment leur soumission fonctionnerait.

Thermes et conditions d’application: Seuls des individus ou des petits groupes – composés de moins de 10 personnes – peuvent gagner les prix en espèces, bien qu’une grande organisation puisse remporter un prix de reconnaissance sans rémunération.

La FTC a déclaré que toutes les candidatures seront jugées sur les trois critères suivants, liés à la réponse aux questions spécifiées :

  • Praticité : « Dans quelle mesure l’idée pourrait-elle fonctionner dans la pratique et être administrable et réalisable ? »
  • Bilan : « Si elle est mise en œuvre par des acteurs en amont, comment l’idée impose-t-elle la responsabilité aux entreprises et minimise-t-elle le fardeau des consommateurs ? »
  • Résilience : « Dans quelle mesure l’idée est-elle résiliente aux changements technologiques rapides et aux pratiques commerciales en évolution ? »

La FTC ne veut pas seulement des défenses au niveau des consommateurs qui seraient faciles à mettre en œuvre par les individus. Idéalement, il souhaite voir des défenses fonctionner « en amont » pour lutter contre des éléments tels que les fraudeurs qui tentent d’extorquer des victimes, ainsi que pour lutter contre l’utilisation illicite de la voix des acteurs, avant même que de telles attaques puissent atteindre les consommateurs. Garantir que ces défenses peuvent préserver la confidentialité des utilisateurs est un autre objectif.

Bien que cela puisse sembler un défi de taille, le défi vise également à tester s’il existe des défenses efficaces contre le clonage vocal de l’IA.

« Si des idées viables n’émergent pas, cela enverra un avertissement critique et précoce aux décideurs politiques les invitant à envisager des limites plus strictes sur l’utilisation de cette technologie, compte tenu du défi que représente la prévention du développement nuisible d’applications sur le marché », a déclaré la FTC.

Les fraudeurs défient les défenses de sécurité

Le défi de l’agence met en évidence la façon dont les fraudeurs continuent de tirer profit des derniers outils et technologies.

Une tactique de plus en plus adoptée par les criminels consiste à kidnapper virtuellement ou « cyber-enlèvement », dans lequel ils prétendent avoir enlevé une personne, comme on l’a vu dans une affaire récente impliquant un adolescent chinois dans l’Utah. 

Dans certains cas, disent les experts, les criminels utilisent également l’audio réel de la personne supposément enlevée comme preuve, et parfois ils détournent la carte SIM de la personne afin qu’elle ne puisse pas être contactée par sa famille ou ses collègues, qui sont poussés à payer immédiatement. – ou bien (voir : Les meilleures défenses contre la cyber-extorsion pour lutter contre les ravisseurs virtuels ).

Les outils d’IA qui génèrent non seulement un son convaincant, mais également des vidéos deepfake convaincantes qui correspondent sont une autre préoccupation croissante. La semaine dernière, le Premier ministre singapourien Lee Hsien Loong a averti que des escrocs utilisaient des vidéos deepfakes présentant son portrait pour colporter des escroqueries aux crypto-monnaies et a mis en garde les Singapouriens contre les allégations de cadeaux crypto ou de « retours sur investissement » garantis en crypto.

Les criminels utilisent déjà des vidéos deepfake pour tenter de contourner les pratiques de vérification d’identité des sociétés de services financiers, et le problème ne fera qu’empirer, préviennent les experts.

« Comme l’IA rend plus facile et moins coûteuse l’usurpation d’identité et de marqueurs d’identité – souvent trouvés lors d’une violation – il deviendra plus simple pour les attaquants de s’emparer de comptes et de voler de l’argent, des données, d’avoir un impact sur les marques », a déclaré Rachel Tobac, PDG de SocialProof Security, dans un message sur X, anciennement connu sous le nom de Twitter.

https://www.bankinfosecurity.com/attack-clones-feds-seek-voice-faking-defenses-a-24037

https://www.ftc.gov/news-events/contests/ftc-voice-cloning-challenge