Skip to main content

4 Fév, 2024

Nous ne pouvons pas réparer les deepfakes politiques

Nous ne pouvons pas réparer les deepfakes politiques

Image créée à l’aide de DALL·E 3 avec cette invite : Créez l’image d’un robot au téléphone, passant des milliers d’appels aux électeurs potentiels, les exhortant à ne pas voter lors d’une élection à venir. Rapport hauteur/largeur : 16×9. Ou en anglais: Create an image of a robot on the telephone, making thousands of calls to would-be voters, urging them not to vote in an upcoming election

ElevenLabs, une startup d’IA spécialisée dans la technologie de réplication vocale, a banni un compte utilisateur responsable de la création d’un deepfake audio du président Biden. Le deepfake contenait un message exhortant les gens à ne pas voter aux primaires du New Hampshire.

Pindrop Security Inc., une société de détection de fraude vocale, a analysé le deepfake et identifié la technologie d’ElevenLabs comme source. Après avoir pris connaissance des conclusions de Pindrop, ElevenLabs a suspendu le compte de l’utilisateur et a ouvert une enquête sur l’incident.

Le deepfake était suffisamment sophistiqué pour convaincre initialement certains auditeurs, y compris un électeur du New Hampshire qui a reconnu la voix de Biden mais a réalisé plus tard qu’il s’agissait d’une arnaque. Comme vous pouvez l’imaginer, l’incident a (une fois de plus) soulevé des inquiétudes quant à une éventuelle utilisation abusive de l’IA en politique.

ElevenLabs est le site incontournable de voix off synthétique et de clonage vocal. Elle a récemment levé une levée de fonds de 80 millions de dollars dirigée par Andreessen Horowitz, valorisant l’entreprise à plus de 1,1 milliard de dollars.

Andreessen Horowitz, également connu sous le numéronyme a16z, est un fonds américain de capital risque fondé en 2009 par Marc Andreessen et Ben Horowitz.

Sur sa  page de sécurité , l’entreprise précise : « Une règle très importante s’applique à toutes les utilisations de la technologie de clonage vocal : vous ne pouvez pas cloner une voix à des fins abusives telles que la fraude, la discrimination, les discours de haine ou pour toute forme d’abus en ligne sans enfreindre la loi. .»

Cet avertissement est à peu près aussi utile que de dire à un enfant d’âge préscolaire possédant une boîte de crayons de ne pas dessiner sur les meubles. Cela dit, la société a déclaré son engagement à empêcher toute utilisation abusive de ses outils d’IA audio et a développé des mesures de protection pour lutter contre une telle utilisation abusive.

Le problème de cette histoire n’a rien à voir avec la technologie ; les gens croiront ce qu’ils veulent croire. Lorsque vous proposez des faits qui réfutent une histoire que quelqu’un vous raconte, la réponse la plus courante est : « Oui, mais… » et ils continuent avec un esprit inchangé. Il n’existe pas de solution technologique pour les ignorants volontaires.

https://shellypalmer.com/2024/01/we-cant-fix-political-deepfakes/