Skip to main content

6 Fév, 2024

Meta dit que vous feriez mieux de divulguer vos contrefaçons d’IA ou l’entreprise pourrait tout simplement les retirer.

Meta dit que vous feriez mieux de divulguer vos contrefaçons d’IA ou l’entreprise pourrait tout simplement les retirer.

L’entreprise va commencer à filigraner les photos d’IA sur Instagram, Threads et Facebook. Et elle va punir les personnes qui téléchargent des vidéos d’IA réalistes sans les divulguer.

Meta commencera à étiqueter les photos générées par l’IA et téléchargées sur Facebook, Instagram et Threads au cours des prochains mois, alors que la saison électorale s’intensifie dans le monde entier. L’entreprise commencera également à sanctionner les utilisateurs qui ne révèlent pas si une vidéo réaliste ou un morceau de musique a été produit par l’IA.

Nick Clegg, président des affaires internationales de Meta, a déclaré dans une interview que ces mesures visaient à « galvaniser » l’industrie technologique alors que les médias générés par l’IA deviennent de plus en plus difficiles à discerner de la réalité. La Maison-Blanche a fait pression pour que les entreprises filigranent les contenus générés par l’IA. En attendant, Meta développe des outils pour détecter les médias synthétiques même si leurs métadonnées ont été modifiées pour masquer le rôle de l’IA dans leur création, selon Nick Clegg.

Meta applique déjà un filigrane « Imagined with AI » aux images créées avec son propre générateur Imagine AI, et la société commencera à faire de même pour les photos générées par l’IA avec des outils de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Nick Clegg a déclaré que l’industrie était plus en retard dans l’élaboration de normes permettant d’identifier les vidéos et les sons générés par l’IA et que, bien que Meta soit très vigilant quant à la manière dont ces médias peuvent être utilisés pour tromper, l’entreprise ne sera pas en mesure de tout détecter à elle seule.

« Pour ceux qui s’inquiètent de voir des contenus vidéo et audio conçus pour tromper matériellement le public sur un sujet d’importance politique à l’approche des élections, nous serons très vigilants », a-t-il déclaré. « Est-ce que je pense qu’il y a une possibilité que quelque chose se produise où, même si c’est rapidement détecté ou rapidement étiqueté, on nous accuse d’une manière ou d’une autre d’avoir failli à la tâche ? Oui, je pense que c’est possible, voire probable ».

Exemple d’image d’IA en filigrane réalisée avec l’outil gratuit de Meta, montrant Barack Obama à partir de l’expression « un président des États-Unis ».

Meta a travaillé avec des groupes tels que Partnership on AI pour développer les initiatives existantes en matière d’authenticité du contenu. Adobe a récemment lancé le système Content Credentials qui intègre des informations sur la provenance du contenu dans les métadonnées des images. Google a étendu son filigrane SynthID aux fichiers audio après l’avoir lancé en version bêta pour les images.

Nick Clegg a indiqué que Meta commencera bientôt à exiger de ses utilisateurs qu’ils divulguent lorsque des vidéos ou des fichiers audio réalistes sont créés à l’aide de l’IA. S’ils ne le font pas, « l’éventail des sanctions qui s’appliqueront ira de l’avertissement à la suppression » du message incriminé, a-t-il déclaré.

Il existe déjà de nombreux exemples de posts viraux d’hommes politiques générés par l’IA, mais Nick Clegg a minimisé les chances de voir ce phénomène envahir la plateforme Meta au cours d’une année électorale. « Je pense qu’il est très peu probable que vous obteniez une vidéo ou un message audio entièrement synthétique d’une importance politique très significative que nous ne verrons pas assez rapidement », a-t-il déclaré. « Je ne pense tout simplement pas que les choses se dérouleront de cette manière.

Meta commence également à tester en interne l’utilisation de grands modèles de langage (LLM) formés sur ses normes communautaires, a-t-il dit, en le qualifiant de « mécanisme de triage » efficace pour ses dizaines de milliers de modérateurs humains. « Il semble que ce soit un moyen très efficace et assez précis de s’assurer que ce qui est transmis à nos réviseurs humains est vraiment le genre de cas limites pour lesquels vous voulez un jugement humain. »

https://www.theverge.com/2024/2/6/24062388/meta-ai-photo-watermark-facebook-instagram-threads

https://imagine.meta.com/