Facebook dit qu’il s’améliore dans l’utilisation de l’IA pour faire tomber les discours de haine
Facebook dit qu’il s’améliore dans l’utilisation de l’IA pour faire tomber les discours de haine

Un enquêteur appelle la personne qui lui a envoyé une menace de mort
Facebook a passé des années à construire et à déployer une intelligence artificielle pour éradiquer les discours de haine sur son énorme réseau social. L’entreprise affirme qu’elle utilise désormais cette technologie pour repérer de manière proactive près de 95 % des contenus qu’elle supprime. Les 5 % restants pourraient toutefois être difficiles à résoudre.
Jeudi 19 Novembre 2020, Facebook a déclaré que ses systèmes d’intelligence artificielle ont détecté 94,7 % des 22,1 millions de contenus haineux qu’elle a retirés de son réseau social au cours du troisième trimestre 2020, contre 80,5 % des 6,9 millions de contenus qu’elle a retirés au cours du même trimestre l’année dernière. En 2017, l’entreprise a pu utiliser l’IA pour détecter de manière proactive beaucoup moins de discours de haine – 24% du total des contenus haineux qu’elle a retirés à l’époque. Les chiffres proviennent de la dernière édition du rapport sur l’application des normes communautaires que la société a commencé à publier chaque trimestre à partir du mois d’août.
Cette mise à jour intervient quelques jours seulement après que le PDG de Facebook, Mark Zuckerberg, ait parlé au Congrès de la régulation d’Internet, au cours de laquelle il a souligné à plusieurs reprises la dépendance de la société aux algorithmes pour repérer les contenus terroristes et d’exploitation des enfants avant que quiconque ne les voit.
Comme de nombreux autres réseaux sociaux, Facebook s’appuie sur l’IA pour aider une équipe d’humains à modérer une montagne de contenu toujours plus importante sur sa plateforme éponyme et sur Instagram, dont elle est également propriétaire. C’est une tâche délicate et sans fin que de supprimer les messages et les publicités indésirables des utilisateurs, en partie parce que les gens sont particulièrement doués pour comprendre ce qui différencie, par exemple, un nu artistique d’une photo d’exploitation ou comment des mots et des images qui semblent innocents en soi peuvent être blessants lorsqu’ils sont associés.

Lors d’un appel vidéo avec les journalistes mercredi, Mike Schroepfer, le directeur technique de Facebook, a expliqué certains des derniers outils d’intelligence artificielle que Facebook utilise pour trouver les contenus nuisibles avant qu’ils ne deviennent viraux, comme celui qui utilise les données en ligne des systèmes Facebook pour s’améliorer, plutôt qu’un ensemble de données hors ligne. Il a déclaré que son objectif est de continuer à faire avancer la technologie jusqu’à ce que le moins de personnes possible voient des contenus répréhensibles sur le réseau social. Dans le passé, Facebook a été critiqué pour sa dépendance excessive envers les entrepreneurs humains, dont le travail, par nature, les soumet à des contenus qui peuvent être horrifiants à voir, ainsi que pour son IA qui ne capte pas les flux violents en direct comme la fusillade de la mosquée néo-zélandaise en mars 2019.
« De toute évidence, je ne suis pas satisfait tant que nous n’avons pas terminé », a déclaré Mike Schroepfer. « Et nous n’avons pas fini. »
Mais le contenu le plus délicat à saisir pour l’IA reste celui qui repose sur la subtilité et le contexte – des indices que les ordinateurs ne maîtrisent pas. Mike Schroepfer a déclaré que Facebook travaille actuellement sur la détection des mèmes haineux ; la société a déployé un ensemble de données accessibles au public concernant ce type de contenu au printemps dans l’espoir d’aider les chercheurs à améliorer les capacités de détection. Comme exemple de contenu qui pourrait être blessant mais qui pourrait passer sous le radar de l’IA, il a cité une image d’un cimetière recouverte du texte « you belong here » (Votre place est ici)
« Si j’avais un texte superposé qui disait « Votre place est ici », et que l’image de fond était un terrain de jeu, c’est très bien. Si c’est un cimetière, cela peut être interprété comme de la haine envers vous, en tant que catégorie de personnes ciblées », a-t-il souligné.
https://edition.cnn.com/2020/11/19/tech/facebook-ai-hate-speech/index.html