Skip to main content

10 Sep, 2018

Microsoft annonce un outil pour déceler les IA biaisées, car nous continuons à créer de l’IA erronée

Microsoft annonce un outil pour déceler les IA biaisées, car nous continuons à créer de l’IA erronée

Microsoft est la dernière entreprise de technologie à essayer de s’attaquer à la partialité algorithmique, c’est-à-dire à l’intelligence artificielle alimentée par des données infra et qui est devenue le reflet des préjugés ou des perspectives injustes de la société. Selon le MIT Technology Review, la société souhaite créer un outil qui détectera et alertera les utilisateurs des algorithmes d’IA susceptibles de les traiter en fonction de leur race ou de leur sexe.

Il est formidable que Microsoft, qui se présente comme une société qui crée de l’intelligence artificielle pour rassembler les gens, s’associe aux côtés de Google et de Facebook pour créer une sorte d’outil de recherche en « IA mal formée ». Mais le nouvel algorithme de Microsoft pour trouver des algorithmes problématiques ne peut que détecter et signaler les problèmes existants. Cela signifie que les programmes susceptibles d’augmenter les préjugés de la police, par exemple, seront toujours développés et utilisés, mais peut-être pas aussi longtemps qu’ils le seraient sans être détectés.

Pour vraiment créer une IA équitable et bénéfique pour tout le monde, il faut faire plus attention à la partie initiale. L’une des manières possibles pour les entreprises de garantir leurs bases consiste à effectuer un audit par une tierce partie, où une entreprise technologique fait appel à un expert externe pour examiner ses algorithmes et rechercher des signes de partialité/d’erreurs dans le code lui-même ou dans les données.

L’idée d’un audit de l’IA, mentionnée dans l’article du MIT Technology Review, a gagné du terrain ailleurs, et certaines entreprises d’IA ont commencé à recruter des auditeurs pour examiner leur code. Mais cela nécessite également que l’IA soit suffisamment simple pour que quelqu’un puisse y entrer et repérer les zones problématiques, ou que l’auditeur soit familiarisé avec le code. Pour les algorithmes d’apprentissage profond plus compliqués, cela n’est pas toujours possible.

Une autre réponse possible est une meilleure formation pour les personnes qui créent réellement l’IA afin qu’elles puissent mieux détecter leurs propres opinions et préjugés, et éviter qu’elles soient interprétées comme des faits par l’algorithme. Cela ne signifie pas que les codeurs se lancent dans la programmation de machines racistes. Mais comme chacun a des biais implicites, le monde de la technologie gagnerait à aider les gens à mieux comprendre leur propre vision du monde.

Ce sont des solutions majeures qui nécessiteraient un changement d’attitude dans le développement de la technologie, même dans les entreprises qui souhaitent développer ces filtres et indicateurs pour les algorithmes biaisés. En attendant, c’est un bon signe que les chercheurs et les entreprises commencent à prêter attention au problème.

https://futurism.com/microsoft-announces-tool-catch-biased-ai/

https://www.technologyreview.com/s/611138/microsoft-is-creating-an-oracle-for-catching-biased-ai-algorithms/

https://www.microsoft.com/en-us/ai/our-approach-to-ai