Skip to main content

1 Oct, 2018

IBM se donne pour mission d’éliminer les préjugés de l’IA

IBM se donne pour mission d’éliminer les préjugés de l’IA

« Les valeurs adoptées pour construire les systèmes d’IA d’aujourd’hui se refléteront dans les décisions prises par ces systèmes pendant une décennie ou plus », déclare IBM. Que ce soit pour évaluer votre historique de crédit, vous offrir un emploi ou même accorder votre libération conditionnelle, les organisations se tournent de plus en plus vers l’intelligence artificielle pour automatiser cette prise de décision.

Pourtant, ce n’est que récemment que nous avons examiné comment les systèmes de reconnaissance faciale peuvent amplifier les préjugés humains plutôt que de les supprimer. Ce n’est là qu’un exemple de plus en plus préoccupant : les algorithmes utilisant des données imparfaites et des hypothèses erronées héritant des préjugés des humains.

Avec sa nouvelle boîte à outils « AI Fairness 360 », IBM se lance un défi. La boîte à outils est une sorte de couteau suisse d’algorithme, accessible à tous et conçu pour éliminer ce biais/dérive.

« Cette boîte à outils comporte de nombreux composants », explique Kush R. Varshney, de IBM Research AI. « Le premier est de savoir comment vérifier les biais. Le second est de savoir comment expliquer la manière dont ces vérifications arrivent, et ce que cela signifie pour l’utilisateur. Le troisième aspect concerne les algorithmes pour corriger les biais et corriger les modèles qui en découlent afin de les rendre plus justes. « 

Mais d’où viennent ces biais/dérives ? Les données sources sur lesquelles s’appuient les algorithmes d’IA sont très souvent la cause du problème. «Avec les algorithmes d’apprentissage automatique, ils sont formés à l’aide de données historiques et, en général, ces données sont constituées de décisions humaines historiques prises pour la même tâche», explique Kush Varshney. « Et souvent les décisions humaines laissent des traces de biais, qu’elles soient implicites ou explicites pour diverses raisons. Donc, si le modèle d’apprentissage automatique est formé sur la base de cet ensemble de données formées et biaisées, il héritera et reproduira ces biais. »

Pourtant, ce n’est pas seulement les données qui posent problème. « Il existe des cas où un praticien ou un modélisateur peut, sans le savoir, faire quelque chose pour transformer les données de manière inappropriée ou introduire des biais dans le processus de modélisation », explique Aleksandra Mojsilović, IBM Fellow d’IA Science. Un exemple simple peut être l’action apparemment inoffensive consistant à trier les données en seaux, par exemple par âge ou par niveau d’éducation, ce qui peut avoir des répercussions sur une décision d’admission à l’université.

Que fait réellement la trousse à outils? « Le simple fait de vérifier le biais est assez simple », explique Kush Varshney. « Les algorithmes sont ceux pour lesquels le véritable intérêt est pour nous, de sorte que la boîte à outils contient actuellement 10 algorithmes différents pour corriger ou atténuer les biais. » Ces algorithmes se répartissent généralement en trois types. Un groupe prétraite les données pour s’assurer que les différents groupes de personnes sont traités équitablement. Un autre agit sur le traitement des données lui-même, ce qui peut inclure l’instauration de sauvegardes algorithmiques pour éliminer les données biaisées. Et le troisième vérifie le biais dans les résultats des algorithmes d’IA. « Le fait d’avoir plusieurs algorithmes est bien car cela permet aux utilisateurs de choisir ce qui leur convient le mieux », ajoute-t-il.

Pourquoi faire une boîte à outils open source? « L’équité et les préjugés sont si complexes », explique Aleksandra Mojsilović. « Même pour les humains, il est très difficile à définir et comprendre, et encore plus difficile pour les praticiens d’en faire une partie de leurs solutions. Nous avons senti que c’était l’un des domaines dans lequel l’industrie devrait s’unir et que tout le monde devrait s’unir, car au fur et à mesure que nous avancerons ensemble, c’est pour le bien commun. Il est très important pour nous de le mettre au grand jour et d’appeler la communauté à y collaborer et à y contribuer. « 

« Il s’agit d’un domaine de recherche très actif dans la communauté de l’apprentissage automatique », ajoute Kursh Varshney. « Et je pense que pour garder les choses dans un état récent, pour garder les développements les plus récents disponibles pour tout le monde, je pense que c’est une des raisons pour lesquelles il devrait être open source. Nous voulons vraiment que cela devienne la plaque tournante pour les praticiens afin d’incorporer ceci dans tous les codes qu’ils développent pour toutes leurs applications dans tous les secteurs – finance, ressources humaines, santé, éducation, tout secteur public – et en faisant en sorte qu’ils soient open source, les gens peuvent les intégrer dans leurs flux de travail. « 

Ce n’est pas seulement le secteur de l’IA qui s’intéresse au travail d’IBM. « Nous avons entendu beaucoup d’histoires de praticiens de l’industrie qui viennent visiter notre laboratoire et qui seraient vraiment intéressés à découvrir s’il y avait un parti pris dans leurs décisions historiques prises par les humains », précise Aleksandra Mojsilović. « Il est vraiment utile du point de vue de l’entreprise chaque fois qu’il y a des quantités massives de données et que les décisions sont prises quotidiennement avec un volume élevé.

Parfois, les algorithmes ont de bonnes nouvelles à signaler. « Nous travaillions avec ce groupe nommé Echoing Green, et ils forment un groupe qui offre des bourses et d’autres formes de soutien aux entrepreneurs sociaux prometteurs », a déclaré Kursh Varshney. «Ils reçoivent quelque 3000 applications par an pour 30 emplacements qu’ils peuvent proposer. Nous cherchions à utiliser des techniques d’apprentissage automatique pour automatiser ou, du moins, aider les décideurs humains à réduire leur charge. Actuellement, il apparait que les propres processus d’Echoing Green étaient assez équitables en ce qui concerne les variables que nous avons examinées et c’est un exemple de quelque chose que nous recherchions mais que nous n’avons pas trouvé intéressant. « 

Kursh Varshney et Aleksandra Mojsilović sont tous deux optimistes quant à l’avenir de l’IA. « Nous avons vraiment la possibilité maintenant de nous attaquer aux problèmes les plus importants du monde: la faim, la pauvreté, la santé et l’éducation », a déclaré Kursh Varshney. « L’une de ces manières est l’initiative Science for Social Good ». L’initiative, que Mojsilović et Varshney co-dirigent, voit des ingénieurs et des scientifiques d’IBM travailler avec des ONG pour résoudre des problèmes de société. Les initiatives couvrent divers domaines, allant de la recherche de biomimétisme à l’inspiration technologique, en passant par la lutte contre le discours de haine en ligne.

« Il s’agit vraiment de la manière dont vous utilisez les technologies liées à l’IA et à l’apprentissage automatique pour traiter les problèmes qui vont au-delà du programme de génération de revenus », ajoute Aleksandra Mojsilović. « Comment abordons-nous les problèmes de ce monde? C’est une idée extrêmement passionnante. »

Mais elle avertit qu’une meilleure compréhension de l’IA est nécessaire si nous voulons tirer le meilleur parti de la technologie. « C’est toujours une technologie très nouvelle dans le sens où nous l’utilisons. Elle est également très mal comprise, en particulier par les législateurs et les décideurs publics. Nous devons trouver un moyen de relier tous ces points et travailler un cadre très multidisciplinaire pour que les progrès soient réalisés de la meilleure manière possible, et nous ne limitons donc pas cela de manière à limiter les usages qui ont ce potentiel énorme. « 

https://developer.ibm.com/blogs/2018/09/19/ai-fairness-360-raise-ai-right/

https://developer.ibm.com/blogs/2018/09/19/ai-fairness-360-attacking-bias-from-all-angles/