Skip to main content

19 Juin, 2023

Un algorithme destiné à réduire la pauvreté pourrait disqualifier les personnes dans le besoin

Un algorithme destiné à réduire la pauvreté pourrait disqualifier les personnes dans le besoin

Selon un nouveau rapport de Human Rights Watch, un système algorithmique de distribution d’aide sociale pour la Jordanie, financé par la Banque mondiale, quantifie injustement et inexactement la pauvreté.

Un algorithme financé par la Banque mondiale pour déterminer quelles familles devraient recevoir une aide financière en Jordanie exclut probablement les personnes qui devraient être éligibles, selon une enquête publiée par Human Rights Watch. 

Le système algorithmique, appelé Takaful, classe les familles demandant une aide du moins pauvre au plus pauvre à l’aide d’un calcul secret qui attribue des poids à 57 indicateurs socio-économiques. Les candidats disent que le calcul ne reflète cependant pas la réalité et simplifie à l’extrême la situation économique des gens, parfois de manière inexacte ou injuste. Takaful a coûté plus d’un milliard de dollars et la Banque mondiale finance des projets similaires dans huit autres pays du Moyen-Orient et d’Afrique. 

Human Rights Watch a identifié plusieurs problèmes fondamentaux avec le système algorithmique qui ont entraîné des biais et des inexactitudes. On demande aux candidats combien d’eau et d’électricité ils consomment, par exemple, comme deux des indicateurs qui alimentent le système de classement. Les auteurs du rapport concluent qu’il ne s’agit pas nécessairement d’indicateurs fiables de la pauvreté. Certaines familles interrogées estimaient que le fait de posséder une voiture affectait leur classement, même si la voiture était vieille et nécessaire pour se rendre au travail. 

Le rapport se lit comme suit : « Ce vernis d’objectivité statistique masque une réalité plus compliquée : les pressions économiques que les gens subissent et les façons dont ils luttent pour s’en sortir sont souvent invisibles pour l’algorithme. »

« Les questions posées ne reflètent pas la réalité dans laquelle nous existons », déclare Abdelhamad, un père de deux enfants qui gagne 250 dinars (326 €) par mois et a du mal à joindre les deux bouts, comme cité dans le rapport.

Le Takaful renforce également la discrimination sexiste existante en s’appuyant sur des codes juridiques sexistes. L’aide en espèces est fournie aux citoyens jordaniens uniquement, et l’un des indicateurs pris en compte par l’algorithme est la taille d’un ménage. Bien que les hommes jordaniens qui épousent un non-ressortissant puissent transmettre la nationalité à leur conjoint, les femmes jordaniennes qui le font ne le peuvent pas. Pour ces femmes, cela se traduit par une taille de ménage à déclarer inférieure, ce qui les rend moins susceptibles de recevoir de l’aide.

Le rapport est basé sur 70 entretiens menés par Human Rights Watch au cours des deux dernières années, et non sur une évaluation quantitative, car la Banque mondiale et le gouvernement jordanien n’ont pas rendu public la liste des 57 indicateurs, une ventilation de la pondération des indicateurs, ou des données complètes sur les décisions de l’algorithme. La Banque mondiale n’a pas encore répondu à notre demande de commentaires. 

Amos Toh, chercheur en intelligence artificielle et en droits de l’homme pour Human Rights Watch et auteur du rapport, affirme que les conclusions soulignent la nécessité d’une plus grande transparence dans les programmes gouvernementaux qui utilisent la prise de décision algorithmique. De nombreuses familles interrogées ont exprimé leur méfiance et leur confusion quant à la méthodologie de classement. « Il incombe au gouvernement jordanien d’assurer cette transparence », déclare Amos Toh. 

Les chercheurs sur l’éthique et l’équité de l’IA appellent à un examen plus approfondi de l’utilisation croissante des algorithmes dans les systèmes de protection sociale. «Lorsque vous commencez à créer des algorithmes dans ce but particulier, pour superviser l’accès, ce qui se passe toujours, c’est que les personnes qui ont besoin d’aide sont exclues», explique Meredith Broussard, professeur à NYU et auteur de More Than a Glitch: Confronting Race, Gender, and Ability Biais dans la technologie . 

« Il semble que ce soit encore un autre exemple d’une mauvaise conception qui finit par restreindre l’accès aux fonds pour les personnes qui en ont le plus besoin », dit-elle. 

La Banque mondiale a financé le programme, qui est géré par le Fonds national d’aide jordanien, une agence de protection sociale du gouvernement. En réponse au rapport, la Banque mondiale a déclaré qu’elle prévoyait de publier des informations supplémentaires sur le programme Takaful en juillet 2023 et a réitéré son « engagement à faire progresser la mise en œuvre de la protection sociale universelle [et] à garantir l’accès à la protection sociale pour toutes les personnes. ”

L’organisation a encouragé l’utilisation de la technologie des données dans les programmes de transferts monétaires tels que Takaful, affirmant qu’elle favorise la rentabilité et une plus grande équité dans la distribution. Les gouvernements ont également utilisé des systèmes basés sur l’IA pour se prémunir contre la fraude à l’aide sociale. Une enquête menée le mois dernier sur un algorithme utilisé par le gouvernement néerlandais pour signaler les demandes de prestations les plus susceptibles d’être frauduleuses a révélé une discrimination systématique fondée sur la race et le sexe.

https://www.technologyreview.com/2023/06/13/1074551/an-algorithm-intended-to-reduce-poverty-in-jordan-disqualifies-people-in-need/