Skip to main content

29 Jan, 2020

Un chercheur développe un algorithme pour rendre l’intelligence artificielle plus équitable

Un chercheur développe un algorithme pour rendre l’intelligence artificielle plus équitable

Un chercheur de la Queen’s University Belfast a mis au point un nouvel algorithme innovant qui permettra de rendre l’intelligence artificielle (IA) plus équitable et moins biaisée lors du traitement des données.

Les entreprises utilisent souvent les technologies d’IA pour passer au crible d’énormes quantités de données dans des situations telles qu’une offre d’emploi sursouscrite ou dans le domaine du maintien de l’ordre lorsqu’il existe un grand volume de données de vidéosurveillance liées à un crime.

L’IA trie les données, les regroupe pour former un nombre gérable de groupes, qui sont des groupes de données ayant des caractéristiques communes. Il est alors beaucoup plus facile pour une organisation d’analyser manuellement et de présélectionner ou de rejeter l’ensemble du groupe.

Cependant, si l’IA permet de gagner du temps, le processus est souvent biaisé en termes de race, de sexe, d’âge, de religion et de pays d’origine.

Le Dr Deepak Padmanabhan, de cette Queen’s University, a dirigé un projet international, en collaboration avec des experts de l’Institut indien de technologie de Madras (Savitha Abraham et Sowmya Sundaram), pour s’attaquer au problème de la discrimination dans les algorithmes de regroupement.

Le Dr Padmanabhan, chercheur à l’École d’électronique, d’électrotechnique et d’informatique et à l’Institut d’électronique, de communication et de technologie de l’information de la Queen’s University Belfast, explique : « Les techniques d’IA pour le traitement des données, connues sous le nom d’algorithmes de regroupement, sont souvent critiquées comme étant biaisées en termes d' »attributs sensibles » tels que la race, le sexe, l’âge, la religion et le pays d’origine. Il est important que les techniques d’IA soient équitables tout en facilitant les décisions de présélection, afin de garantir qu’elles ne sont pas discriminatoires sur de tels attributs ».

Il a été rapporté que les noms à consonance blanche ont reçu 50 % de rappels en plus que ceux à consonance noire. Des études suggèrent également que les taux de rappel ont tendance à diminuer considérablement pour les travailleurs dans la quarantaine et au-delà. Une autre tendance discriminatoire est la « pénalité de maternité », où les mères qui travaillent sont désavantagées sur le marché du travail tandis que les pères qui travaillent réussissent mieux, dans ce qu’on appelle la « prime de paternité ».

Le Dr Padmanabhan déclare : « Lorsqu’une entreprise est confrontée à un processus qui implique de nombreuses données, il est impossible de les passer au crible manuellement. Le regroupement est un processus courant à utiliser dans des processus tels que le recrutement, où des milliers de candidatures sont soumises. Bien que cela puisse réduire le temps nécessaire pour passer au crible un grand nombre de candidatures, il y a un gros inconvénient. On observe souvent que ce processus de regroupement exacerbe la discrimination sur le lieu de travail en produisant des regroupements très asymétriques ».

Au cours des dernières années, des techniques de « regroupement équitable » ont été mises au point, qui permettent d’éviter les préjugés concernant un attribut unique, comme le sexe. Cependant, le Dr Padmanabhan a maintenant créé une méthode qui, pour la première fois, peut atteindre l’équité dans de nombreux attributs.

Le Dr Padmanabhan commente : « Notre algorithme de regroupement équitable, appelé FairKM, peut être invoqué avec un nombre quelconque d’attributs sensibles spécifiés, ce qui conduit à un processus beaucoup plus équitable.

« D’une certaine manière, FairKM fait un pas important vers des algorithmes qui assurent l’équité dans la présélection, notamment en termes de ressources humaines. Avec un processus plus équitable en place, les comités de sélection peuvent se concentrer sur d’autres critères essentiels liés à l’emploi.

« FairKM peut être appliqué à un certain nombre de scénarios de données dans lesquels l’IA est utilisée pour aider à la prise de décision, comme la police proactive pour la prévention de la criminalité et la détection d’activités suspectes. Nous pensons qu’il s’agit là d’un pas important vers la création d’algorithmes d’apprentissage machine équitables, capables de répondre aux exigences de notre société démocratique moderne ».

Savitha Abraham, chercheur à l’Institut indien de technologie de Madras précise : « L’équité des techniques d’IA est importante dans les pays en développement comme l’Inde. Ces pays connaissent des disparités sociales et économiques drastiques et celles-ci se reflètent dans les données.

« L’utilisation de techniques d’IA directement sur les données brutes donne des aperçus biaisés, qui influencent les politiques publiques et cela pourrait amplifier les disparités existantes. L’adoption de méthodes d’IA plus équitables est essentielle, en particulier dans le secteur public, lorsqu’il s’agit de tels scénarios ».

La recherche, qui a été menée dans le bâtiment des sciences informatiques de l’Université Queen’s, sera présentée à Copenhague en avril 2020 lors de la conférence EDBT 2020, qui est réputée pour la recherche en sciences des données.

https://www.qub.ac.uk/