Google utilise une nouvelle méthode de mesure de la couleur de la peau pour rendre les résultats de recherche plus inclusifs.
Google utilise une nouvelle méthode de mesure de la couleur de la peau pour rendre les résultats de recherche plus inclusifs.

La nouvelle échelle de teinte de la peau en 10 points pourrait contribuer à rendre l’IA moins biaisée.
Google s’associe à un professeur de Harvard pour promouvoir une nouvelle échelle de mesure de la couleur de la peau, dans l’espoir de résoudre les problèmes de partialité et de diversité dans les produits de l’entreprise.
Le géant de la technologie travaille avec Ellis Monk, professeur adjoint de sociologie à Harvard et créateur de la Monk Skin Tone Scale, ou MST. L’échelle MST est conçue pour remplacer les échelles de couleur de peau obsolètes qui sont biaisées en faveur des peaux claires. Lorsque ces anciennes échelles sont utilisées par les entreprises technologiques pour catégoriser la couleur de la peau, cela peut conduire à des produits moins performants pour les personnes à la couleur plus foncée, explique Ellis Monk.
« À moins d’avoir une mesure adéquate des différences de teint de peau, nous ne pouvons pas vraiment intégrer cela dans les produits pour nous assurer qu’ils sont plus inclusifs », souligne Ellis Monk. « L’échelle de teinte de peau Monk est une échelle de teinte de peau en 10 points qui a été délibérément conçue pour être beaucoup plus représentative et inclusive d’un plus large éventail de teintes de peau différentes, en particulier pour les personnes [ayant] des teintes de peau plus foncées. »
Réparer les biais dans l’IA signifie souvent réparer les données de formation.
Il existe de nombreux exemples de produits technologiques, en particulier ceux qui utilisent l’IA, dont les performances sont moins bonnes avec des teintes de peau plus foncées. Il s’agit notamment d’applications conçues pour détecter le cancer de la peau, de logiciels de reconnaissance faciale et même de systèmes de vision artificielle utilisés par les voitures à conduite autonome.
Bien qu’il existe de nombreuses façons de programmer ce type de biais dans ces systèmes, un facteur commun est l’utilisation d’échelles de teint de peau obsolètes lors de la collecte des données d’entraînement. L’échelle de teinte de la peau la plus populaire est l’échelle de Fitzpatrick, qui est largement utilisée dans le milieu universitaire et l’IA. Cette échelle a été conçue dans les années 70 pour classifier la façon dont les personnes à la peau plus claire brûlent ou bronzent au soleil et n’a été étendue que plus tard aux peaux plus foncées.
Cela a donné lieu à certaines critiques selon lesquelles l’échelle de Fitzpatrick ne parvient pas à saisir toute la gamme des teintes de peau et peut signifier que lorsqu’un logiciel de vision industrielle est entraîné sur les données de Fitzpatrick, il est également biaisé en faveur des types de peau plus clairs.

L’échelle de teinte de la peau de Monk en 10 points. Image : Ellis Monk / Google
L’échelle de Fitzpatrick comprend six catégories, mais l’échelle MST élargit ce nombre à 10 tons de peau différents. Ellis Monk précise que ce nombre a été choisi sur la base de ses propres recherches afin d’équilibrer la diversité et la facilité d’utilisation. Certaines échelles de teintes de peau proposent plus d’une centaine de catégories différentes, dit-il, mais un choix trop vaste peut conduire à des résultats incohérents.
« Habituellement, si vous dépassez 10 ou 12 points sur ce type d’échelle [et] demandez à la même personne de choisir les mêmes tons à plusieurs reprises, plus vous augmentez l’échelle, moins les gens sont capables de le faire », lance Ellis explique Monk. « Sur le plan cognitif, il devient vraiment difficile de faire une distinction précise et fiable. » Un choix de 10 tons de peau est beaucoup plus facile à gérer, dit-il.
La création d’une nouvelle échelle de teintes de peau n’est cependant qu’une première étape, et le véritable défi consiste à intégrer ces travaux dans des applications réelles. Afin de promouvoir l’échelle MST, Google a créé un nouveau site Web, skintone.google, consacré à l’explication des recherches et des meilleures pratiques pour son utilisation dans l’IA. L’entreprise indique qu’elle travaille également à l’application de l’échelle MST à un certain nombre de ses propres produits. Il s’agit notamment de ses filtres photo « Real Tone », conçus pour mieux s’adapter aux teintes de peau plus foncées, et de ses résultats de recherche d’images.

Google permettra aux utilisateurs d’affiner certains résultats de recherche en utilisant les tons de peau sélectionnés dans l’échelle MST. Image : Google
Google annonce l’introduction d’une nouvelle fonctionnalité de recherche d’images qui permettra aux utilisateurs d’affiner les recherches en fonction des teintes de peau classées selon l’échelle MST. Ainsi, par exemple, si vous recherchez « maquillage pour les yeux » ou « maquillage de mariée », vous pourrez filtrer les résultats en fonction de la couleur de la peau. À l’avenir, la société prévoit également d’utiliser l’échelle MST pour vérifier la diversité de ses résultats, de sorte que si vous recherchez des images de « bébés mignons » ou de « médecins », vous ne verrez pas uniquement des visages blancs.
« L’une des choses que nous faisons est de prendre un ensemble de résultats [d’images], de comprendre quand ces résultats sont particulièrement homogènes à travers quelques ensembles de tons, et d’améliorer la diversité des résultats », a déclaré Tulsee Doshi, chef de produit pour l’IA responsable chez Google. Il a toutefois souligné que ces mises à jour en étaient à un stade de développement « très précoce » et qu’elles n’avaient pas encore été déployées sur l’ensemble des services de l’entreprise.
Google expérimente l’équilibrage des résultats de recherche d’images pour les rendre plus inclusifs.
Cela devrait inciter à la prudence, non seulement pour ce changement spécifique, mais aussi pour l’approche de Google visant à résoudre les problèmes de partialité dans ses produits de manière plus générale. L’entreprise a des antécédents inégaux en la matière, et l’industrie de l’IA dans son ensemble a tendance à promettre des directives éthiques et des garde-fous, puis à ne pas les respecter.
Prenez, par exemple, la tristement célèbre erreur de Google Photos qui a conduit son algorithme de recherche à marquer les photos de Noirs comme étant des « gorilles » et des « chimpanzés ». Cette erreur a été remarquée pour la première fois en 2015, et pourtant, Google a confirmé cette semaine qu’il n’a toujours pas réglé le problème, mais qu’il a simplement supprimé complètement ces termes de recherche. « Bien que nous ayons considérablement amélioré nos modèles en fonction des commentaires, ils ne sont toujours pas parfaits », a déclaré Michael Marconi, porte-parole de Google Photos. « Afin d’éviter ce type d’erreur et de causer potentiellement des dommages supplémentaires, les termes de recherche restent désactivés. »
L’introduction de ce genre de changements peut également être culturellement et politiquement difficile, reflétant des difficultés plus larges dans la façon dont nous intégrons ce genre de technologie dans la société. Dans le cas du filtrage des résultats de recherche d’images, par exemple, Tulsee Doshi note que la « diversité » peut avoir une signification différente selon les pays, et que si Google ajuste les résultats d’images en fonction de la couleur de la peau, il devra peut-être modifier ces résultats en fonction de la géographie.
« Ce que signifie la diversité, par exemple, lorsque nous affichons des résultats en Inde [ou] lorsque nous affichons des résultats dans différentes parties du monde, sera fondamentalement différent », explique Tulsee Doshi. « Il est difficile de dire nécessairement, ‘oh, c’est l’ensemble exact de bons résultats que nous voulons,’ parce que cela va différer par utilisateur, par région, par requête. »
L’introduction d’une nouvelle échelle plus inclusive pour mesurer les tons de la peau est un pas en avant, mais des questions beaucoup plus épineuses impliquant l’IA et les préjugés demeurent.