Skip to main content

31 Oct, 2019

Les logiciels de reconnaissance faciale ont un problème de genre

Les logiciels de reconnaissance faciale ont un problème de genre

D’un simple coup d’œil sur un seul visage, les nouveaux logiciels de reconnaissance faciale peuvent maintenant catégoriser le sexe de nombreux hommes et femmes avec une précision remarquable. Mais si ce visage appartient à une personne transgenre, de tels systèmes se trompent plus d’un tiers du temps, selon une nouvelle recherche de l’University of Collorado Boulder.

« Nous avons constaté que les services d’analyse faciale étaient toujours moins performants sur les personnes transgenres et qu’ils étaient universellement incapables de classer les genres non binaires », a déclaré l’auteur principal Morgan Klaus Scheuerman, un étudiant au doctorat du département des sciences de l’information. « Bien qu’il existe de nombreux types de personnes, ces systèmes ont une vision extrêmement limitée de ce à quoi ressemble le genre. »

L’étude arrive à un moment où les technologies d’analyse faciale – qui utilisent des caméras cachées pour évaluer et caractériser certaines caractéristiques d’une personne – sont de plus en plus répandues, qu’il s’agisse d’applications de rencontres pour smartphones, de kiosques numériques dans les centres commerciaux, de systèmes de sécurité des aéroports ou de surveillance des forces de police.

Des recherches antérieures suggèrent qu’elles ont tendance à être plus précises lorsqu’il s’agit d’évaluer le sexe des hommes blancs, mais qu’elles identifient mal les femmes de couleur jusqu’à un tiers du temps.

« Nous savions qu’il y avait des préjugés inhérents à ces systèmes concernant la race et l’ethnicité et nous pensions qu’il y aurait aussi des problèmes liés au sexe « , a déclaré l’auteur principal Jed Brubaker, professeur adjoint en sciences de l’information. « Nous voulions tester ça dans le monde réel. »

Pour certaines identités sexuelles, l’exactitude est impossible.

Les chercheurs ont recueilli 2 450 images de visages de l’Instagram, dont chacune avait été étiquetée par son propriétaire avec un hashtag indiquant son identité sexuelle. Les images ont ensuite été divisées en sept groupes de 350 images (#femmes, #homme, #transman, #transwoman, #transman, #agender, #agenderqueer, #nonbinary) et analysées par quatre des plus importants fournisseurs de services d’analyse faciale (IBM, Amazon, Microsoft et Clarifai).

« Notre vision et notre compréhension culturelle de ce qu’est le genre ont évolué, mais pas les algorithmes qui déterminent notre avenir technologique. C’est très problématique. » – Jed Brubaker

Notamment, Google n’a pas été inclus parce qu’il n’offre pas de services de reconnaissance du genre.

En moyenne, les systèmes étaient plus précis avec des photos de femmes cisgenres (1)  (celles qui sont nées femelles et qui s’identifient comme femelles), obtenant leur sexe droit 98,3% du temps. Ils ont catégorisé les hommes cisgenres exactement 97,6% du temps.

  1. Le cisgenre est un type d’identité de genre où le genre ressenti d’une personne correspond à son sexe biologique, assigné à sa naissance. Le mot est construit par opposition à celui de transgenre, pour une personne qui s’identifie à un autre genre que celui de son sexe biologique et assigné à sa naissance

Mais les hommes transgenres ont été identifiés à tort comme des femmes jusqu’à 38 % du temps. Et ceux qui s’identifiaient comme étant des sans genres, des homosexuels ou des non-binaires – indiquant qu’ils ne s’identifiaient ni comme des hommes ni comme des femmes – étaient mal caractérisés dans 100 % des cas.

 « Ces systèmes ne connaissent pas d’autre langue que la langue masculine ou féminine, de sorte que pour de nombreuses identités de genre, il n’est pas possible pour eux d’être corrects « , a déclaré Jed Brubaker.

Les stéréotypes désuets persistent

L’étude suggère également que ces services identifient le genre sur la base de stéréotypes dépassés.

Lorsque Morgan Klaus Scheuerman, qui est un homme aux cheveux longs, a soumis sa propre photo, la moitié l’a classé dans la catégorie des femmes.

Les chercheurs n’ont pas pu avoir accès aux données de formation ou aux images utilisées pour « enseigner » au système à quoi ressemblent les hommes et les femmes, mais des recherches antérieures suggèrent qu’ils évaluent des choses comme la position des yeux, le volume des lèvres, la longueur des cheveux et même les vêtements.

« Ces systèmes courent le risque de renforcer les stéréotypes sur ce à quoi vous devriez ressembler si vous voulez être reconnu comme un homme ou une femme. Et cela a un impact sur tout le monde « , a déclaré Morgan Klaus Scheuerman.

Le marché des services de reconnaissance faciale devrait doubler d’ici 2024, à mesure que les concepteurs techniques s’efforceront d’améliorer l’interaction humain-robot et de cibler plus précisément les publicités destinées aux consommateurs.

« Ils veulent savoir quel est votre sexe, afin de pouvoir vous vendre quelque chose de plus approprié à votre sexe « , explique Klaus Scheuerman, citant un incident très médiatisé d’un centre commercial au Canada qui a utilisé une caméra cachée dans un kiosque pour faire cela.

Déjà, a fait remarquer Jed Brubaker, les gens utilisent la technologie de reconnaissance faciale tous les jours pour avoir accès à leur téléphone intelligent ou pour se connecter à leur ordinateur.  S’il a tendance à se méfier de certaines populations déjà vulnérables, cela pourrait avoir de graves conséquences.

Par exemple, une application d’appariement pourrait organiser un rendez-vous avec une personne du mauvais sexe, ce qui pourrait mener à une situation potentiellement dangereuse. Ou un décalage entre le sexe qu’un programme de reconnaissance faciale voit et les documents qu’une personne transporte pourrait entraîner des problèmes de sécurité dans les aéroports, a déclaré Scheuerman.  Il est très préoccupé par le fait que de tels systèmes réaffirment des notions que les personnes transgenres n’intègrent pas.

« Les gens pensent que la vision par ordinateur est futuriste, mais il y a beaucoup de gens qui pourraient être tenus à l’écart de ce soi-disant avenir « , a-t-il dit.

Deux systèmes d’analyse faciale ont identifié différemment le sexe du chercheur Morgan Klaus Scheuerman, qui est un homme.

Les auteurs disent qu’ils aimeraient voir les entreprises de technologie s’éloigner complètement de la classification selon le sexe et s’en tenir à des étiquettes plus spécifiques comme  » cheveux longs  » ou  » maquillage  » pour évaluer les images.

 « Quand vous marchez dans la rue, vous pouvez regarder quelqu’un et présumer que vous connaissez son sexe, mais c’est une idée vraiment pittoresque des années 90 et ce n’est plus ce qu’est le monde, » dit Jed Brubaker. « Notre vision et notre compréhension culturelle de ce qu’est le genre ont évolué, mais pas les algorithmes qui déterminent notre avenir technologique. C’est très problématique. »

https://www.colorado.edu/today/2019/10/08/facial-recognition-software-has-gender-problem