Skip to main content

7 Déc, 2018

Microsoft veut arrêter la «spirale infernale » de l’Intelligence Artificielle et notamment pour la reconnaissance faciale

Microsoft veut arrêter la «spirale infernale » de l’Intelligence Artificielle et notamment pour la reconnaissance faciale

« Nous pensons qu’il est important que les gouvernements en 2019 commencent à adopter des lois afin de réglementer la technologie de reconnaissance faciale » a déclaré Brad Smith, le président de Microsoft.

Après une année bien remplie de scandales technologiques, même les dirigeants opposés au gouvernement ont commencé à affirmer leur ouverture à une législation. Mais le président de Microsoft, Brad Smith, a fait un pas de plus jeudi, en demandant à tous les gouvernements de réglementer l’utilisation de la technologie de reconnaissance faciale pour éviter tout danger.

Les entreprises de technologie sont souvent forcées de choisir entre la responsabilité sociale et les profits, mais les conséquences de la reconnaissance faciale sont trop graves pour les affaires courantes, a souligné Brad Smith. « Nous pensons que la seule façon de se protéger contre cette spirale infernale est de construire un socle de responsabilité qui soutienne une saine concurrence sur le marché « , a-t-il déclaré dans un discours prononcé à la Brookings Institution. « Nous devons nous assurer que l’année 2024 ne ressemble pas à une page du roman 1984. »

Pour remédier à la partialité, Brad Smith a déclaré que la législation ne devait pas être interprétée comme signifiant qu’elle ne pouvait être utilisée d’aucune manière. Il a ainsi déclaré que les poursuites judiciaires devraient nécessiter « un préjudice corporel ou émotionnel ou des atteintes à la vie privée ou à des droits fondamentaux ». Comme autre mesure de protection de la vie privée, M. Smith a déclaré que si la reconnaissance faciale est utilisée pour identifier les consommateurs, la loi devrait exiger  » un avis bien visible qui indique clairement que ces services sont utilisés « .

Brad Smith, par conséquent, a déclaré que les législateurs devraient étendre les exigences relatives aux mandats de perquisition à l’utilisation de la technologie de reconnaissance faciale. Il a évoqué une décision rendue en juin par la Cour suprême des États-Unis visant à obtenir un mandat de perquisition pour obtenir des enregistrements de téléphone portable indiquant l’emplacement d’un utilisateur. « Nos visages méritent-ils la même protection que nos téléphones ? » « De notre point de vue, la réponse est un oui retentissant. »

« Le seul moyen de se protéger contre cette spriraleinfernale est de bâtir un socle de responsabilités qui soutient une concurrencesaine sur le marché. « 

Brad Smith a déclaré que les entreprises et les gouvernements utilisant la reconnaissance faciale devraient faire preuve de transparence quant à leur technologie, notamment en les soumettant à un contrôle externe. « En tant que société, nous devons placer des groupes de test impartiaux tels que Consumer Reports et leurs homologues dans une position leur permettant d’évaluer l’exactitude et les préjugés injustes de manière précise et impartiale », a déclaré M. Smith.

Dans son discours de jeudi, Brad Smith s’est fait l’écho d’un appel en faveur d’une technologie de reconnaissance faciale réglementaire qu’il avait lancé en juillet, mais il a donné de nouvelles précisions. Il a énuméré six principes qui, selon lui, devraient guider l’utilisation et la réglementation de la reconnaissance faciale : l’équité, la transparence, la responsabilité, la non-discrimination, la notification et le consentement, et la surveillance légale. Il a déclaré que Microsoft publierait la semaine prochaine un document contenant des suggestions sur la mise en œuvre de ces principes.

Le discours de Brad Smith jeudi a fait écho à un appel à la réglementation de la technologie de reconnaissance faciale. Il a énuméré six principes qu’il a énoncés: « équité, transparence, responsabilité, non-discrimination, notification et consentement et surveillance légale. Il a ajouté que Microsoft publierait un document avec des suggestions sur la manière de mettre en œuvre ces principes la semaine prochaine.

Alors que les gouvernements et les entreprises déploient de plus en plus la technologie de reconnaissance faciale dans des domaines comme la justice pénale ou les banques, des critiques et des employés technologiques ont soulevé des préoccupations. Amazon Rekognition, la technologie de reconnaissance faciale de l’entreprise, est utilisée par la police à Orlando, en Floride. L’ACLU a testé l’outil d’Amazon et a découvert qu’il identifiait à tort des membres du Congrès.

Aussi jeudi, l’institut de recherche AI Now a publié un nouveau rapport soulignant l’urgence pour les entreprises d’ouvrir leur salgorithmes à l’audit. « Les sociétés d’IA devraient renoncer au secret commercial et à d’autres revendications juridiques qui empêcheraient la responsabilité algorithmique dans le secteur public « , peut-on lire dans le rapport. »Les gouvernements et les institutions publiques doivent être en mesure de comprendre et d’expliquer comment et pourquoi les décisions sont prises, en particulier lorsque l’accès aux soins de santé, au logement, à l’aide sociale et à l’emploi est en jeu ».

Les cofondatrices d’AI Now, Kate Crawford et Meredith Whittaker, ont déclaré que l’accent qu’elles avaient mis sur le secret commercial qui avait émergé lors d’un symposium tenu plus tôt cette année avec d’éminents experts juridiques,  » qui les poursuivent actuellement en justice à propos d’algorithmes, si vous voulez « , a déclaré Kate Crawford. »C’était extraordinaire d’entendre des douzaines d’avocats raconter combien il est difficile de trouver des informations de base. »

Leur rapport traite également de l’utilisation de l’analyse des affects, où la technologie de reconnaissance faciale peut être utilisée pour détecter les émotions. L’Université Thomas au Minnesota utilise déjà un système basé sur les outils Microsoft pour observer les étudiants en classe à l’aide d’une webcam. Le système prédit les émotions et envoie un rapport à l’enseignant. Selon AI Now, cela soulève des questions sur la capacité de la technologie à saisir des états émotionnels complexes, la capacité d’un élève à contester les résultats et la façon dont cela pourrait avoir un impact sur ce qui est enseigné dans la classe. Ensuite, il y a la question de la protection de la vie privée, d’autant plus qu' » aucune décision n’a été prise pour informer les étudiants que le système est utilisé sur eux « .

Microsoft n’a pas répondu immédiatement à la demande de commentaires sur le système de l’université.

Michael Posner, professeur à l’école de commerce de l’Université de New York, directeur du Center for Business and Human Rights de l’École, qui connaît bien le cadre proposé par Microsoft, a travaillé avec des entreprises technologiques sur les fausses nouvelles et les interférences russes. D’après son expérience, les entreprises hésitent à s’engager auprès des gouvernements et du grand public. « Ils n’aiment pas la participation du gouvernement, en aucun sens, qui réglemente ce qu’ils font. Ils n’ont pas été aussi ouverts aux révélations et trop réticents pour donner aux gens une idée de ce qui se passe. Ils ont également été très réticents à travailler les uns avec les autres « , dit M. Posner.

Néanmoins, il espère que le leadership d’une entreprise »plus mûre » comme Microsoft pourrait encourager une approche plus ouverte. Amazon n’a pas répondu aux questions concernant ses lignes directrices sur la reconnaissance faciale

.https://www.wired.com/story/microsoft-wants-stop-ai-facial-recognition-bottom/

https://www.wsj.com/articles/microsoft-pushes-urgency-of-regulating-facial-recognition-technology-1544129253

https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/