Skip to main content

25 Oct, 2018

La montée de la « pseudo-IA » ou comment les entreprises de technologie utilisent discrètement les humains pour faire le travail des robots

La montée de la « pseudo-IA » ou comment les entreprises de technologie utilisent discrètement les humains pour faire le travail des robots

En utilisant ce que l’un des experts appelle la «technique du magicien d’Oz», certaines entreprises gardent le secret sur la confiance des humains envers les investisseurs. Certaines entreprises utilisent des humains pour former des systèmes d’IA, d’autres dépendent secrètement d’eux tout en prétendant disposer d’une technologie d’intelligence artificielle évolutive.

Il est très difficile de créer un service basé sur l’intelligence artificielle. Tellement difficile, en fait, que certaines startups ont compris qu’il était plus économique et plus facile de faire en sorte que les humains se comportent comme des robots plutôt que de faire en sorte que les machines se comportent comme des humains.

«Faire appel à un humain pour faire le travail vous permet de passer outre une foule de défis techniques et de développement business. Évidemment, cela n’est pas bien adapté, mais cela vous permet de construire quelque chose et d’éviter le plus difficile, a déclaré Gregory Koberger, PDG de ReadMe, qui a rencontré beaucoup de «pseudo-IA».

« Il s’agit essentiellement de prototyper l’IA avec des êtres humains », a-t-il déclaré.

Cette pratique a été mise en évidence dans un article du Wall Street Journal mettant en avant les centaines de développeurs d’applications tierces à qui Google permet d’accéder aux boîtes mails des utilisateurs.

Dans le cas de la société Edison Software, basée à San José, les ingénieurs en intelligence artificielle ont consulté les courriers électroniques personnels de centaines d’utilisateurs, leur identité étant annulées, afin d’améliorer la fonctionnalité des «réponses intelligentes». La société n’a pas mentionné que les humains verraient les courriers électroniques des utilisateurs dans sa politique de confidentialité.

Les tiers mentionnés dans l’article du WSJ sont loin d’être les premiers à le faire. En 2008, Spinvox, une entreprise qui convertissait des messages vocaux en messages texte, était accusée d’utiliser des humains dans des centres d’appels à l’étranger plutôt que des machines pour effectuer son travail.

En 2016, Bloomberg a souligné le sort tragique des humains qui passaient 12 heures par jour à prétendre être des « chatbots » pour des services de planification de calendrier tels que X.ai et Clara. Le travail était si abrutissant que des employés humains ont dit qu’ils avaient hâte d’être remplacés par des robots.

En 2017, l’application de gestion des dépenses de l’entreprise, Expensify, a admis qu’elle utilisait des humains pour transcrire au moins une partie des recettes qu’elle prétendait traiter à l’aide de sa «technologie smartscan». Des scans des reçus ont été envoyés sur l’outil de travail collectif externalisé de Mechanical Turk par Amazon, où des travailleurs faiblement rémunérés les lisaient et les retranscrivaient.

«Je me demande si les utilisateurs d’Expensify SmartScan savent que les employés de MTurk écrivent leurs reçus», a déclaré Rochelle LaPlante, une «Turker» et défenseur des travailleurs de la gig economy (l’économie des petits boulots) sur Twitter. « Je regarde le reçu Uber de quelqu’un avec son nom complet, ses adresses de départ et d’arrivée. »

Même Facebook, qui a beaucoup investi dans l’IA, s’est appuyé sur des humains pour son assistant virtuel pour Messenger.

Dans certains cas, des humains sont utilisés pour former le système d’IA et améliorer sa précision. Une entreprise appelée Scale propose à un ensemble d’employés humains de fournir des données de formation (training) pour les voitures autonomes et d’autres systèmes fonctionnant à l’IA. Les «scalers» vont, par exemple, regarder les images des caméras ou des capteurs et «marquer » les voitures, les piétons et les cyclistes dans l’image. Avec suffisamment de cette calibration humaine, l’IA va apprendre à reconnaître ces objets elle-même.

Dans d’autres cas, les entreprises simulent jusqu’à ce qu’elles réussissent, affirmant aux investisseurs et aux utilisateurs qu’elles ont mis au point une technologie d’intelligence artificielle évolutive tout en s’appuyant secrètement sur l’intelligence humaine.

Alison Darcy, psychologue et fondatrice de Woebot, un chatbot de soutien pour la santé mentale, décrit cela comme la «technique de conception du magicien d’Oz».

«Vous simulez ce que l’expérience ultime de quelque chose va être. Et souvent quand il s’agit d’IA, il y a une personne derrière le rideau plutôt qu’un algorithme », a-t-elle déclaré, ajoutant que la création d’un bon système d’IA nécessitait une« tonne de données » et que les concepteurs voulaient parfois savoir s’il y était une demande suffisante pour un service avant de faire l’investissement.

Cette approche n’était pas appropriée dans le cas d’un service de soutien psychologique comme Woebot, a-t-elle déclaré.

«En tant que psychologues, nous sommes guidés par un code d’éthique. Ne pas tromper les gens est très clairement l’un de ces principes éthiques. « 

Des recherches ont montré que les gens ont tendance à divulguer davantage de renseignements quand ils pensent parler à une machine plutôt qu’à une personne, en raison de la stigmatisation associée à la recherche d’aide pour leur santé mentale.

Une équipe de l’Université de Californie du Sud a testé cela avec un thérapeute virtuel appelé Ellie. Ils ont découvert que les anciens combattants souffrant du syndrome de stress post-traumatique étaient plus susceptibles de divulguer leurs symptômes lorsqu’ils savaient qu’Ellie était un système d’IA plutôt que lorsqu’ils étaient informés de la présence d’un humain utilisant la machine.

D’autres pensent que les entreprises devraient toujours faire preuve de transparence quant au fonctionnement de leurs services.

«Je n’aime pas ça», a déclaré Rochelle LaPlante, que d’entreprises qui prétendent offrir des services basés sur l’IA mais qui emploient en réalité des humains. «C’est malhonnête et trompeur pour moi, ce n’est rien de ce que je souhaiterais d’une entreprise que j’utilise.

«Et du côté des travailleurs, c’est comme si nous étions poussés derrière un rideau. Je n’aime pas que mon travail soit utilisé par une entreprise qui va tourner en rond et mentir à ses clients ce qui se passe réellement. « 

Ce dilemme éthique se pose également avec des systèmes d’IA prétendant être des humains. Google Duplex en est un exemple récent. Il s’agit d’un assistant robotique qui passe des appels téléphoniques extrêmement réalistes, avec «hum» et «euh» pour prendre rendez-vous et faire des réservations.

Après une réaction initiale, Google a déclaré que son IA s’identifierait aux humains avec lesquels elle s’est entretenue.

« Dans leur version démo, cela semble légèrement trompeur dans une conversation à faible impact », a déclaré Alison Darcy. Bien que réserver une table au restaurant puisse sembler être une interaction à faible enjeu, la même technologie pourrait être beaucoup plus manipulatrice entre de mauvaises mains.

Que se passerait-il si vous pouviez faire des appels réalistes simulant la voix d’une célébrité ou d’un politicien, par exemple?

«L’intelligence artificielle suscite déjà de vives craintes et cela n’aide pas vraiment la conversation en cas de manque de transparence», a déclaré Alison Darcy.

https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies

https://www.wsj.com/articles/techs-dirty-secret-the-app-developers-sifting-through-your-gmail-1530544442

https://www.theguardian.com/business/2009/jul/23/spinvox-answer-back

https://www.bloomberg.com/news/articles/2016-04-18/the-humans-hiding-behind-the-chatbots

https://www.recode.net/2015/11/3/11620286/facebooks-virtual-assistant-m-is-super-smart-its-also-probably-a-human