Skip to main content

30 Déc, 2020

Google aurait forcé ses chercheurs à dire que sa technologie est bonne

Google aurait forcé ses chercheurs à dire que sa technologie est bonne

Lorsque les scientifiques de Google AI publient des travaux sur des sujets jugés « sensibles », l’entreprise les soumet à un examen supplémentaire et s’assure qu’ils présentent la technologie sous un jour positif.

Depuis l’été dernier, selon une enquête de NBC News, la société a imposé un examen des « sujets sensibles » qui semble empêcher les scientifiques d’aborder avec précision les dangers potentiels des technologies émergentes – en particulier celles développées par Google et d’autres sociétés d’Alphabet.

Sous le couvert de la non-divulgation de secrets commerciaux, les rapports suggèrent que Google pourrait être plus préoccupé par sa perception publique que par la publication de recherches importantes et bien exécutées.

L’œil du public

Ce n’est peut-être pas surprenant – les entreprises ne sont pas connues pour leur engagement en faveur d’un débat libre et ouvert – mais c’est surprenant venant d’une entreprise où le slogan était « ne soyez pas mauvais ». (Don’t be evil)

La prétendue mauvaise gestion par Google des sujets controversés en matière d’IA – en particulier l’éviction récente de Timnit Gebru, éthicien de l’IA qui avait parlé des problèmes de l’entreprise – a attiré l’attention sur l’entreprise au cours des dernières semaines. Aujourd’hui, sa collègue Margeret Mitchell, scientifique senior chez Google, prend la parole.

« Si nous faisons des recherches appropriées compte tenu de notre expertise, et que nous ne sommes pas autorisés à publier cela pour des raisons qui ne sont pas conformes à un examen de qualité par les pairs, alors nous nous trouvons face à un sérieux problème de censure », a déclaré Mme Mitchell à NBC.

Souriez !

La nouvelle politique d’examen de Google guide les scientifiques à « prendre grand soin de donner un ton positif », selon une correspondance interne obtenue par NBC. Les scientifiques sont également priés de s’abstenir de mentionner les produits Google lorsqu’ils écrivent sur des sujets sensibles, ce qui éloigne leur propre travail des énigmes éthiques que sont la reconnaissance faciale, les voitures qui se conduisent seules et d’autres formes de technologies controversées.

Par exemple, un document sur la recommandation AI comme celle déployée par YouTube pour suggérer de nouvelles vidéos, disait à l’origine que la technologie peut favoriser « la désinformation, des résultats discriminatoires ou autrement injustes » et « une diversité insuffisante de contenu ». La version finale, après examen, a déclaré qu’elle pouvait promouvoir « une information précise, l’équité et la diversité du contenu ».

https://www.nbcnews.com/tech/tech-news/google-told-its-scientists-strike-positive-tone-ai-research-documents-n1252240

https://onezero.medium.com/amp/p/f602cdb7fe89

https://www.platformer.news/p/the-withering-email-that-got-an-ethical