Skip to main content

11 Mai, 2018

Pourquoi les chercheurs en intelligence artificielle devraient être plus paranoïaques

Pourquoi les chercheurs en intelligence artificielle devraient être plus paranoïaques

Un nouveau rapport met en évidence les risques de l’intelligence artificielle, tels que les voitures malveillantes et les robots programmés pour être des assassins.

La vie est devenue plus pratique depuis 2012, lorsque des percées dans l’apprentissage automatique ont déclenché la frénésie continue de l’investissement dans l’intelligence artificielle. La reconnaissance vocale fonctionne la plupart du temps, par exemple, et vous pouvez déverrouiller le nouvel iPhone avec votre visage.

Les personnes ayant les compétences pour construire de tels systèmes ont récolté de grands avantages – ils sont devenus les plus prisés des spécalistes de la technologie. Mais un nouveau rapport sur les inconvénients des progrès de l’AI les avertit qu’ils doivent accorder plus d’attention aux lourds fardeaux moraux créés par leur travail.

Le document de 99 pages regroupe une liste désinvolte et parfois épineuse d’utilisations malveillantes de la technologie de l’intelligence artificielle. Cela appelle à une discussion urgente et active sur la manière dont la technologie de l’IA pourrait être utilisée à mauvais escient. Des exemples de scénarios donnés incluent le nettoyage de robots reprogrammés pour assassiner des politiciens ou des criminels qui lancent des campagnes d’hameçonnage (phishing) automatisées et hautement personnalisées.

L’un d’eux propose une défense contre de tels scénarios : les chercheurs de l’IA deviennant plus paranoïaques et moins ouverts. Le rapport indique que les gens et les entreprises travaillant sur l’IA doivent penser à mettre en place des garanties contre les criminels ou les attaquants dans leur technologie et même retenir certaines idées ou certains outils de la diffusion publique.

Le nouveau rapport compte plus de deux douzaines d’auteurs, dont les universités Oxford et Cambridge, l’institut OpenAI financé par Elon Musk, l’Electronic Frontier Foundation, la société de sécurité informatique Endgame, et le think tank Center for New American Security.

L’éthique est devenue un sujet majeur de discussion dans l’apprentissage automatique au cours de la dernière année. La discussion a été déclenchée en partie par l’utilisation par le gouvernement d’algorithmes pour prendre des décisions qui affectent les citoyens, comme les défendeurs de criminels, et les incidents où les systèmes d’apprentissage automatique affichent des biais. Microsoft et IBM ont récemment dû rééduquer leurs services d’analyse faciale qu’ils vendent aux entreprises, car ils étaient significativement moins précis dans l’identification du sexe des personnes ayant une peau plus foncée.

Le rapport s’intéresse aux dommages plus viscéraux qui pourraient résulter de l’amélioration de la capacité et de l’omniprésence du logiciel d’IA, par exemple dans les voitures autonomes, ou de logiciels capables d’automatiser des tâches de bureau compliquées. Il prévient que de tels systèmes pourraient facilement être modifiés à des fins criminelles ou même létales.

Un véhicule autonome compromis pourrait être utilisé pour livrer des explosifs ou être intentionnellement accidenté, par exemple. Le travail sur la création de logiciels capables de pirater d’autres logiciels, par exemple comme ceux parrainé par le Pentagone, pourrait aider les criminels à déployer des logiciels malveillants plus puissants et adaptables.

Que faire à ce sujet? La principale recommandation du rapport est que les personnes et les entreprises qui développent la technologie de l’IA discutent plus activement et plus ouvertement de la sécurité et de la sûreté, y compris avec les décideurs. Il demande également aux chercheurs de l’IA d’adopter un état d’esprit plus paranoïaque et de réfléchir à la façon dont les ennemis ou les attaquants pourraient réorienter leurs technologies avant de les libérer.

Si cela est pris en compte, cette recommandation étoufferait l’ouverture inhabituelle qui est devenue une caractéristique de la recherche sur l’IA. La concurrence pour le talent a poussé des sociétés typiquement secrètes telles qu’Amazon, Microsoft et Google à publier ouvertement des recherches, et à publier des outils internes en open source.

Shahar Avin, un auteur principal sur le nouveau rapport, et chercheur au Centre pour l’étude des risques existentiels de l’Université de Cambridge, dit l’attitude innocente du champ est un héritage désuet de décennies d’IA trop prometteuses mais sous-performantes. «Les gens de l’IA ont promis la lune et en sont revenus à plusieurs reprises», dit-il. « Cette fois c’est différent, on ne peux plus fermer les yeux. »

https://www.wired.com/story/why-artificial-intelligence-researchers-should-be-more-paranoid

https://maliciousaireport.com/