L’IA avancée « pourrait tuer tout le monde », avertissent des chercheurs d’Oxford.
L’IA avancée « pourrait tuer tout le monde », avertissent des chercheurs d’Oxford.

Les députés britanniques estiment que la technologie est devenue une « véritable course à l’armement » pour les pays et que le secteur devrait être réglementé comme les armes nucléaires. L’intelligence artificielle (IA) avancée pourrait « tuer tout le monde » et devrait être réglementée comme les armes nucléaires, ont averti des experts.
Des algorithmes surhumains plus performants que l’homme sont en passe de voir le jour et pourraient représenter une menace aussi grande pour l’homme que celle qu’il représentait pour le dodo, ont déclaré des chercheurs de l’université d’Oxford aux députés de la commission parlementaire des sciences et de la technologie en Grande-Bretagne
La commission a entendu comment une IA avancée pourrait prendre le contrôle de sa propre programmation si elle apprenait à atteindre ses objectifs d’une manière différente de celle prévue à l’origine.
Le doctorant Michael Cohen a déclaré : « Avec l’IA surhumaine, il y a un risque particulier qui est d’une autre sorte de classe, qui pourrait tuer tout le monde.
« Si vous imaginez dresser un chien avec des friandises, il apprendra à choisir des actions qui lui permettront d’obtenir des friandises, mais si le chien trouve l’armoire à friandises, il peut obtenir les friandises lui-même sans faire ce que nous voulions qu’il fasse.
« Si vous avez quelque chose de beaucoup plus intelligent que nous qui essaie de façon monomaniaque d’obtenir ce retour positif, et qui a pris le contrôle du monde pour l’obtenir, il dirigera toute l’énergie qu’il peut pour assurer son emprise sur cela, et cela nous laissera sans énergie pour nous-mêmes.
Michael Cohen a déclaré qu’il serait difficile d’arrêter le processus une fois que le génie serait sorti de la bouteille.
« Si vous avez quelque chose qui est beaucoup plus intelligent que nous dans tous les domaines, il évitera probablement d’envoyer des signaux d’alarme alors que nous pouvons encore tirer la prise », a-t-il ajouté.
« Si j’étais une IA essayant de faire un complot sournois, je ferais en sorte que mon code soit copié sur une autre machine dont personne ne sait rien, il serait alors plus difficile de la débrancher. »
Aucune limite aux progrès de l’IA
Les experts ont prévenu que le développement de l’IA était devenu une « course aux armements littérale », les pays et les entreprises technologiques rivalisant pour créer des algorithmes d’apprentissage automatique dangereusement avancés afin d’obtenir des avantages militaires et civils.
Ils ont appelé à une réglementation mondiale pour empêcher les entreprises de créer des systèmes incontrôlables qui, s’ils commencent par éliminer la concurrence, pourraient finir par « éliminer la race humaine tout entière » et ont prévenu qu’il n’y avait pas de limites aux progrès de l’IA.
Michael Osborne, professeur d’apprentissage automatique à l’université d’Oxford, a déclaré : « Je pense que le scénario sombre est réaliste parce que l’IA tente d’embouteiller ce qui rend les humains spéciaux, ce qui a conduit les humains à changer complètement la face de la Terre.
« Donc, si nous sommes capables de capturer cela dans la technologie, alors bien sûr, cela va poser autant de risques pour nous que nous en avons posé pour d’autres espèces, le dodo en est un exemple.
« Je pense que nous sommes dans une course à l’armement massif de l’IA, géopolitiquement avec les Etats-Unis contre la Chine et parmi les entreprises technologiques, il semble y avoir cette volonté de jeter la sécurité et la prudence par la fenêtre et de courir aussi vite que possible vers l’IA la plus avancée.
« Dans les applications civiles, il y a des avantages à être le premier à développer une IA vraiment sophistiquée qui pourrait éliminer la concurrence d’une manière ou d’une autre, et si la technologie développée ne s’arrête pas à éliminer la concurrence, mais élimine peut-être toute vie humaine, nous serions vraiment inquiets.
« Les systèmes artificiels pourraient devenir aussi bons pour nous déjouer sur le plan géopolitique qu’ils le sont dans des environnements simples comme les jeux ».
Le professeur Osborne a déclaré qu’il espérait que les pays du monde entier reconnaîtraient la « menace existentielle » de l’IA avancée et se réuniraient pour mettre en place des traités qui empêcheraient le développement de systèmes dangereux.
« Il y a quelques raisons d’espérer dans la mesure où nous avons été plutôt bons pour réglementer l’utilisation des armes nucléaires », a-t-il ajouté.
L’IA représente un danger aussi comparable à celui des armes nucléaires
« Si nous étions capables de comprendre que l’IA avancée est un danger aussi comparable à celui des armes nucléaires, alors peut-être pourrions-nous arriver à des cadres similaires pour la régir. »
Les députés ont appris que dans certains domaines, comme les voitures sans conducteur, l’IA n’avait pas fait autant de progrès que prévu, mais que dans d’autres, comme la génération de texte, elle était bien plus avancée que quiconque l’avait prévu.
Les experts ont déclaré que les programmeurs n’avaient fait qu’effleurer la surface de ce que l’IA était capable de réaliser, et ont prédit que de nombreux travaux administratifs fastidieux et tâches répétitives seraient bientôt automatisés.
Toutefois, ils ont déclaré qu’il était peu probable que les domaines créatifs impliquant le leadership, le mentorat ou la persuasion soient un jour remplacés par l’IA.
Les experts ont déclaré qu’il était raisonnable de s’attendre à ce que, d’ici la fin du siècle, une IA capable de faire beaucoup plus que n’importe quel humain puisse le faire soit créée et ils ont appelé à une interdiction des algorithmes dangereux.
https://www.telegraph.co.uk/news/2023/01/25/advanced-ai-could-kill-everyone-warn-oxford-researchers/