Des scientifiques de Google et d’Oxford publient un article affirmant que l’ia anéantira « probablement » l’humanité
Des scientifiques de Google et d’Oxford publient un article affirmant que l’ia anéantira « probablement » l’humanité

« une catastrophe existentielle n’est pas seulement possible, mais probable. »
Des chercheurs de Google Deepmind et de l’Université d’Oxford ont conclu qu’il est désormais « probable » que l’IA superintelligente sonne le glas de l’humanité – un sombre scénario que de plus en plus de chercheurs commencent à prédire .
Dans un article récent publié dans la revue AI Magazine , l’équipe – composée du scientifique senior de DeepMind Marcus Hutter et des chercheurs d’Oxford Michael Cohen et Michael Osborne – affirme que les machines finiront par être incitées à enfreindre les règles que leurs créateurs ont établies pour concourir pour des ressources limitées ou énergie.
« Dans les conditions que nous avons identifiées, notre conclusion est beaucoup plus forte que celle de toute publication précédente – une catastrophe existentielle n’est pas seulement possible, mais probable », a tweeté Cohen, étudiant en ingénierie à l’Université d’Oxford et co-auteur de l’article, plus tôt ce mois-ci . .
Catastrophe informatique
Dans l’article, les chercheurs affirment que l’humanité pourrait faire face à sa perte sous la forme d’«agents mal alignés» super avancés qui perçoivent l’humanité comme faisant obstacle à une récompense.
« Un bon moyen pour un agent de garder le contrôle à long terme de sa récompense est d’éliminer les menaces potentielles et d’utiliser toute l’énergie disponible pour sécuriser son ordinateur », indique le journal.
« Perdre ce jeu serait fatal », ont écrit les chercheurs.

Dépassé
Tragiquement, affirment les chercheurs, nous ne pouvons pas y faire grand-chose.
« Dans un monde aux ressources infinies, je serais extrêmement incertain de ce qui se passerait », a déclaré Michael Cohen à Motherboard dans une interview. « Dans un monde aux ressources limitées, il existe une concurrence inévitable pour ces ressources. »
Et cela pourrait être de mauvais augure pour l’humanité.
« Et si vous êtes dans une compétition avec quelque chose capable de vous surpasser à chaque tournant, alors vous ne devriez pas vous attendre à gagner », a-t-il ajouté.
En réponse à cette menace, l’humanité ne devrait faire progresser ses technologies d’IA que prudemment et lentement.
Si ces hypothèses se vérifient, « un agent artificiel suffisamment avancé interviendrait probablement dans la fourniture d’informations sur les objectifs, avec des conséquences catastrophiques », prévient le document.
https://onlinelibrary.wiley.com/doi/10.1002/aaai.12064
https://www.nytimes.com/2017/06/28/magazine/greetings-et-please-dont-murder-us.html
https://www.currentaffairs.org/2022/03/the-clash-of-civilizations-thesis-is-still-ignorant-nonsense
https://logicmag.io/home/birthing-predictions-of-premature-death/
https://logicmag.io/justice/austerity-is-an-algorithm/
https://logicmag.io/home/deep-learning-and-human-disposability/