Le responsable de l’IA chez Google affirme qu’il y a 50 % de chances que nous atteignions l’Intelligence Artificielle Générative dans 5 ans seulement
Le responsable de l’IA chez Google affirme qu’il y a 50 % de chances que nous atteignions l’Intelligence Artificielle Générative dans 5 ans seulement

« Je pense que c’est tout à fait plausible.
Il y a plus de dix ans, le cofondateur du laboratoire d’intelligence artificielle DeepMind de Google a prédit que d’ici 2028, l’IA aurait une chance sur deux d’être aussi intelligente que l’homme. Lors d’un entretien avec le podcasteur Dwarkesh Patel, le cofondateur de DeepMind, Shane Legg, a déclaré qu’il pensait toujours que les chercheurs avaient une chance sur deux de parvenir à l’intelligence artificielle générative (AGI en anglais), une position qu’il avait annoncée publiquement à la fin de l’année 2011 sur son blog.
Il s’agit d’une prédiction remarquable, compte tenu de l’intérêt croissant pour ce domaine. Sam Altman, PDG d’OpenAI, plaide depuis longtemps en faveur d’une AGI, un agent hypothétique capable d’accomplir des tâches intellectuelles aussi bien qu’un humain, et qui pourrait être utile à tous. Mais il reste à savoir si nous serons un jour capables d’en arriver là, et encore moins de nous mettre d’accord sur une définition de l’AGI.
Shane Legg a apparemment commencé à regarder vers son objectif de 2028 dès 2001, après avoir lu « L’âge des machines spirituelles », le livre révolutionnaire publié en 1999 par Ray Kurzweil, l’une des sommités de Google en matière d’IA, qui prédit l’avènement d’IA surhumaines.
« Il y a deux points très importants dans son livre que j’ai fini par considérer comme vrais », explique-t-il. « L’un d’eux est que la puissance de calcul croîtrait de manière exponentielle pendant au moins quelques décennies. D’autre part, la quantité de données dans le monde va croître de manière exponentielle pendant quelques décennies ».
Fort de sa compréhension des tendances de l’époque, telles que la méthode d’apprentissage en profondeur (deep learning), qui consiste à apprendre aux algorithmes à « penser » et à traiter les données comme le font les cerveaux humains, Shane Legg a écrit au début de la dernière décennie que l’AGI pourrait bien voir le jour dans les années à venir, à condition que « rien d’extraordinaire ne se produise, comme une guerre nucléaire ».
Aujourd’hui, le cofondateur de DeepMind a déclaré que sa prédiction selon laquelle l’ère de l’AGI serait à nos portes d’ici la fin de la décennie était assortie de certaines réserves.
La première, d’ordre général, est que les définitions de l’AGI dépendent des définitions de l’intelligence humaine – et ce genre de choses est difficile à tester, précisément parce que notre façon de penser est compliquée.
« Vous n’aurez jamais un ensemble complet de tout ce que les gens peuvent faire », précise Shane Legg – des choses comme le développement de la mémoire épisodique, ou la capacité de se rappeler des « épisodes » complets qui se sont produits dans le passé, ou même la compréhension de la vidéo en continu. Mais si les chercheurs parvenaient à mettre au point une batterie de tests d’intelligence humaine et qu’un modèle d’IA obtenait d’assez bons résultats par rapport à ces tests, a-t-il poursuivi, alors « vous auriez une IAG ».
Lorsque Dwarkesh Patel a demandé s’il existait un test simple et unique permettant de déterminer si un système d’IA avait atteint l’intelligence générative, par exemple en battant Minecraft, Shane Legg s’est défendu en affirmant qu’il n’existait pas de test unique permettant de déterminer l’intelligence générale.
« Il n’existe pas de test unique, car je pense que c’est la nature même de l’intelligence artificielle », a déclaré l’expert de l’AGI. « Il s’agit d’intelligence générale. Je devrais donc m’assurer qu’un système d’IA puisse faire un grand nombre de choses différentes et qu’il n’y ait pas de lacune. »
La deuxième mise en garde la plus importante, a ajouté Shane Legg, concerne la capacité à mettre à l’échelle les modèles d’apprentissage de l’IA, et ce de manière très importante – un point qui mérite d’être souligné étant donné la quantité d’énergie que les entreprises d’IA utilisent déjà pour produire de grands modèles de langage tels que le GPT-4 d’OpenAI.
« Il y a beaucoup d’intérêt à créer un algorithme plus évolutif pour exploiter toutes ces données informatiques », assure Shane Legg. « J’ai donc pensé qu’il était très probable que nous commencions à découvrir des algorithmes évolutifs pour y parvenir.
À la question de savoir où nous en sommes aujourd’hui sur la voie de l’IAG, Shane Legg a répondu qu’il pensait que la puissance de calcul était là où elle devait être pour que cela se produise, et que la « première étape » consisterait à « commencer à former des modèles maintenant avec une échelle de données qui dépasse ce qu’un humain peut expérimenter au cours de sa vie » – un exploit que l’industrie de l’IA est, selon lui, prête à réaliser.
Cela dit, Shane Legg a réitéré sa position personnelle selon laquelle il n’y a que 50 % de chances que les chercheurs parviennent à l’AGI avant la fin de cette décennie, et DeepMind a été contacté pour savoir si la filiale de Google avait quelque chose à ajouter à ce pronostic.
« Je pense que c’est tout à fait plausible », a-t-il déclaré, « mais je ne serai pas surpris si cela ne se produit pas d’ici là ».
https://futurism.com/google-deepmind-agi-5-years
https://www.dwarkeshpatel.com/p/shane-legg#details