Skip to main content

1 Avr, 2024

Comment l’IA pourrait mettre fin au monde

Comment l’IA pourrait mettre fin au monde

Illustration créée par Stable Diffusion XL à partir du thème « Une ville dédiée à la création de puces (toutes les autres conditions étant secondaires), avec des centrales nucléaires, des éoliennes modernes, des centrales à charbon, des centrales hydroélectriques, des panneaux solaires – tous les types de technologies de production d’énergie dans un paysage urbain d’usines de fabrication de puces – vous pouvez faire les bâtiments en semi-conducteurs ou toute autre représentation métaphorique d’un monde dédié à la fabrication de puces et à l’alimentation des centres de données ».

Chip City

De nombreux experts, futurologues et gens ordinaires se sont exprimés sur la façon dont l’IA pourrait mettre fin au monde. Skynet est un méchant populaire. Ultron pour les plus jeunes, HAL9000 pour les plus âgés. L’intrigue est toujours la même : l’IA devient mauvaise et tente de détruire le monde jusqu’à ce qu’un héros humain improbable nous sauve. C’est une bonne histoire, mais la véritable menace que représente l’IA n’est pas aussi évidente, ni aussi engageante – c’est pourquoi elle est extrêmement dangereuse.

Ultron est un super-vilain robotique évoluant dans l’univers Marvel de la maison d’édition Marvel Comics.
HAL 9000 est l’IA du vaisseau spatial dans 2001, l’Odyssée de l’Espace

Dépendance à l’IA et utilisation générale

Les humains (en particulier ceux qui utilisent la technologie pour gagner leur vie) sont sur le point de devenir sérieusement dépendants de l’IA. Nous étions déjà bien avancés : les algorithmes des médias sociaux (IA) pour les informations et le divertissement, les moteurs de recommandation (IA) pour le shopping et le divertissement, Waze (IA) pour l’orientation, etc. Mais dans l’ère post-ChatGPT (alias l’ère générative), presque tous ceux qui s’intéressent sérieusement au travail de connaissance ou à la création de contenu ont commencé à utiliser des outils d’IA générative pour accroître leur productivité.

Plus généralement, les employés de bureau du monde entier apprennent qu’ils doivent maîtriser Microsoft Copilot simplement pour « répondre aux attentes » lors de leurs évaluations de performance. Il est évident que l’IA s’insère dans le tissu de nos vies à une vitesse alarmante. La technologie évolue (plus rapidement que quiconque ne peut le faire) et rien n’indique que cette tendance à l’adoption va ralentir ou diminuer.

Plus nous aurons d’IA, plus nous aurons besoin d’IA

Satya Nadella est peut-être le plus grand PDG de notre époque. Il est un stratège hors pair et a amené Microsoft là où peu de gens pensaient qu’elle pourrait aller. Il n’est donc pas surprenant d’apprendre que Microsoft et OpenAI auraient l’intention de construire un superordinateur massif basé aux États-Unis, baptisé « Stargate », dont le coût devrait avoisiner les 100 milliards de dollars (environ 100 fois plus cher que les plus grands centres de données actuellement en service).

Ce projet serait la pièce maîtresse d’un plan en cinq phases axé sur une série d’installations de superordinateurs au cours des six prochaines années. Stargate, qui constituerait la phase 5 du plan, pourrait être lancé dès 2028. Pourquoi investir 100 milliards de dollars dans un centre de données amélioré ? Parce que Microsoft a fait de son mieux pour calculer la demande future.

Vous pouvez être sûr que Stargate ne sera pas le seul super centre de données sur l’IA à être construit. La Russie, la Chine et l’Inde construiront leurs propres versions. De même que des dizaines d’autres gouvernements et entreprises commerciales.

Comme vous pouvez l’imaginer, les superordinateurs massifs axés sur l’IA nécessiteront des millions de puces et d’énormes quantités d’électricité. D’où viendra cette énergie ?

Historiquement, les humains se battent pour les ressources

À mesure que l’humanité devient de plus en plus dépendante de l’IA, le besoin d’accès à des superordinateurs axés sur l’IA (« compute ») va lentement, mais sûrement, s’accélérer. En tant que société, nous ne le remarquerons pas vraiment. L’IA sera intégrée dans toutes nos technologies. Une partie de l’IA fonctionnera sur nos appareils locaux, mais la vitesse de nos besoins en calcul augmentera toujours. Ce qui nous amène à une conclusion logique assez effrayante. Nous allons nous battre pour ce qui risque de devenir une ressource rare.

Pénuries massives de puces

L’industrie des semi-conducteurs est actuellement confrontée à un défi majeur : la demande de puces avancées de 5 et 7 nm. Ces puces sont essentielles pour le calcul de l’intelligence artificielle. La complexité et le coût de fabrication de ces puces avancées font que peu d’entreprises dominent le marché.

Pour certains jeux de puces spécifiques à l’IA, TSMC est pratiquement la seule source d’approvisionnement. Cette concentration des capacités de fabrication a suscité des inquiétudes quant aux pénuries d’approvisionnement. Les fabs fonctionnant à pleine capacité, toute perturbation aura des effets d’entraînement dans le monde entier, affectant tout, de la construction automobile à l’électronique grand public.

L’industrie a réagi en lançant une vague de construction de nouvelles usines de semi-conducteurs dans le monde entier, afin d’augmenter la capacité de production de ces puces de pointe. Par exemple, l’Arizona Fab 21 de TSMC, qui se concentre sur la technologie 5 nm (les types de puces nécessaires aux meilleurs systèmes d’intelligence artificielle), fait partie de cette expansion, mais a connu des retards, repoussant son ouverture à 2025 en raison de difficultés liées à la recherche de main-d’œuvre qualifiée.

Ces expansions sont essentielles pour répondre à la demande croissante, mais elles soulignent également la fragilité de notre écosystème technologique actuel, fortement tributaire d’une poignée de centres de fabrication de pointe.

Il faut se poser la question suivante : la demande dépassera-t-elle l’offre ? Et si oui, quand ? Il est difficile de prédire la réponse à ces questions, mais des estimations de l’ordre de 60 mois ont été faites. En supposant qu’aucune des usines actuelles ne soit endommagée, les progrès seront limités par la disponibilité des puces – les gens se battront pour cette ressource.

Manque de puissance

La croissance exponentielle de l’IA a une implication moins discutée mais potentiellement plus dangereuse : une augmentation massive de la consommation d’énergie. Si l’on oublie l’impact sur l’environnement (qui sera important), d’où viendra cette énergie ? Il n’y en aura pas assez pour tout le monde. Aux États-Unis, les besoins de l’IA en matière de consommation d’énergie entreront directement en concurrence avec les mandats relatifs aux véhicules électriques. Nous allons soit découvrir un moyen de faire de la fusion froide (étoile dans un bocal), soit commencer à construire beaucoup plus de centrales électriques. Brûleront-elles du charbon ? D’autres combustibles fossiles ? Allons-nous revenir aux réacteurs à fission ? L’énergie devra venir de quelque part. Les gens se battront pour cette ressource.

Ce scénario catastrophe ressemble à l’expérience de pensée du maximisateur de trombones de Nick Bostrom. Non pas dans les détails, mais dans le principe sous-jacent : l’humanité crée par inadvertance un système qui consomme énormément de ressources, en l’occurrence l’électricité et la capacité de fabrication de semi-conducteurs, pour soutenir la croissance de l’IA. C’est ainsi que le monde prend fin, non pas à cause d’un système d’IA malveillant déterminé à détruire l’humanité, mais parce que l’humanité se détruit elle-même en se disputant les ressources nécessaires à sa dépendance à l’égard de l’IA.

Relever les défis

Les problèmes liés à la pénurie de puces et à la demande d’énergie soulignent la nécessité d’une approche équilibrée du développement de l’IA. Il s’agit notamment d’investir dans les énergies renouvelables pour répondre durablement à la demande croissante d’énergie et d’améliorer l’efficacité des algorithmes d’IA afin de réduire leur empreinte environnementale. Une percée scientifique qui réduirait la nécessité d’une augmentation exponentielle de la production de puces ou de la consommation d’énergie rendrait la thèse de cet essai sans objet.

Cela dit, les véritables risques que l’IA fait peser sur le monde pourraient ne pas provenir de machines superintelligentes aux intentions malveillantes, mais de l’oubli très humain de ne pas prendre en compte les coûts environnementaux et infrastructurels d’une technologie qui progresse rapidement. Pour que l’IA serve le bien commun, il faut non seulement des lignes directrices techniques et éthiques pour le développement de l’IA, mais aussi une approche globale de la gestion des ressources dont elle dépend.

https://shellypalmer.com/2024/03/how-ai-may-actually-end-the-world/