La consommation d’électricité de l’IA augmente si rapidement qu’elle consommera bientôt autant d’énergie qu’un pays entier
La consommation d’électricité de l’IA augmente si rapidement qu’elle consommera bientôt autant d’énergie qu’un pays entier

« Chacun de ces serveurs nvidia sont des bêtes avides d’énergie. »
Les chatbots IA comme ChatGPT d’OpenAI et Bard de Google consomment une quantité astronomique d’électricité et d’eau – ou, plus précisément, les énormes centres de données qui les alimentent.
Et selon les dernières estimations, ces besoins énergétiques augmentent rapidement et atteignent des proportions épiques.
Dans une analyse récente publiée dans la revue Joule, le data scientist Alex de Vries de la Vrije Universiteit Amsterdam aux Pays-Bas a découvert que d’ici 2027, ces parcs de serveurs pourraient consommer entre 85 et 134 térawattheures d’énergie par an.
Cela équivaut à peu près à la consommation annuelle d’électricité de l’Argentine, des Pays-Bas ou de la Suède, comme le souligne le New York Times, soit 0,5 % de la demande énergétique mondiale. Cela vous semble familier ? L’industrie de la cryptographie, tant critiquée, a dépassé des seuils de consommation d’énergie similaires ces dernières années.
Il s’agit d’une empreinte carbone massive qui, selon les experts, devrait nous obliger à reconsidérer les énormes investissements réalisés dans le domaine de l’IA – sans parler de la façon dont fonctionnent les géants de la technologie comme OpenAI et Google, qui nécessitent beaucoup de ressources.
« Nous avons faim »
Il est difficile d’établir un chiffre exact, car les sociétés d’IA comme OpenAI restent secrètes sur leur consommation d’énergie. Alex De Vries a décidé d’estimer leur consommation en examinant les ventes de serveurs Nvidia A100, qui représentent environ 95 % de l’infrastructure sous-jacente du secteur de l’IA.
« Chacun de ces serveurs Nvidia sont des bêtes avides d’énergie », a déclaré de Vries au New York Times.
Il s’agit d’une tendance inquiétante qui amène certains experts à affirmer que nous devrions prendre du recul et réévaluer la tendance.
« Peut-être que nous devrions idéalement ralentir un peu pour commencer à appliquer les solutions dont nous disposons », a déclaré au journal Roberto Verdecchia, professeur adjoint à l’Université de Florence. « Ne créons pas un nouveau modèle pour améliorer uniquement sa précision et sa vitesse. Mais prenons également une grande respiration et regardons combien nous brûlons en termes de ressources environnementales. »
De nombreuses entreprises opérant en Californie en particulier pourraient se heurter à une opposition plus tôt que vous ne le pensez. Au cours du week-end, le gouverneur de Californie, Gavin Newsom, a signé deux lois majeures sur la divulgation du climat, obligeant des entreprises comme OpenAI et Google, parmi environ 10 000 autres entreprises, à divulguer la quantité de carbone qu’elles produisent d’ici 2026.
Même avec une surveillance accrue de la part des régulateurs, l’espace reste largement autonome et les sociétés d’IA continueront probablement à dépenser de grandes quantités d’énergie pour faire fonctionner leurs modèles.
Il existe cependant une incitation financière à réduire ces coûts grâce aux progrès technologiques, étant donné le taux de consommation actuel. Et compte tenu de l’énorme empreinte environnementale, aucune percée ne peut arriver assez tôt.
https://futurism.com/the-byte/ai-electricity-use-spiking-power-entire-country
https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3
https://www.nytimes.com/interactive/2021/09/03/climate/bitcoin-carbon-footprint-electricity.html