Skip to main content

23 Avr, 2024

Durabilité de l’IA : comment Microsoft, Google Cloud, IBM et Dell s’efforcent de réduire les effets néfastes de l’IA sur le climat

Durabilité de l’IA : comment Microsoft, Google Cloud, IBM et Dell s’efforcent de réduire les effets néfastes de l’IA sur le climat

Les géants de la technologie expliquent comment ils tentent d’atténuer les effets de l’IA générative sur les ressources en eau et en électricité.

De nombreuses entreprises cherchent à mesurer les effets de l’IA sur le développement durable, tels que les conditions météorologiques et la consommation d’énergie, mais elles sont moins nombreuses à parler de l’atténuation de la nature gourmande en eau et en électricité de l’IA. L’exploitation durable de l’IA générative pourrait réduire une partie de l’impact du changement climatique et faire bonne figure auprès des investisseurs désireux d’apporter une contribution positive à la Terre.

Quelle est la quantité d’énergie consommée par l’IA générative et quel est l’impact possible de cette consommation ?

La quantité d’énergie consommée par l’IA générative dépend de plusieurs facteurs, dont l’emplacement physique, la taille du modèle, l’intensité de la formation, etc. La consommation excessive d’énergie peut contribuer à la sécheresse, à la perte d’habitat animal et au changement climatique.

Une équipe de chercheurs de Microsoft, Hugging Face, l’Allen Institute for AI et plusieurs universités ont proposé une norme en 2022. En l’utilisant, ils ont constaté que l’entraînement d’un petit modèle de transformateur de langage sur 8 GPU NVIDIA V100 pendant 36 heures consommait 37,3 kWh.

An animated gif of a frog on an endless loop sticking out it's tongue and sucking in 0s and 1s.

La quantité d’émissions de carbone que cela représente dépend beaucoup de la région dans laquelle la formation est effectuée, mais en moyenne, la formation du modèle de langage émet environ autant de dioxyde de carbone que l’utilisation d’un gallon d’essence. La formation d’une fraction seulement d’un grand modèle théorique – un modèle de langage de 6 milliards de paramètres – émettrait à peu près autant de dioxyde de carbone que l’alimentation électrique d’une maison pendant un an.

Une autre étude a révélé que la technologie de l’IA pourrait consommer 29,3 térawattheures par an, soit la même quantité d’électricité que celle utilisée par l’ensemble de l’Irlande.

Une conversation de 10 à 50 réponses avec GPT-3 consomme un demi-litre d’eau douce, selon Shaolei Ren, professeur agrégé d’ingénierie électrique et informatique à UC Riverside, qui s’est exprimé dans le cadre de Yale Environment 360.

Selon Barron’s (1), Elon Musk, le magnat de SpaceX et de Tesla, a suggéré lors de la conférence Bosch ConnectedWorld en février 2024 que les puces d’IA générative pourraient entraîner une pénurie d’électricité.

  1. Barron’s est un hebdomadaire fondé en 1921 par Clarence Barron, très lu dans la communauté financière aux États-Unis pour ses articles de réflexion, avec une synthèse de l’activité des marchés de la semaine écoulée et des éditoriaux d’information sur la semaine à venir, écrit dans un style prospectif

La consommation d’énergie de l’IA générative dépend du centre de données

La quantité d’énergie consommée ou d’émissions créées dépend beaucoup de l’emplacement du centre de données, de la période de l’année et du moment de la journée.

« La formation de modèles d’IA peut être énergivore, mais la consommation d’énergie et de ressources dépend du type de charge de travail d’IA, de la technologie utilisée pour exécuter ces charges de travail, de l’âge des centres de données et d’autres facteurs », a déclaré Alyson Freeman, responsable de l’innovation client, du développement durable et du RSE chez Dell.

Nate Suda, analyste directeur senior chez Gartner, a souligné qu’il est important de faire la différence entre les sources d’énergie des centres de données, l’efficacité de l’utilisation de l’énergie des centres de données et les émissions intégrées dans le matériel des grands modèles de langage.

Un centre de données hébergeant un LLM peut être relativement économe en énergie par rapport à une organisation qui crée un LLM à partir de zéro dans son propre centre de données, étant donné que les hyperscalers ont « des investissements matériels dans l’électricité à faible teneur en carbone et dans des centres de données très efficaces », souligne Nate Suda.

D’un autre côté, des centres de données massifs de plus en plus efficaces peuvent déclencher l’effet Jevons, dans lequel la diminution de la quantité de ressources nécessaires à une technologie augmente la demande et donc l’utilisation des ressources en général.

Comment les géants de la technologie abordent-ils la question de la durabilité de l’IA en termes de consommation d’électricité ?

De nombreux géants de la technologie ont des objectifs de durabilité, mais peu d’entre eux sont spécifiques à l’IA générative et à la consommation d’électricité. Pour Microsoft, l’un des objectifs est d’alimenter tous les centres de données et toutes les installations avec 100 % d’énergie renouvelable supplémentaire.

De plus, Microsoft met l’accent sur les accords d’achat d’électricité avec des projets d’énergie renouvelable. Dans un accord d’achat d’électricité, le client négocie un prix prédéfini pour l’énergie au cours des cinq à vingt prochaines années, ce qui assure un flux de revenus réguliers pour le service public et un prix fixe pour le client.

« Nous travaillons également sur des solutions qui permettent aux centres de données de fournir une capacité énergétique au réseau afin de contribuer à l’approvisionnement local en énergie pendant les périodes de forte demande », a déclaré Sean James, directeur de la recherche sur les centres de données chez Microsoft.

« N’utilisez pas un marteau pour casser une noix »

IBM aborde la question de l’utilisation durable de l’électricité dans le cadre de l’IA générative en « recyclant » les modèles d’IA ; il s’agit d’une technique développée avec le MIT dans laquelle des modèles plus petits « se développent » au lieu d’un modèle plus grand qui doit être formé à partir de zéro.

« Il y a certainement des moyens pour les organisations de récolter les avantages de l’IA tout en minimisant la consommation d’énergie », a déclaré Christina Shim, responsable mondiale des logiciels de développement durable d’IBM. « Le choix du modèle est extrêmement important. L’utilisation de modèles de base plutôt que la formation de nouveaux modèles à partir de zéro permet d' »amortir » cette formation énergivore sur une longue durée d’utilisation. L’utilisation d’un petit modèle formé sur les bonnes données est plus efficace sur le plan énergétique et permet d’obtenir les mêmes résultats, voire davantage. N’utilisez pas un marteau pour casser une noix ».

Quelles sont les façons de réduire la consommation d’énergie de l’IA générative dans les centres de données ?

L’un des moyens de réduire la consommation d’énergie de l’IA générative consiste à s’assurer que les centres de données qui l’exploitent consomment moins d’énergie ; cela peut impliquer de nouvelles méthodes de chauffage et de refroidissement, ou d’autres méthodes, notamment

  • Les énergies renouvelables, telles que l’électricité provenant de sources durables comme le vent, le soleil ou la géothermie.
  • Le remplacement des générateurs de secours au diesel par des générateurs alimentés par des batteries.
  • Un chauffage, un refroidissement et une architecture logicielle efficaces pour minimiser les émissions des centres de données ou leur consommation d’électricité. Les techniques de refroidissement efficaces comprennent le refroidissement par l’eau, les systèmes adiabatiques (pression de l’air) ou les nouveaux réfrigérants.
  • Des engagements en faveur de l’absence nette d’émissions de carbone ou de la neutralité carbone, qui incluent parfois des compensations carbone.

Benjamin Lee, professeur d’ingénierie électrique et des systèmes et d’informatique à l’université de Pennsylvanie, remarque que l’exécution de charges de travail d’IA dans un centre de données génère des émissions de gaz à effet de serre de deux manières.

« Les coûts du carbone incorporé, ou les émissions associées à la fabrication des puces d’IA, sont relativement faibles dans les centres de données », a déclaré Benjamin Lee.

Les coûts opérationnels du carbone, ou les émissions liées à l’alimentation des puces en électricité pendant l’exécution des processus, sont plus importants et en augmentation.

Efficacité énergétique ou durabilité ?

« L’efficacité énergétique n’est pas nécessairement synonyme de durabilité », souligne Benjamin Lee. « L’industrie développe rapidement la capacité des centres de données et déploie des puces d’intelligence artificielle. Ces puces, quelle que soit leur efficacité, augmenteront la consommation d’électricité et l’empreinte carbone de l’IA. »

Selon lui, ni les efforts de développement durable tels que les compensations énergétiques, ni les installations d’énergie renouvelable ne sont susceptibles de croître assez rapidement pour suivre la capacité des centres de données.

« Si vous pensez à l’exécution d’une forme très efficace de calcul accéléré avec nos propres GPU, nous utilisons le refroidissement liquide pour ces GPU qui leur permet de fonctionner plus rapidement, mais aussi d’une manière beaucoup plus économe en énergie et donc plus rentable », a déclaré Mark Lohmeyer, vice-président et directeur général de l’infrastructure de calcul et AI/ML chez Google Cloud, lors de la la NVIDIA GTC en mars.

Google Cloud aborde la durabilité énergétique sous l’angle de l’utilisation de logiciels pour gérer le temps de fonctionnement.

« Ce que vous ne voulez pas, c’est avoir un tas de GPU ou n’importe quel type de calcul déployé utilisant de l’énergie mais ne produisant pas activement, vous savez, les résultats que nous recherchons », a-t-il déclaré. « C’est pourquoi l’obtention de niveaux élevés d’utilisation de l’infrastructure est également essentielle à la durabilité et à l’efficacité énergétique.

Lee est d’accord avec cette stratégie : « Google exécutant une grande quantité de calculs sur ses puces, le coût moyen du carbone incorporé par tâche d’IA est faible »

Adapter les charges de travail de l’IA

Alyson Freeman a fait remarquer que Dell considère également qu’il est important de bien dimensionner les charges de travail d’IA et d’utiliser une infrastructure économe en énergie dans les centres de données.

« Avec la popularité croissante de l’IA et sa dépendance à l’égard de vitesses de traitement plus élevées, une pression accrue sera exercée sur la charge énergétique requise pour faire fonctionner les centres de données », a écrit Alyson Freeman. « La mauvaise utilisation des actifs informatiques est la principale cause de gaspillage d’énergie dans le centre de données, et comme les coûts énergétiques représentent généralement 40 à 60 % des coûts d’exploitation des centres de données, la réduction de la consommation totale d’énergie sera probablement quelque chose en tête des préoccupations des clients. »

Elle a encouragé les organisations à utiliser des configurations matérielles économes en énergie, des systèmes thermiques et de refroidissement optimisés, des sources d’énergie verte et le retrait responsable des systèmes anciens ou obsolètes.

Lors de la planification de l’utilisation de l’énergie, Christina Shim a déclaré qu’IBM prend en compte la durée de déplacement des données, l’utilisation de l’espace, l’infrastructure informatique et de centre de données économe en énergie, et les innovations en matière de développement durable en open source.

Comment les géants de la technologie abordent-ils la question de la durabilité de l’IA en termes d’utilisation de l’eau ?

L’utilisation de l’eau est un sujet de préoccupation pour les grandes entreprises depuis des décennies. Cette préoccupation n’est pas spécifique à l’IA générative, puisque les problèmes généraux – perte d’habitat, perte d’eau et augmentation du réchauffement climatique – sont les mêmes quelle que soit l’utilisation d’un centre de données. Toutefois, l’IA générative pourrait accélérer ces menaces.

La nécessité d’une utilisation plus efficace de l’eau croise l’utilisation accrue de l’IA générative dans les opérations et le refroidissement des centres de données. Microsoft ne distingue pas les processus d’IA générative dans ses rapports environnementaux, mais l’entreprise montre que sa consommation totale d’eau a bondi de 4 196 461 mètres cubes en 2020 à 6 399 415 mètres cubes en 2022.

« L’utilisation de l’eau est une chose à laquelle nous devons être attentifs pour toute l’informatique, et pas seulement pour l’IA », précise Christina Shim. « Comme pour la consommation d’énergie, il existe des moyens pour les entreprises d’être plus efficaces. Par exemple, un centre de données pourrait avoir un toit bleu qui recueille et stocke l’eau de pluie. Il pourrait recirculer et réutiliser l’eau. Il pourrait utiliser des systèmes de refroidissement plus efficaces. »

Christina Shim a indiqué qu’IBM travaillait sur la durabilité de l’eau dans le cadre de certains projets à venir. La modernisation en cours du vénérable centre de données de recherche d’IBM à Hursley, en Angleterre, comprendra un réservoir souterrain pour faciliter le refroidissement et pourrait être hors réseau pendant certaines périodes.

Microsoft a passé des contrats pour des projets de réalimentation en eau : recyclage de l’eau, utilisation d’eau recyclée et investissement dans des technologies telles que la génération air-eau et le refroidissement adiabatique.

« Nous adoptons une approche globale de la réduction de la consommation d’eau dans l’ensemble de nos activités, de la conception à l’efficacité, en recherchant des opportunités immédiates par le biais de l’utilisation opérationnelle et, à plus long terme, par l’innovation en matière de conception afin de réduire, de recycler et de réutiliser l’eau », a déclaré Sean James.

Microsoft aborde la question de l’utilisation de l’eau de cinq façons, a expliqué Sean James :

  • Réduire l’intensité de l’utilisation de l’eau.
  • Réapprovisionner plus d’eau que l’organisation n’en consomme.
  • Améliorer l’accès à l’eau et aux services d’assainissement pour les populations du monde entier.
  • Favoriser l’innovation pour développer des solutions pour l’eau.
  • Plaider en faveur d’une politique de l’eau efficace.

Les entreprises peuvent recycler l’eau utilisée dans les centres de données ou investir dans des initiatives en faveur de l’eau propre ailleurs, comme les efforts déployés par les bureaux de Google à Bay View pour préserver les zones humides.

Comment les géants de la technologie divulguent-ils leur impact sur l’environnement ?

Les organisations intéressées par l’impact environnemental des grandes entreprises technologiques peuvent consulter de nombreux rapports de développement durable :

Voici quelques extraits de ces rapports concernant l’IA :

  • IBM a utilisé l’IA pour capturer et analyser les données énergétiques d’IBM, créant ainsi une image plus complète de la consommation d’énergie.
  • NVIDIA met l’accent sur l’impact social de l’IA plutôt que sur l’impact environnemental dans son rapport, en s’engageant à utiliser des « modèles qui respectent les lois sur la protection de la vie privée, fournissent une transparence sur la conception et les limites du modèle, fonctionnent en toute sécurité et comme prévu, et avec des biais indésirables réduits dans la mesure du possible ».

Lacunes potentielles dans les rapports d’impact sur l’environnement

De nombreuses grandes organisations incluent des compensations carbone dans le cadre de leurs efforts pour atteindre la neutralité carbone. Les compensations carbone peuvent être controversées. Certains affirment que le fait de réclamer des crédits pour prévenir des dommages environnementaux ailleurs dans le monde entraîne des inexactitudes et ne contribue guère à la préservation des sites naturels locaux ou des sites déjà menacés.

Les géants de la technologie sont conscients de l’impact potentiel des pénuries de ressources, mais ils peuvent aussi tomber dans le piège de l' »écoblanchiment », c’est-à-dire le fait de se concentrer sur des efforts positifs tout en occultant des impacts négatifs plus importants. Le Greenwashing peut se produire accidentellement si les entreprises ne disposent pas de données suffisantes sur leur impact environnemental actuel par rapport à leurs objectifs climatiques.

Quand ne pas utiliser l’IA générative

Décider de ne pas utiliser l’IA générative réduirait techniquement la consommation d’énergie de votre organisation, tout comme refuser d’ouvrir une nouvelle installation, mais ce n’est pas toujours pratique dans le monde des affaires.

« Il est vital pour les organisations de mesurer, de suivre, de comprendre et de réduire les émissions de carbone qu’elles génèrent », assure Nate Suda. Pour la plupart des organisations qui réalisent des investissements importants dans la genAI, cette « comptabilité carbone » est trop importante pour une seule personne et une feuille de calcul. Elles ont besoin d’une équipe et d’investissements technologiques, à la fois dans le logiciel de comptabilisation du carbone et dans l’infrastructure de données, pour s’assurer que les données sur le carbone d’une organisation sont utilisées au maximum pour une prise de décision proactive. »

https://www.techrepublic.com/article/tech-giants-ai-sustainability