Skip to main content

7 Mai, 2024

Les Clouds alternatifs sont en plein essor car les entreprises recherchent un accès moins coûteux aux GPU

Les Clouds alternatifs sont en plein essor car les entreprises recherchent un accès moins coûteux aux GPU

L’appétit pour les Clouds alternatifs n’a jamais été aussi grand.

En voici un exemple : CoreWeave, le fournisseur d’infrastructure GPU qui a vu le jour en tant qu’opération de minage de crypto-monnaie, a levé cette semaine 1,1 milliard de dollars de nouveaux fonds auprès d’investisseurs tels que Coatue, Fidelity et Altimeter Capital. Ce tour de table porte sa valorisation à 19 milliards de dollars et le total des fonds levés à 5 milliards de dollars en dettes et en actions – un chiffre remarquable pour une entreprise qui a moins de 10 ans.

Il n’y a pas que CoreWeave.

Lambda Labs, qui propose également une gamme d’instances GPU hébergées dans le Cloud, a obtenu début avril un « véhicule de financement à usage spécial » pouvant atteindre 500 millions de dollars, quelques mois après avoir clôturé une série C de 320 millions de dollars. L’organisation à but non lucratif Voltage Park, soutenue par le milliardaire de la cryptographie Jed McCaleb, a annoncé en octobre dernier qu’elle investissait 500 millions de dollars dans des centres de données basés sur le GPU. Enfin, Together AI, un hébergeur de GPU dans le Cloud qui mène également des recherches sur l’IA générative, a obtenu en mars 106 millions de dollars dans le cadre d’un tour de table mené par Salesforce.

Alors pourquoi cet enthousiasme et cet afflux d’argent dans l’espace cloud alternatif ?

La réponse, comme vous vous en doutez, est l’IA générative.

Le boom de l’IA générative se poursuit, tout comme la demande de matériel pour exécuter et former des modèles d’IA générative à grande échelle. Sur le plan architectural, les GPU sont le choix logique pour l’entraînement, le réglage fin et l’exécution des modèles, car ils contiennent des milliers de cœurs qui peuvent travailler en parallèle pour exécuter les équations d’algèbre linéaire qui composent les modèles génératifs.

Mais l’installation de GPU est coûteuse. La plupart des développeurs et des entreprises se tournent donc vers le cloud computing.

Les opérateurs historiques de l’espace de cloud computing – Amazon Web Services (AWS), Google Cloud et Microsoft Azure – ne manquent pas d’instances de GPU et de matériel spécialisé optimisées pour les charges de travail d’IA générative. Mais pour certains modèles et projets au moins, les Clouds alternatifs peuvent s’avérer moins chers et offrir une meilleure disponibilité.

Sur CoreWeave, la location d’un Nvidia A100 de 40 Go – un choix populaire pour l’entraînement et l’inférence de modèles – coûte 2,46 $ par heure, ce qui revient à 1 771 $ par mois. Sur Azure, le même GPU coûte 3,40 $ par heure, soit 2 448 $ par mois ; sur Google Cloud, il coûte 3,67 $ par heure, soit 2 642 $ par mois. (Les prix sont tirés de ce tableau qui, il est vrai, ne tient pas compte de tous les types d’instances, des options contractuelles et des remises sur volume).

Étant donné que les charges de travail d’IA générative sont généralement exécutées sur des grappes de GPU, les écarts de coûts augmentent rapidement.

« Les entreprises comme CoreWeave participent à un marché que nous appelons les fournisseurs de cloud spécialisés dans le ‘GPU en tant que service' », a déclaré Sid Nag, vice-président des services et technologies cloud chez Gartner. « Étant donné la forte demande de GPU, ils offrent une alternative aux hyperscalers, où ils ont pris les GPU de Nvidia et ont fourni une autre voie vers le marché et l’accès à ces GPU. »

Sig Nag souligne que même certaines grandes entreprises technologiques ont commencé à s’appuyer sur des fournisseurs de cloud alternatifs lorsqu’elles sont confrontées à des problèmes de capacité de calcul.

En juin dernier, CNBC a rapporté que Microsoft avait signé un accord de plusieurs milliards de dollars avec CoreWeave pour s’assurer qu’OpenAI, le fabricant de ChatGPT et un partenaire proche de Microsoft, disposerait d’une puissance de calcul suffisante pour entraîner ses modèles d’IA générative. Nvidia, qui fournit la majeure partie des puces de CoreWeave, considère qu’il s’agit d’une tendance souhaitable, peut-être pour des raisons d’effet de levier ; elle aurait donné à certains fournisseurs alternatifs de nuages un accès préférentiel à ses GPU.

Lee Sustar, analyste principal chez Forrester, estime que les fournisseurs de services Cloud comme CoreWeave réussissent en partie parce qu’ils n’ont pas le « bagage » d’infrastructure avec lequel les fournisseurs en place doivent composer.

« Étant donné la domination de l’hyperscaler sur le marché global du cloud public, qui exige de vastes investissements dans l’infrastructure et une gamme de services qui ne génèrent que peu ou pas de revenus, les challengers comme CoreWeave ont la possibilité de réussir en se concentrant sur les services d’IA de qualité supérieure sans le fardeau des investissements globaux de l’hyperscaler », a-t-il déclaré.

Mais cette croissance est-elle durable ?

Lee Sustar a des doutes. Il pense que l’expansion des fournisseurs de cloud alternatifs sera conditionnée par leur capacité à continuer à mettre en ligne des GPU en grand volume et à les proposer à des prix compétitifs.

La concurrence sur les prix pourrait s’avérer difficile à l’avenir, car les opérateurs historiques comme Google, Microsoft et AWS investissent de plus en plus dans du matériel personnalisé pour exécuter et former des modèles. Google propose ses TPU, Microsoft a récemment dévoilé deux puces personnalisées, Azure Maia et Azure Cobalt, et AWS dispose de Trainium, Inferentia et Graviton.

« Les hyperscalers exploiteront leur silicium personnalisé pour réduire leur dépendance à l’égard de Nvidia, tandis que Nvidia se tournera vers CoreWeave et d’autres nuages d’IA centrés sur le GPU »,  assure Lee Sustar.

Par ailleurs, si de nombreuses charges de travail d’IA générative fonctionnent mieux avec des GPU, toutes les charges de travail n’en ont pas besoin, en particulier si elles ne sont pas sensibles au facteur temps. Les processeurs peuvent effectuer les calculs nécessaires, mais ils sont généralement plus lents que les GPU et le matériel personnalisé.

D’un point de vue plus existentiel, la bulle de l’IA générative risque d’éclater, ce qui laisserait les fournisseurs avec des montagnes de GPU et pas assez de clients qui les demandent. Mais l’avenir semble prometteur à court terme, estiment Lee Sustar et Sid Nag, qui s’attendent tous deux à un flux constant de nuages émergents.

« Les startups de clouds orientés GPU vont donner aux opérateurs historiques beaucoup de concurrence, surtout parmi les clients qui sont déjà multi-clouds et qui peuvent gérer la complexité de la gestion, de la sécurité, du risque et de la conformité à travers plusieurs clouds », a déclaré Lee Sustar. « Ce type de clients n’hésitera pas à essayer un nouveau nuage d’IA s’il dispose d’un leadership crédible, d’un soutien financier solide et de GPU sans délai d’attente.

https://techcrunch.com/2024/05/05/coreweaves-1-1b-raise-shows-the-market-for-alternative-clouds-is-booming