Skip to main content

3 Juin, 2024

Google, Microsoft, Meta et bien d’autres vont développer une norme ouverte pour les composants des puces IA au sein du groupe promoteur UALink

Google, Microsoft, Meta et bien d’autres vont développer une norme ouverte pour les composants des puces IA au sein du groupe promoteur UALink

NVIDIA est particulièrement absent du groupe, car il possède sa propre technologie équivalente qu’il ne souhaite peut-être pas partager avec ses plus proches concurrents.

AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta et Microsoft combinent leur expertise pour créer une norme industrielle ouverte pour une technologie de puce IA appelée Ultra Accelerator Link. La configuration améliorera les communications à haut débit et à faible latence entre les puces accélératrices d’IA dans les centres de données.

Une norme ouverte fera progresser les performances des clusters d’intelligence artificielle/apprentissage automatique dans l’ensemble du secteur, ce qui signifie qu’aucune entreprise ne pourra capitaliser de manière disproportionnée sur la demande des dernières et meilleures applications d’IA/ML, de calcul haute performance et de cloud.

NVIDIA et Amazon Web Services sont particulièrement absents du soi-disant groupe promoteur UALink. En effet, le Promoter Group a probablement l’intention que sa nouvelle norme d’interconnexion renverse la domination des deux sociétés sur le marché du matériel d’IA et du cloud, respectivement.

Le groupe promoteur UALink prévoit de créer un consortium d’entreprises qui géreront le développement en cours de la norme UALink au troisième trimestre 2024, et elles auront accès à UALink 1.0 à peu près au même moment. Une version à bande passante plus élevée devrait sortir au quatrième trimestre 2024.

Qu’est-ce que UALink et à qui en profitera-t-il ?

L’Ultra Accelerator Link, ou UALink, est un moyen défini de connecter des puces accélératrices d’IA dans des serveurs pour permettre une communication plus rapide et plus efficace entre eux.

Les puces accélératrices d’IA, comme les GPU, les TPU et autres processeurs d’IA spécialisés, sont au cœur de toutes les technologies d’IA. Chacun peut effectuer simultanément un grand nombre d’opérations complexes ; cependant, pour atteindre les charges de travail élevées nécessaires à la formation, à l’exécution et à l’optimisation des modèles d’IA, ils doivent être connectés. Plus le transfert de données entre les puces accélératrices est rapide, plus elles peuvent accéder et traiter rapidement les données nécessaires et plus efficacement elles peuvent partager les charges de travail.

La première norme qui devrait être publiée par UALink Promoter Group, UALink 1.0, verra jusqu’à 1 024 accélérateurs GPU AI, répartis sur un ou plusieurs racks dans un serveur, connectés à un seul commutateur Ultra Accelerator. Selon l’UALink Promoter Group, cela « permettra des chargements et des stockages directs entre la mémoire attachée aux accélérateurs d’IA, et augmentera généralement la vitesse tout en réduisant la latence de transfert de données par rapport aux spécifications d’interconnexion existantes ». Cela simplifiera également l’augmentation des charges de travail à mesure que les demandes augmentent.

Bien que les détails sur UALink n’aient pas encore été publiés, les membres du groupe ont déclaré mercredi lors d’un briefing que UALink 1.0 impliquerait l’architecture Infinity Fabric d’AMD tandis que l’Ultra Ethernet Consortium couvrirait la connexion de plusieurs « pods » ou commutateurs. Sa publication profitera aux équipementiers de systèmes, aux professionnels de l’informatique et aux intégrateurs de systèmes qui cherchent à configurer leurs centres de données de manière à prendre en charge des vitesses élevées, une faible latence et une évolutivité.

Quelles entreprises ont rejoint le groupe promoteur UALink ?

  • DMLA.
  • Broadcom.
  • Cisco.
  • Google.
  • HPE.
  • Intel.
  • Méta.
  • Microsoft.

Microsoft, Meta et Google ont tous dépensé des milliards de dollars en GPU NVIDIA pour leurs technologies respectives d’IA et de cloud, notamment les modèles Llama de Meta , Google Cloud et Microsoft Azure . Cependant, soutenir la domination matérielle continue de NVIDIA n’augure rien de bon pour leur avenir respectif dans le domaine, il est donc sage d’envisager une stratégie de sortie.

Un commutateur UALink standardisé permettra à des fournisseurs autres que NVIDIA de proposer des accélérateurs compatibles, offrant ainsi aux entreprises d’IA une gamme d’options matérielles alternatives sur lesquelles construire leur système sans souffrir de dépendance vis-à-vis d’un fournisseur.

Cela profite à de nombreuses entreprises du groupe qui ont développé ou développent leurs propres accélérateurs. Google dispose d’un TPU personnalisé et du processeur Axion ; Intel a Gaudi ; Microsoft possède les GPU Maia et Cobalt ; et Meta a MTIA. Ceux-ci pourraient tous être connectés via UALink, qui sera probablement fourni par Broadcom.

https://www.businesswire.com/news/home/20240530653602/en/AMD-Broadcom-Cisco-Google-Hewlett-Packard-Enterprise-Intel-Meta-and-Microsoft-Form-Ultra-Accelerator-Link-UALink-Promoter-Group-to-Drive-Data-Center-AI-Connectivity