Skip to main content

3 Juin, 2024

Amazon a du mal à contester la suprématie des puces IA de Nvidia

Amazon a du mal à contester la suprématie des puces IA de Nvidia

Amazon a développé ses propres puces d’IA pour réduire les coûts, ce qui a également contribué à augmenter la rentabilité d’Amazon Web Services (AWS). Cependant, le géant du commerce électronique a du mal à développer des puces IA capables de rivaliser avec les puces standards de Nvidia.

Les problèmes de migration de projets, les lacunes de compatibilité et la faible utilisation sont quelques-unes des préoccupations qui ralentissent l’adoption de la puce IA d’Amazon. La situation met également en jeu de lourds revenus générés par Amazon grâce à son activité cloud. Les défis auxquels Amazon est confronté ont été identifiés grâce à des documents confidentiels et à des sources proches du dossier, comme le rapporte Business Insider.

Les puces IA internes d’Amazon rencontrent une adoption étouffée

Trainium et Inferentia sont les puces haut de gamme conçues par Amazon qui ont fait leurs débuts vers la fin de l’année dernière. La publication rapporte que l’année dernière, le taux d’adoption de Trainium parmi les clients d’AWS n’était que de 0,5 % par rapport à celui des unités de traitement graphique de Nvidia.

Amazon a effectué l’évaluation pour mesurer le pourcentage d’utilisation de différentes puces d’IA via ses services AWS en avril 2024, selon le rapport. Dans le même temps, le taux d’adoption d’Inferentia était légèrement supérieur, à 2,7 %. Inferentia est une puce spéciale conçue pour l’inférence, une tâche d’IA qui fait généralement référence au processus informatique destiné à l’utilisation du modèle d’IA par les consommateurs finaux. Le rapport mentionnait un document interne disant cela ; « Les premières tentatives des clients ont révélé des points de friction et étouffé l’adoption. »

La déclaration ci-dessus fait référence aux défis auxquels les grands clients du cloud ont été confrontés lors de la transition vers les puces personnalisées d’Amazon. La plate-forme CUDA de Nvidia est considérée comme plus attrayante pour les clients, et le rapport l’identifie comme l’une des principales raisons.

Le développement de puces IA personnalisées d’Amazon en cours d’examen interne

AWS, le plus grand fournisseur de services cloud au monde, développe actuellement ses puces informatiques maison pour faciliter les opérations. Amazon affiche parfois ses efforts en matière de puces IA. Cependant, le tableau présenté dans les documents est différent de ce que projette l’entreprise.Le ministre des Communications et de l’Information de Singapour, Tan Kiat How, avec les dirigeants et partenaires d’AWS. Source : AWS.

Les documents internes indiquent que l’entreprise est aux prises avec un taux d’adoption lent, mais le PDG d’Amazon a un point de vue différent. Lors de la conférence téléphonique sur les résultats du premier trimestre, le PDG d’Amazon, Andy Jassy, ​​a déclaré que la demande de puces AWS était élevée.

« Nous disposons de la plus large sélection d’instances de calcul NVIDIA, mais la demande pour nos siliciums personnalisés, nos formations et nos inférences est assez élevée, compte tenu de leurs avantages prix-performances favorables par rapport aux alternatives disponibles. »

Andy Jassy

Andy Jassy a également mentionné les premiers utilisateurs des puces de silicium AWS dans sa lettre aux investisseurs , affirmant que « nous avons déjà plusieurs clients qui utilisent nos puces d’IA, notamment Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh et Snap ». Dans le même temps, Anthropic est un tout autre cas car Amazon est le plus gros bailleur de fonds de la startup. Le géant du cloud a investi 4 milliards de dollars dans Anthropic, et l’accord d’investissement l’oblige à utiliser du silicium conçu par AWS.

Un composant AWS majeur exploite les GPU Nvidia

Amazon Web Services propose une variété de processeurs, des puces Grass Hopper de Nvidia à AMD et Intel. L’essentiel de sa rentabilité provient de la conception de ses propres puces pour centres de données, ce qui lui permet de réduire ses coûts en évitant d’acheter des GPU chez Nvidia.

Amazon a lancé sa première puce d’IA, Inferntia, en 2018, mais Nvidia reste leader en proposant des solutions plus largement adoptées par différents secteurs. AWS, Microsoft et Google font partie des plus gros clients de Nvidia. Tous ces géants louent des GPU via leurs services cloud. 

En mars, Adam Selipsku, PDG d’AWS, a assisté au Nvidia GTC 2023. Les deux sociétés ont fait une annonce conjointe axée sur leur collaboration stratégique pour faire progresser l’IA générative. 

« La collaboration étroite entre nos deux organisations remonte à plus de 13 ans, lorsque nous avons lancé ensemble la première instance cloud GPU au monde sur AWS, et nous proposons aujourd’hui la plus large gamme de solutions GPU NVIDIA à nos clients.

Adam Selipsku

La plateforme de Nvidia, appelée Cuda, est généralement préférée par les développeurs. Comme Nvidia a consacré de nombreuses années de temps et d’efforts à sa création et que l’industrie l’a adopté, ce qui leur facilite la gestion des choses. D’un autre côté, Amazon doit encore résoudre ce casse-tête par essais et erreurs.

https://cryptorank.io/news/feed/a9576-amazon-struggling-challenge-nvidias-ai-chip