in

garantit l'accès à la mémoire HBM4 et DDR5

garantit l'accès à la mémoire HBM4 et DDR5

Samsung et AMD ont annoncé aujourd'hui un protocole d'accord pour étendre leur collaboration dans le domaine de la mémoire et de l'intelligence artificielle. La partie la plus importante de l'accord est que Samsung devient le principal fournisseur de mémoire HBM4 pour le futur AMD Instinct MI455X, et fournira également de la DDR5 avancée pour alimenter les processeurs AMD EPYC « Venice » de 6e génération. De plus, les deux sociétés ouvrent la porte à une coopération plus large dans les domaines de la fonderie et de l’emballage avancé. Il s’agit non seulement de la mémoire, mais également de la fabrication et du conditionnement avancés des futures puces AMD.

Cet accord place Samsung dans une position beaucoup plus ambitieuse au sein du boom de l’IA. Il ne s'agira plus seulement d'un vendeur de mémoires DRAM/HBM, mais d'un partenaire capable de couvrir davantage de niveaux de la chaîne de valeur. Cela implique de couvrir tout, de la mémoire HBM4 à la base logique/puce 4 nm, en passant par le packaging avancé et, potentiellement, la fabrication sous contrat. Samsung a précisément besoin de cela pour réduire l'écart avec SK Hynix, qui continue de dominer le marché HBM.

Samsung nagera dans l'argent tandis qu'AMD sécurise les composants critiques tels que la mémoire HBM4

Avec cet accord, tout le monde profite. Samsung détient actuellement une part de marché d'environ 22 % dans le domaine des mémoires HBM, tandis que SK Hynix en détient 57 %. Cet accord lui permettra non seulement de gagner de l'argent, mais également de renforcer sa présence dans ce métier. Il faut rappeler que la mémoire HBM est celle utilisée par tous les accélérateurs d’IA, c’est actuellement la mémoire la plus précieuse. Et la pénurie de DRAM/RAM est aussi liée au fait que sa production a été réduite pour privilégier les mémoires HBM bien plus chères. Samsung profitera ainsi du supercycle d’investissement dans les centres de données IA.

A lire également  les entreprises technologiques licencient 74 % de plus en janvier qu'en décembre

Pour AMD, la décision est assez claire : il s'agit de sécuriser les composants critiques pour sa prochaine vague d'accélérateurs et de systèmes full rack. L'AMD Instinct MI455X sera la pièce maîtresse d'Helios, l'architecture rackable d'AMD pour l'IA. Ces GPU seront accompagnés des processeurs AMD EPYC Venice et du réseau Pensando Vulcano. En d’autres termes, AMD n’achète pas seulement de la mémoire : elle soutient l’ensemble de sa feuille de route d’infrastructure d’IA, où le goulot d’étranglement n’est plus seulement la puce accélératrice, mais aussi un accès stable à la mémoire HBM et aux partenaires capables de faire évoluer la fabrication et le conditionnement.

Cela est d'autant plus logique qu'AMD vient de renforcer considérablement son activité IA avec un accord pouvant atteindre 60 milliards de dollars en puces pour Meta et un autre accord pluriannuel avec OpenAI. AMD a donc besoin de ce matériel pour fournir l'infrastructure qu'elle a déjà vendue. Samsung a déjà fourni le HBM3E pour les accélérateurs MI350X/MI355X, mais il s'agit de la première alliance officielle majeure de Samsung avec sa mémoire HBM4. Rapport dont l'envoi a commencé en février dernier. Cette mémoire HBM4 de 6e génération est fabriquée en 4 nm et fonctionne à une vitesse de 13 Gbit/s avec une bande passante allant jusqu'à 3,3 Tbit/s.

A lire également  Tesla va rappeler 1 million de voitures en Chine en raison d'un problème de freinage

Aucune précision sur le volume, les délais de livraison ou le prix : une tentative a été faite pour garantir un approvisionnement en mémoire

Production de masse Samsung HBM4Production de masse Samsung HBM4

AMD et Samsung se sont concentrés sur ce qui compte. Samsung a désormais plus d'importance en ce qui concerne la vente exclusive de mémoire. D'autre part, AMD sécurise le matériel critique pour lancer une infrastructure d'IA qu'elle a déjà vendue à des sociétés telles que Meta et OpenAI. Ce qui a été annoncé publiquement précise les produits et les domaines de collaboration, mais n'inclut pas les montants monétaires, les volumes ou un calendrier d'approvisionnement détaillé. Pour l’instant, il doit donc être interprété comme un cadre avancé de coopération plutôt que comme un contrat fermé et de gros volume.

Pourtant, cet accord arrive à un moment très favorable pour Samsung, quelques jours seulement après que NVIDIA ait également souligné sa collaboration avec Samsung Foundry, renforçant l'idée que Samsung essaie de transformer sa récupération de mémoire en un véritable retour au grand conseil de l'IA, également de fabrication logique.