La question de savoir ce que Nvidia pense des puces HBM3E à 12 couches de Samsung reste ouverte.
Pourquoi c'est important : Les puces HBM3E devraient devenir un élément incontournable du marché, avec une demande qui devrait augmenter d'ici 2027. La croissance sera alimentée par l'IA générative et le calcul haute performance, qui nécessitent tous deux des solutions de mémoire avancées pour gérer efficacement de gros volumes de données. À mesure que la demande s'intensifie, la concurrence pour fournir ces puces à Nvidia s'intensifiera également. Samsung se positionne pour remplacer SK Hynix comme son principal fournisseur, et ses efforts ont récemment été récompensés par l'approbation par Team Green de ses puces à huit couches.
Les puces HBM3E à huit couches de Samsung Electronics ont été approuvées par Nvidia pour être utilisées dans ses processeurs d'intelligence artificielle, ce qui constitue une avancée significative alors que Samsung cherche à rattraper SK Hynix dans la fourniture de puces mémoire avancées pour les applications d'intelligence artificielle. Selon trois sources qui ont parlé à Reuters, les puces HBM3E à huit couches de Samsung ont passé avec succès les tests de Nvidia.
Bien que cette approbation soit une étape importante, Samsung et Nvidia n’ont pas encore signé d’accord d’approvisionnement. Cependant, il est prévu qu’un tel accord soit finalisé prochainement, les livraisons devant commencer d’ici le quatrième trimestre 2024.
L'approbation des puces HBM3E de Samsung offre à Nvidia un fournisseur supplémentaire de mémoire à large bande passante, réduisant ainsi potentiellement la dépendance à une source unique et atténuant les risques associés aux perturbations de la chaîne d'approvisionnement. Cette évolution ouvre également la voie à une future collaboration entre Nvidia et Samsung, qui pourrait conduire à de nouvelles avancées dans la technologie des processeurs d'IA.
Malgré les progrès réalisés avec les puces à huit couches, la version à 12 couches des puces HBM3E de Samsung n'a pas encore passé les tests de Nvidia. Selon Reuters, cela pourrait être dû à des problèmes non résolus liés à la chaleur et à la consommation d'énergie, que Samsung a résolus, bien que Samsung ait nié ces allégations.
Ce rapport contraste avec un article précédent du média sud-coréen Alphabiz, qui suggérait que Samsung allait fournir en exclusivité la puce HBM3E à 12 couches à Nvidia. Le rapport indiquait que le PDG de Nvidia, Jensen Huang, avait approuvé le produit HBM3E à 12 couches de Samsung en laissant sa signature « Jensen Approved » sur une unité physique, signalant la reconnaissance par Nvidia de la technologie HBM3E de Samsung.
Présentées plus tôt cette année, les puces HBM3E à 12 couches de Samsung sont plus avancées, offrant une augmentation de 50 % des performances et de la capacité par rapport à la pile à huit couches. Elles offrent également une augmentation de 34 % de la vitesse moyenne pour la formation des modèles d'IA.
Samsung a obtenu la pile à 12 couches en utilisant un film non conducteur à compression thermique avancé, conservant la même spécification de hauteur que les puces à huit couches, ce qui répond aux exigences actuelles des applications de packaging de mémoire HBM.
Selon le cabinet de recherche TrendForce, les puces HBM3E devraient dominer le marché au cours du second semestre de l’année, reflétant leur importance et leur adoption croissantes dans l’industrie.
Alors que Samsung continue de développer sa technologie HBM3E, elle sera en concurrence avec SK Hynix, qui fournit des puces HBM3E à Nvidia depuis fin mars et occupe une position forte sur le marché. Micron Technology, qui a annoncé son intention de fournir à Nvidia des puces HBM3E pour ses GPU H200 Tensor Core, est un autre acteur clé dans ce domaine.
SK Hynix estime que la demande de puces mémoire HBM augmentera à un taux annuel de 82 % jusqu'en 2027. Parallèlement, Samsung a prévu en juillet que les puces HBM3E représenteraient 60 % de ses ventes de puces HBM d'ici le quatrième trimestre.