Samsung, bir süredir HBM yongalarının Nvidia tarafından onaylanması için uğraşıyordu. Şimdi ise HBM3 onayının ardından HBM3E bellekler için de onayın alındığı bildirildi.
Nvidia, yapay zeka modelleri ve veri merkezleri için çiplerinde HBM3 ve HBM3E belleklerini kullanıyor. Şirket, genellikle SK Hynix ve Micron’un HBM çözümlerini tercih ederken, son dönemde Çin’e özel Nvidia B20 çipleri için Samsung’un HBM3 belleklerinin onaylandığı bildirildi. Ayrıca, Nvidia’nın 8 katmanlı HBM3E bellekler için de onay verdiği belirtiliyor. Henüz bir tedarik anlaşması yapılmamış olsa da, Samsung’un 2024’ün son çeyreğinde tedarik etmeye başlayacağı öngörülüyor. Samsung, HBM3E belleklerde yılın ikinci yarısında kapasite artışı yapacağını duyurmuştu. Ancak Nvidia’nın onayı, firmanın 12 katmanlı “Shinebolt” HBM3E belleklerini kapsamıyor. Çünkü bu bellekler hala yeterlilik testlerinden geçmedi.
Samsung’un HBM belleklerde karşılaştığı sorunlar genellikle termal yani ısı yönetimiyle ilgili. HBM bellekler, üst üste yığılmış bellek yongalarından oluşuyor ve her yonga belirli bir ısı üretiyor. Samsung, bu ısıyı yönetmek için TC-NCF (thermal compression non-conductive film) adı verilen bir strateji kullanıyordu. Ancak bu yöntem özellikle yapay zeka çiplerinde yeterince etkili olmamış. Samsung, ısınma ve güç tüketimi sorunlarını çözmek için HBM tasarımında değişiklikler yaparak yeterlilikleri karşılamaya çalışıyor.
Haziran 2022’den bu yana NVIDIA, HBM3 belleklerini kullanıyor ve bu alandaki ana tedarikçisi SK Hynix. Ancak, HBM3’ün sınırlamaları nedeniyle, yapay zeka ve veri analizi gibi talepkar iş yükleri için daha fazla bellek bant genişliği gerektiren HBM3E, şu anki tek uygulanabilir çözüm olarak görülüyor. Samsung, HBM3E tasarımını yeniden çalışarak daha iyi enerji verimliliği ve termal performans sağlamayı başardı. Ancak yeni çiplerinin onaylanmama nedeninin bu sorunlar olduğuna dair iddiaları reddetti.
NVIDIA, 8 katmanlı HBM3E’yi test etmeye devam ederken, SK Hynix 12 katmanlı HBM3E çiplerini sevkiyat aşamasına getirdi ve bu çiplerin 2024’ün üçüncü çeyreği için tamamen rezerve edildiğini belirtti. Şirket, Mayıs ayında beklenenden çok daha kısa sürede %80 hedef verimliliğe ulaştı. SemiAnalysis’in kurucusu Dylan Patel, SK Hynix’in HBM3E çiplerinin NVIDIA’nın mevcut H200 ve gelecek nesil Blackwell B100 GPU’ları için kullanıldığını belirtti.
Samsung ve SK Hynix’in yanı sıra, Micron da HBM’nin üçüncü ana tedarikçisi olarak NVIDIA’ya HBM3E çipleri sağlıyor. Micron, SK Hynix’ten daha önce seri üretime geçti ve bu üretim Şubat ayında başladı. HBM3E’nin 2024’ün dördüncü çeyreğinde toplam HBM çip satışlarının %60’ını oluşturması bekleniyor. Ayrıca, HBM çiplerine olan talebin 2027’ye kadar yıllık %82 oranında artacağı öngörülüyor.
Kaynak: wccftech.com