赛道Hyper | SK海力士DDR5提价15%-20%

HBM产能供应吃紧,AI服务器正在加单。

作者:周源/华尔街见闻

尽管英伟达股价已从6月20日的高点跌了近20%(截至8月12日),但HBM(高带宽内存)却仍在告急。

8月13日,华尔街见闻从供应链独家获悉,SK海力士已将其DDR5(DRAM)提价15%-20%。供应链人士告诉华尔街见闻,海力士DDR5涨价,主要是因为被HBM3/3E产能挤占所致。同时,由于下游AI服务器加单,也推升了SK海力士决定提高DDR5价格的决心。

今年5月,SK海力士曾对外宣布,他们家2024年和2025年大部分HBM(High Bandwidth Memory)产能供应已被预定一空。美光科技在今年3月份也发布过类似声明。

最近,据TrendForce(集邦咨询)预测,2024年,HBM在整个内存市场的份额将有约2.5倍的增长:也就是从2023年的2%增至今年的5%。预计到2025年,HBM的市场渗透率将占整个内存市场的约10%。

简单回顾下HBM在英伟达AI加速卡中的作用:AI加速卡(显卡或GPU)在封装时,将多个HBM(DARM)与GPU封装在一起。

其中,HBM位于GPU两侧,以堆叠方式排列,这些HBM相互之间以TSV方式连接,而GPU和HBM则通过uBump和Interposer(起互联功能的硅片)连通;之后,Interposer再通过Bump和Substrate(封装基板)连通到BALL;最BGA BALL连接到PCB上。

HBM比GDDR节省约94%的表面积,每瓦带宽比GDDR5高300%+,也就是功耗降低3倍。

这种存储器最初的设计目的,是为GPU提供更快速的数据传输速度和大容量的内存空间。在AI加速卡出现之前,HBM的强悍性能缺乏必要的匹配场景,故而没有市场。在ChatGPT-3.5出现后,AI训练和推理速度需求爆发,HBM也找到了适合的市场空间。

由于此次兴起的AI技术对数据传输速率有着极高要求,故而HBM具有的内存高带宽技术特性也成为了“香饽饽”,加上封装时采用的异构集成路线(在减少物理空间占用的同时,也方便在更靠近处理器的位置包含更多内存),大幅提高了内存访问速率。

在采用了这些技术手段之后,导致的直接结果就是HBM内存接口更宽,下方互联的触点数量远多于DDR内存连接到CPU的线路数量。因此,与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗和更小的物理尺寸。

目前,HBM发展到了第五代的HBM3E;此前为HBM(第一代)、HBM2(第二代)、HBM2E(第三代)和HBM3(第四代)。第六代的HBM4正在研发中,从SK海力士传出的消息,该公司将在2025年下半年实现HBM4的量产,三星电子却宣称其将领先一步,于2025年上半年推出HBM4。

HBM3E的速率为8Gbps:每秒能处理1.225TB数据。举个例子:在1秒不到的时间内,就能下载一部163分钟的全高清(Full-HD)电影(1TB)。三星电子已推出12层堆栈的HBM3E,存储容量高达36GB。SK海力士和美光科技也有同类产品,带宽都超过了1TB/s。

在全球范围内,能生产这种存储器的公司只有SK海力士、三星电子和美光科技。市占率方面,SK海力士目前占据最大份额约52.5%,三星电子约有42.4%市占率,美光科技份额为5.1%。

回到市场本身,据TrendForce预测,HBM在今年,市场价值会占DRAM总市场价值的20%+,2025年将蹿升至30%+。

AI浪潮对AI加速卡的需求量,并没有因为英伟达最新产品Blackwell的延迟推出而减弱。

作为本轮AI浪潮兴起的最大受益方SK海力士,因为HBM产能的市场需求爆棚而不得不去减少DDR5的产能,原因是因为新的HBM生产线要求远超标准DRAM,故而需要更多时间。

另外有个消息也不乐观,除了英伟达AI加速卡对HBM有极强的吞噬力,AMD的Versal系列FPGA处理器也使用HBM,所以这种高性能内存产品会更进一步短缺。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。