HBM,三足鼎立

半导体行业观察
业界预期,AI芯片需求爆发,将有利于三大厂的HBM收入,并有望带来数倍增的业绩。

韩国记忆体大厂SK海力士摆脱季度亏损,主要靠着DDR5及HBM3倍数成长,随着辉达(NVIDIA)、超微(AMD)竞相推出新的AI芯片,三星及美光也将加入HBM供应阵营,HBM市场料将呈现三足鼎立。

AI GPU市场现由NVIDIA占据领先地位,但AMD的新一代人工智能和高效能运算(HPC)加速器Instinct MI300X,已正式交货,AI芯片进入两强竞争时代。

业界预期,AI芯片需求爆发,将有利于三大厂的HBM收入,并有望带来数倍增的业绩。

产业界人士分析,SK海力士因先进者的市场优势,为NVIDIA提供HBM3,目前仍保持领先地位,但市场预估,三星于2023年底,获Nvidia验证通过后,自2024年第一季,将开始扩大对NVIDIA的HBM3供应。

根据业界掌握目前三大领导厂商HBM进度,SK海力士、三星、美光皆于2023年下半年,进行了Nvidia下一代H200搭载HBM3E的测试,预计将从2024年第二季开始供应。

因此,尽管现阶段HBM市场仍由SK海力士独占,但以HBM市场处于供不应求情况下,竞争格局将在2024年发生变化,三星、美光将逐步扩大HBM市场占有率。

业者分析,由于HBM在生产上有较高的消耗,将限制整体DRAM供给成长,而AI PC DRAM容量预计是传统PC的两倍以上,AI手机需要至少额外4GB DRAM,将进一步推升DRAM需求。

据了解,三星和SK海力士于2024年,在晶圆设备资本支出(WFE CAPEX),分别为27兆和5.3兆韩元,年增25%和100%,主要用于HBM产品上,目前记忆体产业先进制程节点产能仍呈现短缺,预期各大厂扩产将集中于DRAM。

TrendForce则指出,2024年的需求端,预期来自北美云端服务业者(CSP)的补货动能较强,DDR5及HBM渗透率提升,加上产能仍在控制下,在产业需求旺季的第三季, DRAM产品平均单价估计季增8~13%。

HBM产能,提高一倍

SK海力士1月25日宣布,计划今年将高带宽存储器(HBM)产能比去年增加一倍以上。此举是该公司捕捉人工智能(AI)应用新需求战略的一部分。

这显示了SK海力士的信心,该公司在三星电子、美光等全球三大存储半导体公司中,率先在去年第四季度成功扭亏为盈。证券分析师预测,借助“人工智能热潮”,该公司明年的营业利润将超过 15 万亿韩元(112.3 亿美元)。据报道,SK海力士管理层认为,从今年开始的人工智能驱动的上升周期将超过2018年的超级繁荣水平。

SK海力士去年第四季度的业绩被评价为彻底颠覆市场预期的“惊喜”。与只会减少损失的预测相反,营业利润达到了 3,460 亿韩元(2.59 亿美元)。销售额也达到11.31万亿韩元,比去年同期增长47.4%。这一数字超出了预期的10.47万亿韩元。分析表明,在人工智能新需求和行业削减的推动下,半导体行业的复苏速度快于预期。

在当天的业绩发布会上,SK海力士副总裁兼首席财务官金宇贤表示,“存储器市场的上升趋势预计将持续到明年。” Kim补充道:“预计内存价格上涨的客户从去年第四季度开始增加采购订单。新的需求主要来自库存水平较低的 PC 和移动客户。” 他预计,今年上半年DRAM需求侧库存将恢复至正常水平,而NAND下半年也将出现同样的恢复。

随着老产品的复苏趋势变得明显,SK海力士现在有能力对新的增长引擎进行大胆投资。该公司旨在通过专注于 HBM 和 DDR5 等高附加值产品来确保盈利,以应对不断增长的需求。值得注意的是,HBM和DDR5表现出色,销售额较上年分别增长四倍和五倍。

HBM扩大产能的决定就是基于这样的背景。SK海力士向全球领先的AI半导体公司NVIDIA供应第四代HBM HBM3。

为了占据市场领先地位,SK海力士还专注于下一代产品。代表性的例子包括应用于终端AI的高性能移动模块“LPCAMM2”,以及大容量服务器模块“MCRDIMM”。

如果SK海力士的选择和重点战略被证明是有效的,预计今年将实现接近10万亿韩元的营业利润。业内专家预测,明年,随着人工智能驱动新需求的全面影响,营业利润将突破15万亿韩元。SK海力士2018年的最高业绩记录是营业利润20.84万亿韩元。

韩国芯片巨头,决战HBM

行业预测表明,三星电子将通过大量设备投资显着扩大其高带宽内存(HBM)生产能力。这加剧了与SK海力士的行业领先地位竞争,SK海力士将于今年上半年开始量产其第五代HBM3E产品。

截至1月23日,预计SK海力士去年最后一个季度来自HBM的销售额超过1万亿韩元,这是历史上的首次。去年HBM市场规模达到40亿美元左右,SK海力士以20%的市场份额巩固了领先地位。

此外,SK海力士计划于今年上半年开始量产下一代HBM3E,巩固其在全球半导体元件市场高附加值产品线中的领导地位。今年早些时候,在美国拉斯维加斯举行的 CES 2024 上,SK 海力士总裁 Kwak No-jung 表达了对该公司业务的信心,并表示:“SK 海力士是 HBM 市场明显的领导者。”

另一方面,三星电子从去年第四季度开始扩大第四代HBM3供应,目前正进入一个过渡期,相关销售额开始显着反映在其业绩中。不过,三星电子预计将着手大规模的设备投资,以提升其整体产品生产能力,以加速其追赶。

预计两家公司之间的关键战场将是 HBM3E。HBM3E预计将安装在英伟达明年下半年销售的下一代AI芯片中,三星电子和SK海力士预计将为此展开激烈的供应订单竞争。

SK海力士自2013年开始与Nvidia合作开发HBM,积累了十年的生产技术,在定价方面也被视为具有竞争优势。SK海力士于去年8月成功开发了HBM3E,目前正在通过向包括Nvidia在内的主要客户提供样品进行性能验证程序。

三星电子仍有扭亏为盈的机会。该公司计划到今年第四季度将 HBM最大产量提高到每月 150,000 至 170,000 件。

此外,三星电子继续积极投资。三星电子美国DS部门副总裁Han Jin-man近日对记者表示:“今年我们的HBM CAPEX增加了2.5倍以上,尽管内存制造商的投资能力面临挑战,但三星预计明年保持这个水平。”

美光HBM,奋起直追

美光科技与英特尔等其他领先的人工智能 (AI) 半导体公司一起,加大了挑战行业领跑者的力度。12月24日,据半导体行业消息人士透露,全球第三大DRAM制造商美光目前正在对其开发的HBM3E进行主要客户的质量评估。

高带宽内存(HBM)是人工智能服务器中使用的一种 DRAM,其特点是堆叠多种类型的 DRAM 以增强数据处理能力和速度。目前由三星电子和 SK 海力士主导的全球 HBM 市场预计将从今年的约 2.5 万亿韩元增长到 2028 年的约 8 万亿韩元。

美光科技预计 2023 年市场份额约为 5%,位居第三。该公司对其下一代产品 HBM3E 下了很大的赌注,以缩小与领先者的差距。美光首席执行官 Sanjay Mehrotra 表示:“我们正处于为 Nvidia 下一代 AI 加速器提供 HBM3E 的验证的最后阶段。”

HBM和GPU捆绑在一起的AI加速器市场也面临着激烈的竞争。人工智能加速器是专门用于大规模数据训练和推理的半导体,被认为在生成人工智能时代至关重要。

英特尔正在这一领域做出巨大努力。12月14日,英特尔推出了Gaudi3下一代AI加速器原型机,其速度较前代产品提升至4倍,HBM提升1.5倍。英特尔首席执行官帕特·基辛格(Pat Gelsinger)一直公开批评人工智能加速器领域的领导者英伟达,他表示:“随着数据推理[服务]的重要性不断增长,英伟达专注于数据训练的时代也将结束。”

各个AI半导体领域的第三名逆袭是由市场的增长潜力驱动的。据AMD称,AI加速器市场目前价值300亿美元,预计到2027年将扩大到1500亿美元。HBM市场预计未来五年每年将以50%的速度增长。

客户想要检查领先公司的主导地位的愿望也刺激了新参与者积极进入市场。例如,微软等主要人工智能加速器市场参与者正在敦促 AMD 和英特尔等公司开发 Nvidia 的替代品。在 HBM 市场,一位客户已预付款 6 亿美元支持美光的新产品开发。

市场领导者正致力于通过新产品扩大领先地位。在HBM市场,三星电子和SK海力士正在开发第六代HBM——HBM4,预计将采用“混合键合”技术,在减小尺寸的同时提高容量。Nvidia 正在开发“X100”人工智能加速器,预计将于 2025 年发布,这将使内存使用量提高到 400 GB。

美光将向英伟达供应HBM

美光重申计划于 2024 年初开始大批量发货 HBM3E 内存,同时还透露 NVIDIA 是其新型 RAM 的主要客户之一。同时,该公司强调其新产品受到了整个行业的极大兴趣,这暗示 NVIDIA 可能不是唯一最终使用美光 HBM3E 的客户。

美光公司总裁兼首席执行官 Sanjay Mehrotra 在公司财报电话会议上表示:“我们的 HBM3E 产品系列的推出引起了客户的浓厚兴趣和热情。”

领先于竞争对手三星和 SK 海力士推出 HBM3E(该公司也称为HBM3 Gen2)对于美光来说是一件大事,美光在 HBM 市场上处于劣势,市场份额为 10%。该公司显然对 HBM3E 寄予厚望,因为这可能使其能够领先于竞争对手(赢得市场份额)提供优质产品(以提高收入和利润)。

通常情况下,内存制造商往往不会透露其客户的姓名,但这一次美光强调其 HBM3E 是其客户路线图的一部分,并特别提到 NVIDIA 是其盟友。与此同时,NVIDIA 迄今为止宣布的唯一支持 HBM3E 的产品是Grace Hopper GH200计算平台,该平台配备 H100 计算 GPU 和 Grace CPU。

Mehrotra 表示:“在整个开发过程中,我们一直与客户密切合作,并正在成为他们的人工智能路线图上紧密结合的合作伙伴。” “美光 HBM3E 目前已获得 NVIDIA 计算产品的资格,这将推动 HBM3E 驱动的人工智能解决方案。”

美光的 24 GB HBM3E 模块基于八个堆叠 24Gbit 内存芯片,采用该公司的 1β (1-beta) 制造工艺制造。这些模块的数据速率高达 9.2 GT/秒,使每个堆栈的峰值带宽达到 1.2 TB/s,比现有最快的 HBM3 模块提高了 44%。与此同时,该公司不会停止其基于 8-Hi 24 Gbit 的 HBM3E 组件。该公司宣布,继开始量产 8-Hi 24GB 堆栈后,计划于 2024 年推出超大容量 36 GB 12-Hi HBM3E 堆栈。

美光首席执行官补充道:“我们预计将于 2024 年初开始 HBM3E 的生产,并在 2024 财年实现可观的收入。”

美光128 GB DDR5 内存模块送样

美光科技在本周的财报电话会议上表示,该公司正在对 128 GB DDR5 内存模块进行送样,这些模块基于该公司最新的单芯片、非堆叠32 Gb DDR5 内存设备,该公司于今年夏天早些时候宣布推出该设备,最终将为服务器打开 1 TB 内存模块的大门。

美光总裁兼首席执行官 Sanjay Mehrotra 表示:“我们通过基于单片芯片的 128 GB 模块扩展了我们的高容量 D5 DRAM 模块产品组合,并且我们已开始向客户提供样品,以帮助支持他们的 AI 应用需求。” “我们预计该产品将在 2024 年第二季度实现收入。”

美光的 32 Gb DDR5 芯片采用该公司的 1β (1-beta) 制造工艺制造,这是仅依赖深紫外 (DUV) 光刻多重图案化且不使用极紫外 (EUV) 光刻工具的最后一个生产节点。不过,这就是我们目前对美光 32 Gb DDR5 IC 的了解:该公司没有透露其最大速度档,但我们可以预期,与在相同电压下运行的两个 16 Gb DDR5 IC 相比,功耗会有所下降。数据传输率。

美光的新型 32 Gb 内存芯片为创建仅包含 8 个独立内存芯片的个人电脑标准 32 GB 模块以及基于 32 个此类 IC 的面向服务器的 128 GB 模块铺平了道路。此外,这些芯片使得生产 1 TB 容量的内存模块成为可能,而这在今天看来是无法实现的。这些 1 TB 模块目前看来有些过大,但它们有利于人工智能、大数据和服务器数据库等领域。此类模块可以使服务器每个插槽支持高达 12 TB 的 DDR5 内存(在 12 通道内存子系统的情况下)。

总体而言,就DDR5内存而言,值得注意的是,该公司预计2024年初DDR5的位产量将超过DDR4,稍稍领先于行业。

“美光在向 D5 的行业转型中也拥有强大的地位, ”Mehrotra 说。“我们预计美光 D5 销量将在 2024 年初超越 D4,领先于行业。”

本文来源:半导体行业观察,原标题:《HBM,三足鼎立》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。