Marvell刚刚结束的Custom AI投资者日透露出一个明确信号:AI芯片正在从“通用GPU拼装”走向“高度定制的系统级协同”。Marvell不再只是一个芯片设计公司,而是AI公司打造算力底座时的关键基础设施合作方。
Marvell将2028年数据中心潜在市场规模(TAM)的预期,从去年的750亿美元上修至940亿美元,其中定制计算(XPU)及其配套组件市场规模达到550亿美元。
Marvell指出,定制计算(XPU)和XPU Attach(配套组件)是增长最快的两大领域 。过去一年,定制计算的市场增长了近30%,互连(interconnect)增长了约37% 。Marvell的云收入未来将全面转向AI收入,这反映了AI在所有应用和云基础设施中的深度融合,云正成为AI的“工厂” 。
AI芯片已进入“系统定制”时代
Marvell强调:定制化芯片是满足新型工作负载需求的关键,是AI基础设施的未来,并且正在“每个云端”发生。
从核心XPU芯片,到配套的高带宽内存(HBM)、互联控制、供电等“XPU Attach”模块,客户都在为自己的AI应用场景打造专属系统。
公司CEO Matt Murphy在大会上指出:“如果你现在才开始准备做定制芯片,那已经太晚了。”Marvell自2018年起押注定制方向,今天已经形成完整体系。
TAM大幅上修,至940亿美元
在去年披露的750亿美元市场预期基础上,Marvell今年将定制芯片的2028年目标市场规模(TAM)上修至940亿美元,年复合增速达35%。其中:
-
定制XPU:400亿美元,CAGR(复合年增长率)47%
-
XPU配套组件:150亿美元,CAGR 高达90%,几乎每年翻倍
Marvell预计,云收入未来将全面转向AI收入,反映了AI在所有应用和云基础设施中的深度融合。
团队还观察到,工作负载正趋于多样化,采用专用芯片在成本与性能方面具有显著优势。Marvell指出,相较于GPU,XPU在工作负载中能提供更优性能。当前XPU在AI计算市场占比约25%,Marvell认为随着ASIC供应商技术突破,这一份额有望继续提升。
客户结构变化:新兴大型AI算力自建者与主权AI浮出水面
传统云计算四巨头(亚马逊AWS、微软Azure、谷歌、Meta)仍然是主力,但Marvell指出,Emerging Hyperscalers(新兴大型AI算力自建者,例如xAI、Tesla等)正在崛起,开始自主建设AI集群并推进定制芯片。
与此同时,“Sovereign AI”(由国家推动的本地AI基础设施)也成为全新增长方向,多个国家已展开投资,这将推动更多AI芯片定制需求在全球范围内爆发。
Marvell已拿下18个客户Socket,未来仍有50+项目在洽谈中
当前,Marvell已经拿下18个定制Socket(客户定制芯片项目单元)项目,多为长期多代项目:
-
其中 5个为核心XPU项目
-
13个为XPU配套组件相关项目
此外,Marvell还在积极跟进超过50个新项目机会,覆盖10+家客户,潜在生命周期收入合计可达750亿美元。
Marvell预计多个Socket将在2026-2027年进入量产,特别是一颗“重量级XPU”,将成为推动收入加速的关键拐点。
Marvell设定了到2028年在定制计算市场获得20%市场份额的目标。公司透露,几年前其市场份额还不足5%,如今已达到13%。20%的份额是“最佳预估”,也是合理的下一步目标。
当被问及是否“已深入参与继当前3纳米设计后的下一代项目开发”(主要客户为亚马逊)时,Marvell明确回答“当然”,并解释了产品迭代周期要求他们必须并行开发芯片(即确认了T4和MAIA 3项目)。
技术突破:SRAM、HBM 与 Die-to-Die互联
Marvell在本次活动中展示了多个关键模块的技术突破:
-
2nm定制SRAM:带宽密度是市面主流IP的17倍,待机功耗降低66%
-
自研HBM方案:通过底层Die-to-Die互联,腾出1.7倍可用核心面积,功耗降低75%
-
Die-to-Die通信:带宽密度超过10 Tbps/mm,功耗低至亚皮焦(sub-pJ/bit)级别
-
Co-Packaged Optics:将光通信直接整合进封装,解决传统铜线远距离低能效问题
这些模块是支撑高性能AI训练和推理架构扩展的基础能力。