在全球AI算力竞赛持续升温之际,英伟达CEO黄仁勋给市场带来一个更为激进的增长预期。
美东时间3月16日周一,黄仁勋在英伟达年度开发者大会GTC上表示,英伟达预计,旗下新一代AI加速芯片架构Blackwell与下一代Rubin产品,到2027年底累计将创造至少1万亿美元收入。这一数字远超黄仁勋去年10月给出的5000亿美元销售预测,再次凸显AI基础设施投资浪潮仍在快速扩张。
黄仁勋公布上述1万亿美元的预测后,周一美股午盘时段,英伟达股价涨幅迅速扩大、刷新日高,日内涨约4.8%,后很快回吐过半涨幅。在此之前,截至上周五收盘,英伟达股价进入2026年以来已累跌超3%,市场对AI投资周期持续性的担忧一度令股价承压。

AI算力需求持续爆发
过去两年,随着生成式AI快速普及,英伟达已经成为AI基础设施浪潮中最核心的硬件供应商。
从大型科技公司到初创企业,各类企业正大举采购AI服务器和加速卡,用于训练和运行大型模型。微软、亚马逊、谷歌母公司Alphabet以及Meta等科技巨头均已成为英伟达数据中心GPU的主要客户。
市场普遍认为,未来几年全球科技企业在AI基础设施上的资本开支可能达到数千亿美元规模。
英伟达正试图通过快速迭代芯片架构,确保自己在AI加速计算领域保持领先。
2025年10月28日的GTC上,黄仁勋透露,英伟达对2025至2026年期间实现累计5000亿美元数据中心业务收入具备“可见性”,该预期涵盖Blackwell及下一代Rubin架构产品。
今年1月6日,英伟达首席财务官Colette Kress在摩根大通主办的活动上称,由于需求强劲,英伟达更为看好数据中心业务,到2026年末,英伟达数据中心芯片的预期收入“肯定”会超过去年10月给出的预测5000亿美元。
Blackwell成当前核心增长引擎 Rubin瞄准下一轮算力升级
在产品路线图中,Blackwell是英伟达当前最重要的AI计算平台。
该架构接替此前大规模部署的NVIDIA Hopper GPU architecture,专门针对大模型训练与推理优化,支持更高算力、更大显存带宽以及更高能效。
英伟达此前曾表示,大型AI集群部署规模正在迅速扩大——从早期的数千GPU规模,逐步迈向数十万甚至百万级GPU数据中心。
业内预计,Blackwell将成为未来几年AI服务器采购周期的核心产品。
在Blackwell之后,英伟达已经规划了下一代AI芯片架构——Rubin。该架构预计将在2026年左右推出,目标是在算力、能效和系统级AI性能方面继续实现数量级提升。
通过维持“一年一代架构”的产品节奏,英伟达希望保持对竞争对手的技术优势。当前,AMD、英特尔以及多家云厂商都在加速开发自研AI芯片,试图挑战英伟达在AI加速器市场的主导地位。
万亿美元目标凸显AI基础设施周期
分析人士认为,英伟达给出的1万亿美元收入目标,不仅是对自身产品需求的判断,也折射出整个AI基础设施市场规模的迅速膨胀。
如果该目标实现,意味着未来几年全球科技公司在AI服务器、GPU和相关系统上的投入仍将维持高强度增长。
随着AI模型规模持续扩大、推理需求激增以及企业级AI应用加速落地,AI算力正在逐渐成为类似云计算基础设施一样的长期资本开支方向。
对于资本市场而言,这一预期再次强化了一个核心判断:AI算力周期仍处于早期阶段,而非接近尾声。




