英伟达电话会:“将Blackwell带到中国市场”的机会真实存在,今年毛利率仍有望达70%中段水平

到2030年,全球AI资本支出将达到3-4万亿美元;今年英伟达的主权AI相关收入可能高达200亿美元,较去年增长一倍以上;基于Blackwell架构,每token可实现10倍投资回报,相比Hopper在每token能效方面提升了50倍。

最新财报显示,英伟达Q2营收保持两位数的增长,新一代架构Blackwell芯片的收入环比增长17%,被CEO黄仁勋视为“需求非常旺盛”的迹象。但公司核心业务数据中心的收入仍继续逊色,部分源于H20芯片收入减少,当季未在华出售任何H20。

在随后举办的财报电话会上,首席执行官黄仁勋强调,“未来的机遇仍然巨大”,未来几年,肯定是在本十年末内,我们将看到非常快速增长、非常重要的增长机会。

在对华销售的问题上,执行副总裁兼首席财务官Colette Kress表示,如果能够解决地缘政治问题,三季度其H20芯片对中国的销售额有望达到20-50亿美元,并且过去几周内,已有“部分”中国客户获得了许可证。

中国今年有500亿美元的商机,同比增速可达50%

黄仁勋表示,中国今年可能带来500亿美元的商机。如果能够用有竞争力的产品来满足这个市场,假设今年是500亿美元,预计该市场将每年增长50%,就像世界其他地区的AI市场也在增长一样。

他指出,中国是一个非常大的市场,英伟达正在与美国政府讨论满足中国市场的重要性,并称“将Blackwell带到中国市场”的机会是真实存在的,将继续争取向华销售Blackwell架构的GPU。

3-4万亿美元的AI资本支出预期“相当合理”

黄仁勋提及,本十年末,AI基础设施支出将达到3万亿至4万亿美元,其项目规模和范围将给英伟达带来重大的长期增长机遇。

他表示,仅排名前四的超大规模云服务提供商的资本支出在两年内就翻了一番,达到6000亿美元,考虑到全球各地云服务提供商都正在建设AI基础设施,“3万亿到4万亿美元”的预期在未来五年是相当合理的。

Kress指出,驱动这一投资持续增长的因素包括:需要大幅增加训练和推理计算的推理代理AI、主权AI的全球建设、企业AI采用,以及物理AI和机器人技术的到来。

基于Blackwell,每token可实现10倍投资回报

Kress表示,Blackwell已经设定了基准,它是AI推理性能的新标准。随着推理和代理AI在各行业的普及,AI推理市场正在快速扩张。Blackwell的机架级NVLink和CUDA全栈架构通过重新定义推理经济学来解决这一问题。

Kress介绍称,新的NVFP4 4位精度和GB300平台上的NVLink72相比Hopper在每token能效方面提升50倍,使公司能够以前所未有的规模将其计算货币化。例如,300万美元的GB200基础设施投资可以产生3000万美元的token收入,10倍回报。

毛利率仍有望达到70%中段水平

Kress表示,继续预计年底非GAAP毛利率将达到70%中段水平。公司正在加速对业务的投资,以应对未来巨大的增长机遇。

黄仁勋表示,“在很多方面,买得越多,增长越多”,我们的产品性价比极其出色,客户也能获得极佳的利润率——因此使用英伟达架构的增长机会和毛利润机会绝对是最好的。

今年有望实现200亿美元的主权AI收入

Kress还在会上表示,今年其主权AI相关收入可能高达200亿美元,较去年增长一倍以上。

Kress介绍称,主权AI正在崛起,各国利用本土基础设施、数据和人才发展主权AI的能力为英伟达带来重大机遇。比如,欧盟计划投资200亿欧元,在法国、德国、意大利和西班牙建立20个AI工厂,包括5个超级工厂,将AI计算基础设施提升十倍。

以下为英伟达财报电话会文字纪要(AI工具辅助翻译):

Nvidia 2026财年第二季度财报电话会议

活动日期:2025年08月27日

公司名称:Nvidia

会议主持人:

下午好。我是Sarah,今天将担任您的会议主持人。现在,我欢迎大家参加NVIDIA 2026财年第二季度财务业绩电话会议。所有线路已设为静音以防止背景噪音。 演讲者发言结束后,将进行问答环节。(主持人指示)。谢谢。Toshiya Hari,您可以开始会议。

投资者关系部Toshiya Hari:

谢谢。下午好,各位,欢迎参加NVIDIA 2026财年第二季度电话会议。今天与我一起的NVIDIA管理层有:总裁兼首席执行官Jensen Huang;执行副总裁兼首席财务官Colette Kress。我想提醒大家,我们的电话会议正在NVIDIA投资者关系网站上进行网络直播。网络直播将可供回放,直到讨论我们2026财年第三季度财务业绩的会议召开。

执行副总裁兼首席财务官Colette Kress:

谢谢,Toshiya。 我们在继续应对充满活力的外部环境的同时,交付了又一个创纪录的季度。总收入为467亿美元,超出我们的预期,我们在所有市场平台上都实现了环比增长。数据中心收入同比增长56%。尽管H20收入下降40亿美元,数据中心收入仍实现环比增长。 NVIDIA的Blackwell平台达到创纪录水平,环比增长17%。我们在第二季度开始了GB300的生产出货。我们为云服务提供商、新兴云、企业和主权客户提供的全栈AI解决方案都在为我们的增长做出贡献。我们正处于一场将改变每个行业的工业革命的开端。 我们预计到本十年末,AI基础设施支出将达到3万亿至4万亿美元。这些建设的规模和范围为NVIDIA提供了重大的长期增长机会。GB200 NVL系统正在被广泛采用,在云服务提供商和消费互联网公司中得到部署。包括OpenAI、Meta和Mistral在内的灯塔模型构建者正在数据中心规模使用GB200 NVL72,用于训练下一代模型和在生产中提供推理模型服务。新的Blackwell Ultra平台也有强劲表现,创造了数百亿收入。由于GB300与GB200共享架构、软件和物理占用空间,向GB300的过渡对主要云服务提供商来说是无缝的,使他们能够轻松构建和部署GB300机架。向新的GB300机架架构的过渡是无缝的。7月下旬和8月上旬的工厂建设成功转换以支持GB300产能提升。今天,全面生产正在进行中。

目前的生产速度已经恢复到满负荷状态,每周大约生产1000个机架。随着第三季度额外产能的上线,这一产量预计将进一步加速。我们预计在下半年市场将广泛供应,CoreWeave准备将第三代GB300实例推向市场,他们已经看到在推理模型上相比H100有10倍的推理性能提升。与之前的Hopper代相比,GB300和VL72 AI工厂承诺在每瓦特token能效方面提升10倍,这将转化为收入增长,因为数据中心受到功耗限制。

Rubin平台的芯片正在晶圆厂生产。包括Vera CPU、Rubin GPU、CX9 SuperNIC、NVLink 144扩展交换机、Spectrum-X横向扩展交换机以及硅光子处理器。Rubin仍按计划在明年实现批量生产。Rubin将是我们第三代NVLink机架级AI超级计算机,拥有成熟和完整的供应链。这使我们保持年度产品节奏,在计算、网络、系统和软件方面持续创新。

7月下旬,美国政府开始审查向中国客户销售H20的许可证。虽然我们在中国的部分客户在过去几周内获得了许可证,但我们尚未基于这些许可证发货任何H20产品。美国政府官员表示,美国政府预期将从获得许可的H20销售收入中获得15%的分成,但迄今为止,美国政府尚未发布将此要求编纂成法规的条例。由于我们继续处理地缘政治问题,我们的第三季度展望中未包含H20。如果地缘政治问题得到解决,我们应该在第三季度实现20亿至50亿美元的H20收入,如果我们有更多订单,我们可以开出更多账单。我们继续倡导美国政府批准Blackwell对中国的销售。我们的产品是为有益的商业用途而设计和销售的,我们进行的每一次获得许可的销售都将有益于美国经济和美国的领导地位。在竞争激烈的市场中,我们希望赢得每位开发者的支持。如果我们在全球范围内竞争,美国的AI技术栈可以成为世界标准。

本季度值得注意的是Hopper 100和H200出货量的增长。我们还向中国以外的非限制客户销售了约6.5亿美元的H20产品。

Hopper需求的环比增长表明了在加速计算上运行的数据中心工作负载的广度,以及CUDA库和全栈优化的强大功能,这些持续增强了我们平台的性能和经济价值。随着我们继续交付Hopper和Blackwell GPU,我们专注于满足飙升的全球需求。这一增长由云到企业的资本支出推动,他们有望在今年投资6000亿美元用于数据中心基础设施和计算,两年内几乎翻了一番。我们预计年度AI基础设施投资将继续增长,驱动因素包括:需要大幅增加训练和推理计算的推理代理AI、主权AI的全球建设、企业AI采用,以及物理AI和机器人技术的到来。

Blackwell已经设定了基准,它是AI推理性能的新标准。随着推理和代理AI在各行业的普及,AI推理市场正在快速扩张。Blackwell的机架级NVLink和CUDA全栈架构通过重新定义推理经济学来解决这一问题。新的NVFP4 4位精度和GB300平台上的NVLink72相比Hopper在每token能效方面提升50倍,使公司能够以前所未有的规模将其计算货币化。例如,300万美元的GB200基础设施投资可以产生3000万美元的token收入,10倍回报。

NVIDIA的软件创新结合我们开发者生态系统的实力,已经使Blackwell的性能自推出以来提升了2倍以上。CUDA、TensorRT LLM和Dynamo的进步正在释放最大效率。来自开源社区的CUDA库贡献以及NVIDIA的开放库和框架现已集成到数百万个工作流程中。NVIDIA与全球社区贡献之间这种强大的协作创新飞轮加强了NVIDIA的性能领导地位。NVIDIA是OpenAI模型、数据和软件的主要贡献者。

Blackwell为大型语言模型预训练引入了突破性的数值方法。使用NVFP4,GB300上的计算现在可以实现比使用FP8的H100快7倍的训练速度。这一创新提供了16位精度的准确性和4位的速度和效率,为AI工厂效率和可扩展性设定了新标准。AI行业正在快速采用这一革命性技术,包括AWS、Google Cloud、Microsoft Azure和OpenAI等主要参与者,以及Cohere、Mistral、Kimi AI、Perplexity、Reflection和Runway等公司都已经拥抱这项技术。

NVIDIA的性能领导地位在最新的MLPerf训练基准测试中得到进一步验证,GB200实现了全面胜利。请关注9月即将发布的MLPerf推理结果,其中将包括基于Blackwell Ultra的基准测试。

NVIDIA RTX PRO服务器已为全球系统制造商全面投产。这些是风冷的、基于PCIe的系统,可无缝集成到标准IT环境中,运行传统企业IT应用程序以及最先进的代理和物理AI应用程序。近90家公司,包括许多全球领导者,已经在采用RTX PRO服务器。日立将其用于实时仿真和数字孪生,礼来用于药物发现,现代用于工厂设计和自动驾驶验证,迪士尼用于沉浸式叙事。

随着企业对数据中心的现代化改造,RTX PRO服务器有望成为价值数十亿美元的产品线。主权AI正在崛起,各国利用本土基础设施、数据和人才发展自主AI的能力为NVIDIA带来重大机遇。NVIDIA处于英国和欧洲具有里程碑意义的倡议前沿。欧盟计划投资200亿欧元,在法国、德国、意大利和西班牙建立20个AI工厂,包括5个超级工厂,将AI计算基础设施提升十倍。在英国,由NVIDIA驱动的Isambard AI超级计算机作为该国最强大的AI系统亮相,提供21 exaflops的AI性能,加速药物发现和气候建模等领域的突破。我们有望今年实现超过200亿美元的主权AI收入,比去年增长一倍以上。

网络业务实现创纪录的73亿美元收入,AI计算集群不断增长的需求需要高效率和低延迟的网络。这代表环比增长46%,同比增长98%,SpectrumX以太网、InfiniBand和NVLink需求强劲。我们的SpectrumX增强以太网解决方案为以太网AI工作负载提供最高吞吐量和最低延迟网络。

SpectrumX以太网实现环比和同比双位数增长,年化收入超过100亿美元。在Hot Chips大会上,我们推出了Spectrum XGS以太网,这项技术旨在将分散的数据中心统一为千兆级AI超级工厂。CoreWeave是该解决方案的初期采用者,预计将使GPU到GPU通信速度提升一倍。InfiniBand收入环比几乎翻倍,受益于XDR技术的采用,该技术相比前代产品提供双倍带宽改进,对模型构建者尤其有价值。世界上最快的交换机NVLink具有PCIe Gen 5的14倍带宽,随着客户部署Blackwell NVLink机架级系统实现强劲增长。NVLink Fusion允许半定制AI基础设施,获得广泛积极响应。日本即将推出的FugakuNEXT将通过NVLink Fusion将富士通的CPU与我们的架构集成。它将运行包括AI、超级计算和量子计算在内的各种工作负载。

FugakuNEXT加入了在NVIDIA CUDEQ量子平台上运行的领先量子超级计算和研究中心的快速扩展名单,包括ULIC、AIST、NNF和NERSC,得到300多个生态系统合作伙伴的支持,包括AWS、Google Quantum AI、Quantinium、Q-era和SciQuantum。我们的新机器人计算平台Thor现已上市。Thor提供比NVIDIA AGX Orin高一个数量级的AI性能和能效。它在边缘实时运行最新的生成式和推理AI模型,实现最先进的机器人技术。

NVIDIA机器人全栈平台的采用率快速增长。超过200万开发者和1000多个硬件、软件应用和传感器合作伙伴将我们的平台推向市场。各行业领先企业已采用Thor,包括Agility Robotics、Amazon Robotics、Boston Dynamics、Caterpillar、Figure、Hexagon、Medtronic和Meta。机器人应用需要设备和基础设施上指数级更多的计算,这代表我们数据中心平台的重要长期需求驱动力。

NVIDIA Omniverse与Cosmos是我们用于机器人和机器人系统开发的数据中心物理AI数字孪生平台。本季度,我们宣布大幅扩展与西门子的合作伙伴关系,实现AI自动化工厂。包括Agile Robots、Neuro Robotics和Universal Robots在内的欧洲领先机器人公司正在使用Omniverse平台构建其最新创新。

转到按地理位置划分的收入快速摘要,中国环比下降至数据中心收入的个位数百分比。注意,我们的第三季度展望不包括向中国客户的H20出货。新加坡收入占第二季度账单收入的22%,因为客户将其发票集中在新加坡。向新加坡开具账单的数据中心计算收入中超过99%来自美国客户。

我们的游戏收入创纪录达到43亿美元,环比增长14%,同比跳跃49%。这得益于Blackwell GeForce GPU的增长,随着我们增加供应可用性,强劲销售持续。本季度,我们出货了GeForce RTX 5060桌面GPU。它为全球数百万游戏玩家带来双倍性能以及先进的光线追踪、神经渲染和AI驱动的DLSS4游戏体验。Blackwell将于9月进入GeForce Now。这是GeForce Now最重要的升级,提供RTX 5080级性能、最小延迟和120帧每秒的5K分辨率。

我们还将GeForce NOW目录增加一倍至超过4500个游戏,成为所有云游戏服务中最大的游戏库。对于AI爱好者,设备端AI在RTX GPU上表现最佳。我们与OpenAI合作,为数百万支持RTX的Windows设备优化其开源GPT模型,实现高质量、快速和高效的推理。通过RTX平台堆栈,Windows开发者可以创建设计在世界最大AI PC用户群上运行的AI应用程序。

专业可视化收入达到6.01亿美元,同比增长32%。增长得益于高端RTX工作站GPU的采用和AI驱动的工作负载,如设计、仿真和原型制作。关键客户正在利用我们的解决方案加速其运营。Activision Blizzard使用RTX工作站增强创意工作流程,而机器人创新者Figure AI使用RTX嵌入式GPU为其人形机器人提供动力。

汽车收入(仅包括车载计算收入)为5.86亿美元,同比增长69%,主要由自动驾驶解决方案推动。我们已开始出货NVIDIA Thor SoC,Orin的继任者。Thor的到来恰逢行业加速转向视觉、语言、模型架构、生成式AI和更高级别的自主性。Thor是我们创造的最成功的机器人和自动驾驶计算机。

我们的全栈驾驶AV软件平台现已投产,为NVIDIA开启数十亿美元的新收入机会,同时提高车辆安全性和自主性。现在转到我们损益表的其余部分,GAAP毛利率为72.4%,非GAAP毛利率为72.7%。这些数字包括因释放之前预留的H20库存而获得的1.8亿美元或40个基点的收益。

排除此收益,非GAAP毛利率为72.3%,仍超出我们的展望。GAAP运营费用环比增长8%,非GAAP基础上增长6%。这一增长是由更高的计算和基础设施成本以及更高的薪酬和福利成本推动的。为支持Blackwell和Blackwell Ultra的增长,库存从第一季度的110亿美元环比增加到第二季度的150亿美元。

虽然我们在第二季度优先资助我们的增长和战略举措,但我们通过股票回购和现金股息向股东返还了100亿美元。我们的董事会最近批准了600亿美元的股票回购授权,以增加我们在第二季度末剩余的147亿美元授权。

现在让我转到第三季度的展望。

三季度总收入预计为540亿美元,上下浮动2%。这代表超过70亿美元的环比增长。再次强调,我们的展望中不包含向中国客户发货H20的任何假设。GAAP和非GAAP毛利率预计分别为73.3%和73.5%,上下浮动50个基点。

我们持续预计年底非GAAP毛利率将达到70%中段水平。GAAP和非GAAP运营费用预计分别约为59亿美元和42亿美元。对于全年,我们预计运营费用同比增长将在30%高段范围内,高于我们此前预期的30%中段。我们正在加速对业务的投资,以应对未来巨大的增长机遇。

GAAP和非GAAP其他收入和支出预计约为5亿美元收入,不包括非流通证券和公开持有权益证券的收益和损失。GAAP和非GAAP税率预计为16.5%,上下浮动1%,不包括任何离散项目。更多财务数据包含在CFO评论和我们网站上的其他信息中。

最后,让我重点介绍金融界即将举行的活动。我们将于9月8日在旧金山参加高盛科技会议。我们的年度NDR将于10月上旬开始。GTC数据中心大会于10月27日开始,Jensen的主题演讲安排在28日。我们期待在这些活动中与您见面。

我们讨论2026财年第三季度业绩的财报电话会议安排在11月19日。现在我们开始接受提问。接线员,请开始提问环节。

主持人: 谢谢。(操作说明)我们将暂停片刻以整理问答名单。 提醒一下,请将问题限制在一个。谢谢。您的第一个问题来自Cantor Fitzgerald的CJ Muse。请提问。

CJ Muse:

下午好。感谢接受我的提问。考虑到从晶圆到机架的交付周期为12个月,您在今天的电话会议中确认Rubin正按计划在下半年增产,显然这些投资中有许多是依赖于电力、冷却等条件的多年项目。我希望您能从高层角度阐述您对2026年增长的愿景,作为其中一部分,如果您能就网络和数据中心之间进行评论将非常有帮助。谢谢。

Jensen Huang,创始人、总裁兼首席执行官:

谢谢CJ。从最高层面来看,增长驱动因素将是推理代理AI的演进和引入。过去的聊天机器人是一次性的,你给它一个提示,它就会生成答案。 现在AI会进行研究,它会思考并制定计划,它可能会使用工具。这被称为长思考,它思考得越久,通常会产生更好的答案。一次性生成与推理代理AI模型所需的计算量可能相差一百倍、一千倍,甚至可能更多,因为它需要进行大量的研究以及阅读和理解。因此,代理AI所需的计算量增长了巨大。 当然,有效性也显著提高了。由于代理AI,幻觉现象显著减少。它现在可以使用工具并执行任务。这为企业开辟了新的可能性。 由于代理AI和视觉语言模型,我们现在看到了物理AI、机器人技术、自主系统的突破。在过去一年中,AI取得了巨大进步。代理系统、推理系统完全是革命性的。现在我们构建了Blackwell NVLink72系统,这是一个为此刻而生的机架级计算系统。 我们已经研发了几年。去年,我们从NVLink8(节点级计算,每个节点是一台计算机)转向了NVLink72,其中每个机架就是一台计算机。将NVLink72分解为机架级系统极其困难,但结果非常出色。由于NVLink72,我们看到了数量级的速度提升,因此在能源效率和代币生成的成本效益方面都有显著改善。 因此,在接下来的几年中——你问的是长期情况。在接下来的五年中,我们将通过Blackwell、Rubin及后续产品扩展到一个价值3万亿到4万亿美元的AI基础设施机会。在过去几年中,你们看到仅前四大云服务提供商的资本支出就翻了一番,增长到约6000亿美元。所以我们正处于这个建设的开始阶段,AI技术的进步真正使AI能够采用并解决许多不同行业的问题。

主持人: 下一个问题来自美国银行证券的Vivek Arya。请提问。

Vivek Arya:

感谢接受我的提问。Colette,我想澄清一下在中国的20亿到50亿美元业务,需要发生什么,以及当您进入第四季度时,中国业务的可持续步伐是什么。 然后Jensen,关于竞争格局的问题,您的几个大客户已经拥有或正在规划许多ASIC项目。我认为您的一个ASIC竞争对手发出信号表示他们的AI业务明年可能增长55%、60%。您是否认为存在市场更多转向ASIC而远离NVIDIA GPU的情况?您从客户那里听到了什么?他们如何管理在通用芯片和ASIC之间的分配?谢谢。

执行副总裁兼首席财务官Colette Kress:

谢谢Vivek。首先回答您关于H20芯片何时能够发货的问题。市场对我们的H20芯片有需求,我们已经收到了首批许可证,同时我们也准备好了供应。这就是为什么我们传达本季度可能发货约20亿到50亿美元的原因。我们仍在等待政府和企业之间来回协商的一些地缘政治问题,他们正在决定采购计划和具体行动。目前情况仍不明朗,我们无法确定本季度的确切发货金额。但是,如果有更多需求和许可证到来,我们也能够继续生产更多H20芯片并扩大发货量。

创始人、总裁兼首席执行官Jensen Huang:

NVIDIA构建的产品与专用集成电路(ASIC)截然不同。我们先谈谈ASIC。很多项目启动了,许多初创公司成立了,但很少有产品真正投入生产。原因是这确实很困难。加速计算不同于通用计算,你不能只是编写软件然后编译到处理器中。

加速计算是一个全栈协同设计问题。在过去几年中,AI工厂变得更加复杂,因为问题的规模显著增长。这确实是世界上最极端的计算机科学问题。整个技术栈都很复杂。

模型变化极快,从基于自回归的生成模型到基于扩散的生成模型,再到混合模型,再到多模态模型。无论是Transformer的衍生版本还是演进版本,涌现的各种不同模型数量令人惊叹。我们的一个优势是NVIDIA在每个云平台都可用,每家计算机公司都提供我们的产品。

从云端到本地部署,从边缘计算到机器人,我们都采用相同的编程模型。因此,世界上每个框架都支持NVIDIA是合理的。当你构建新的模型架构时,在NVIDIA上发布是最明智的选择。我们平台的多样性体现在能够演进为任何架构,我们无处不在,而且我们加速整个流程,从数据处理到预训练,再到强化学习的后训练,一直到推理。

因此,当你使用NVIDIA平台构建数据中心时,其实用性是最好的,生命周期的有用性要长得多。除此之外,这现在已经是一个极其复杂的系统问题。人们不止谈论芯片本身,很多人现在谈论的是一个ASIC,即GPU。但为了构建Blackwell平台和Rubin平台,我们必须构建连接快速存储器的CPU、用于智能AI所需大容量缓存的低功耗高能效内存,连接到GPU、SuperNIC、扩展交换机(我们称之为NVLink,这是完全革命性的技术,我们现在已经是第五代了),再到横向扩展交换机,无论是Quantum还是Spectrum-X以太网,现在跨交换机扩展,这样我们就能为这些拥有多吉瓦计算能力且全部互连的AI超级工厂做好准备。我们称之为Spectrum-XGS,我们刚刚在本周的Hot Chips会议上宣布了这项技术。我们所做一切的复杂程度确实非常突出。

现在的规模确实极其庞大。最后,我想再补充一点,我们出现在每个云平台都是有充分理由的。我们不仅是最节能的,我们的性能功耗比是所有计算平台中最好的。在数据中心受功耗限制的世界里,性能功耗比直接推动收入增长。

您之前听我说过,在很多方面,买得越多,增长越多。由于我们的性价比极其出色,您也能获得极佳的利润率。因此,使用NVIDIA架构的增长机会和毛利润机会绝对是最好的。

这就是为什么每个云服务商、每家初创公司和每家计算机公司都选择NVIDIA的众多原因。我们确实是AI工厂的全面整体全栈解决方案。

主持人: 下一个问题来自Melius的Ben Reitzes。请提问。

Ben Reitzes:

谢谢。Jensen,我想问您关于到本十年末3万亿到4万亿美元数据中心基础设施支出的预测。此前您提到了大约1万亿美元的规模,我相信那只是指到2028年的计算支出。如果参考您过去的评论,3万亿到4万亿美元可能意味着计算支出将超过2万亿美元。我想知道这个理解是否正确,这是否是您看到的到本十年末的情况。我想了解您认为Nvidia在其中的份额会是多少。目前您在总体基础设施计算方面的份额非常高。 另外,您是否担心任何瓶颈,比如电力,会影响实现3万亿到4万亿美元的目标?谢谢。

Jensen Huang,创始人、总裁兼首席执行官:

谢谢。如您所知,仅前四大超大规模云服务提供商的资本支出在两年内就翻了一番。 随着AI革命全面启动,AI竞赛现在正在进行,资本支出已翻番至每年6000亿美元。从现在到本十年末还有五年时间,而6000亿美元仅代表前四大超大规模云服务提供商。我们还有其他企业公司在建设本地基础设施。全球各地都有云服务提供商在建设。美国约占全球计算的60%,随着时间推移,您会认为人工智能应该反映GDP规模和增长,当然也会加速GDP增长。我们对此的贡献是AI基础设施的很大一部分。在一个千兆瓦的AI工厂中,成本可能在上下浮动10%的范围内,比如500亿到600亿美元,我们约占其中的35%左右,即千兆瓦数据中心中约500亿美元中的35%。

当然,您获得的不仅仅是GPU。我认为人们熟知我们构建GPU和发明GPU,但如您所知,在过去十年中,我们真正转型成为一家AI基础设施公司。仅构建一台Rubin AI超级计算机就需要六种不同类型的芯片,要将其扩展到千兆瓦规模,您需要数十万个GPU计算节点和大量机架。所以我们真正是一家AI基础设施公司,我们希望继续为这个行业的增长做出贡献,让AI更有用,非常重要的是提高每瓦性能,因为如您提到的限制因素,全球总是可能面临电力限制或AI基础设施或AI建筑限制,所以我们需要从该工厂中榨取尽可能多的价值。NVIDIA每单位能耗的性能驱动该工厂的收入增长。 这直接转化为,如果您有一个100兆瓦的工厂,每100兆瓦驱动您的收入。这是每100兆瓦工厂的代币数。在我们的情况下,每美元支出的性能如此之高,您的毛利率也是最好的。

无论如何,这些是未来的限制因素,3万亿到4万亿美元在未来五年是相当合理的。

主持人: 下一个问题来自摩根士丹利的Joe Moore。请提问。

Joseph Moore:

太好了。谢谢。祝贺您重新开放中国机会。您能谈谈那里的长期前景吗?您曾提到大约一半的AI软件世界在那里,NVIDIA在该业务中能增长多少?让Blackwell架构最终在那里获得许可有多重要?

Jensen Huang,创始人、总裁兼首席执行官:

我估计中国市场今年对我们来说约有500亿美元的机会。如果我们能够用有竞争力的产品来满足这个市场,如果今年是500亿美元,您会期望它每年增长50%,就像世界其他地区的AI市场也在增长一样。

这是世界第二大计算市场,也是AI研究人员的聚集地。全球约50%的AI研究人员在中国。绝大多数领先的开源模型都是在中国创建的。所以我认为,美国技术公司能够满足该市场是相当重要的。

如您所知,开源在一个国家创建,但在全世界使用。来自中国的开源模型确实优秀。DeepSeek当然获得了全球关注。Qwen很优秀。Kimi很优秀。还有一大批新模型即将推出。它们是多模态的,是优秀的语言模型,真正推动了全球企业AI的采用,因为企业希望构建自己的定制专有软件堆栈。所以开源模型对企业真的很重要。

对于也希望构建专有系统的SaaS来说真的很重要。这对全球机器人技术来说真的令人难以置信。所以开源真的很重要,美国公司能够满足这一需求很重要。这将是一个非常大的市场。我们正在与政府讨论美国公司能够满足中国市场的重要性。如您所知,H20已获准用于不在实体清单上的公司,许多许可证已获批准。所以我认为我们将Blackwell带到中国市场的机会是真实存在的。所以我们只需要继续倡导美国科技公司能够领导和赢得AI竞赛的合理性和重要性。

主持人: 下一个问题来自富国银行的Aaron Rakers。请提问。

Aaron Rakers:

谢谢,我想回到本周Spectrum XGS发布的话题,考虑到以太网产品现在年化收入已超过100亿美元。您如何看待Spectrum XGS的机会空间?我们是否应该将其视为数据中心互联层?对于以太网产品组合中这一机会的规模,您有什么看法?谢谢。

Jensen Huang,创始人、总裁兼首席执行官:

我们现在提供三种网络技术。一种用于纵向扩展,一种用于横向扩展,一种用于跨域扩展。

纵向扩展是为了构建尽可能大的虚拟GPU,即虚拟计算节点。NVLink是革命性的。NVLink 72使Blackwell相对于Hopper的NVLink 8实现了如此卓越的世代跨越。现在我们有长思维、思维模型、智能体AI、推理系统,NVLink基本上放大了内存带宽,这对推理系统非常关键。

NVLink 72非常出色。然后我们通过网络进行横向扩展,我们有两种选择。我们有InfiniBand,毫无疑问它具有最低延迟、最低抖动、最佳的横向扩展网络。它确实需要更多管理这些网络的专业知识。

对于超级计算,对于领先的模型制造商来说,InfiniBand、Quantum InfiniBand是明确的选择。如果你要对AI工厂进行基准测试,使用InfiniBand的工厂性能最佳。对于那些希望使用以太网的用户,因为他们的整个数据中心都是用以太网构建的,我们有一种叫做Spectrum以太网的新型以太网。Spectrum以太网不是现成的。

它拥有一整套专为低延迟、低抖动和拥塞控制而设计的新技术。它有能力比市面上任何产品都更接近InfiniBand,更接近得多。这就是我们称之为Spectrum X以太网的产品。最后我们有Spectrum XGS,千兆级规模,用于连接多个数据中心、多个AI工厂成为一个超级工厂,一个巨大的系统。

网络在AI工厂中显然非常重要。实际上,选择正确的网络,性能和吞吐量改进从65%提升到85%或90%,这种因网络能力带来的提升实际上使网络成本变得微不足道。选择正确的网络,你基本上在付费,但你会得到难以置信的回报,因为正如我之前提到的,一个千兆瓦的AI工厂可能价值500亿美元。因此,将该工厂的效率提高几十个百分点,就能带来100亿、200亿美元的有效收益。

网络是其中非常重要的部分。这就是NVIDIA在网络方面投入如此之多的原因。这就是我们五年半前收购Mellanox的原因。正如我们之前提到的,Spectrum-X现在已经是一个相当规模的业务。

它只有大约一年半的历史。所以Spectrum-X是一个全垒打。这三个都将非常出色。NVLink用于纵向扩展,Spectrum-X和InfiniBand用于横向扩展,然后Spectrum-XGS用于跨域扩展。

主持人: 下一个问题来自Bernstein Research的Stacy Rasgon。请提问。

Stacy Rasgon:

你们好,谢谢回答我的问题。 我想问Colette一个更具体的问题。关于超过70亿美元的增长,其中绝大部分将来自数据中心。我应该如何在Blackwell、Hopper和网络之间分配这70亿美元?看起来Blackwell本季度可能是270亿美元,比上季度的230亿美元有所增长。Hopper在H20之后仍有60亿或70亿美元。

Hopper的强劲表现是否会持续?我应该如何理解这70亿美元在这三个不同组件之间的分配?

Colette Kress,执行副总裁兼首席财务官:

谢谢Stacy的问题。首先,看我们第二季度到第三季度的增长,Blackwell仍将是我们数据中心业务的主要部分。但请记住,这既有助于我们的计算方面,也有助于我们的网络方面,因为我们正在销售那些整合了Jensen刚才提到的NVLink的重要系统。我们仍在销售Hopper。

我们仍在销售H100、H200。但同样,它们是HDX系统,我仍然相信Blackwell将是我们业务的主要部分。我们将继续。我们没有关于如何完成本季度的更具体细节,但你应该期待Blackwell再次成为增长的驱动力。

主持人: 下一个问题来自高盛的Jim Schneider。请提问。

Jim Schneider:

下午好。感谢您回答我的问题。 您已经非常清楚地说明了您看到的推理模型机会,也相对清楚地说明了Rubin的技术规格。但也许您可以提供一些关于您如何看待Rubin产品未来转型的背景信息。这为客户提供了什么增量能力?您认为从性能角度来看,Rubin相对于我们看到的Blackwell,是更大、更小还是类似的提升?谢谢。

Jensen Huang,创始人、总裁兼首席执行官:

好的,谢谢。 Rubin,我们采用年度周期。我们采用年度周期的原因是这样做可以加速成本降低并为我们的客户最大化收入产生。当我们提高每瓦性能,即每单位能源使用量的令牌生成量时,我们实际上在推动客户的收入增长。对于推理系统,Blackwell的每瓦性能将比Hopper高一个数量级。

因此,对于相同的能源消耗量,每个人的数据中心在定义上都受到能源限制,对于我们使用Blackwell的任何数据中心,与我们过去所做的任何事情相比,与当今世界上的任何事情相比,您都能够最大化您的收入。由于性能如此出色,投资资本的性价比也将使您能够改善毛利率。只要我们对每一代产品都有好的想法,我们就可以通过发布新架构来改善客户的收入产生、AI能力和利润率。因此我们建议我们的合作伙伴、客户调整节奏,按照年度节拍建设这些数据中心。

Rubin将拥有一系列新想法。我停顿一下是因为,从现在到一年后,我有足够的时间告诉你Rubin将带来的所有突破。但是,Rubin有很多好想法。我很想告诉你,但现在还不能。

我会在GTC上告诉你更多相关信息。但无论如何,在接下来的一年里,我们正在大力推进Grace Blackwell,GB200,然后是Blackwell Ultra,GB300。我们正在大力推进数据中心建设。今年显然是创纪录的一年。

我预计明年也将是创纪录的一年。当我们一方面继续提高AI能力的性能,朝着人工超级智能迈进,另一方面继续提高超大规模云服务商的收入产生能力。

主持人: 最后一个问题来自瑞银的Timothy Arcuri。请提问。

Tim Arcuri:

非常感谢。 Jensen,我想问您,刚才回答问题时您提到了一个数字,您说AI市场50%的复合年增长率。我想知道您对明年有多少可见性。这是否是您数据中心收入明年应该增长多少的合理目标?我认为您至少会与之保持一致增长。谢谢。

Jensen Huang,创始人、总裁兼首席执行官:

我认为最好的看法是,我们对明年大客户有合理的预测。非常非常重要的预测。我们仍有许多业务在争取,还有许多初创公司在创建。

不要忘记,我们仍处于增长的早期阶段。不要忘记去年AI原生初创公司获得了1000亿美元的资金。今年,年度还没结束,已经获得了1800亿美元的资金。如果你看AI原生,产生收入的顶级AI原生初创公司,去年是20亿美元。今年是200亿美元。

明年比今年高10倍并非不可想象。开源模型现在正在开放大型企业、SaaS公司、工业公司、机器人公司加入AI革命,这是另一个增长源泉。无论是AI原生企业还是企业SaaS或工业AI或初创公司,我们都看到对AI的巨大兴趣和需求。现在的热点是,我相信你们都知道外面的热点。热点是一切都售罄了。

H100售罄了,H200售罄了。大型云服务提供商正在从其他云服务提供商那里租用容量。AI原生初创公司真正在争相获取容量,以便他们可以训练推理模型。所以需求真的非常高。

但从我们今天所处的位置来看长期前景,资本支出在两年内翻了一番,现在每年约6000亿美元,仅在大型超大规模云服务商中,我们成长到这6000亿美元年度规模,代表其中相当大的部分并不不合理。因此我认为未来几年,肯定在这个十年中,我们看到非常快速增长、非常重要的增长机会。让我以此结束,Blackwell是世界一直在等待的下一代AI平台。它提供了卓越的代际飞跃。

NVIDIA的NVLink72机架级计算具有革命性意义。随着推理AI模型推动训练和推理性能需求呈数量级增长,该技术的到来恰逢其时。Blackwell Ultra正在全速推进,需求极其旺盛。我们的下一个平台Rubin已经在晶圆厂投产。

我们有六款代表Rubin平台的新芯片,它们都已经在台积电完成流片。Rubin将成为我们第三代NVLink机架级AI超级计算机。因此,我们预计将拥有更加成熟和全面扩展的供应链。Blackwell和Rubin AI工厂平台将在本十年末扩展到3万亿至4万亿美元的全球AI工厂建设中。

客户正在建设规模越来越大的AI工厂。从数十兆瓦数据中心中的数千个Hopper GPU,到现在100兆瓦设施中的数十万个Blackwell,很快我们将建造数百万个Rubin GPU平台,为多吉瓦、多站点的AI超级工厂提供动力。每一代产品的需求都在增长。一次性聊天机器人已经发展为能够研究、规划和使用工具的推理智能体AI。

这推动了训练和推理计算需求的数量级跳跃。智能体AI正在走向成熟,为企业市场开启了为企业工作流程、产品和服务构建领域和公司特定AI智能体的机会。物理AI时代已经到来,在机器人技术、工业自动化领域开启了全新的产业。每家工业公司都需要建设两个工厂,一个用于制造机器,另一个用于构建他们的机器人AI。

本季度,NVIDIA实现了创纪录的收入,这是我们发展历程中的一个非凡里程碑。未来的机遇是巨大的。

一场新的工业革命已经开始。AI竞赛正在进行。感谢大家今天的参与,我期待在下次财报电话会议上与大家交流。谢谢。

主持人: 今天的电话会议到此结束。您现在可以断开连接。会议已结束。

 

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章