周三美股盘后,英伟达CEO黄仁勋在2025财年第四季度财报电话会议上表示,公司对AI推理带来的潜在需求感到兴奋,这类计算需求预计将远超当前的大语言模型(LLM),可能需要比现有计算能力高出数百万倍。
黄仁勋称,我们所做的事情并不容易,但英伟达在提升供应能力方面表现良好。AI软件将是一切数据中心的一部分,无论是短期、中期还是长期迹象都持续向好。他进一步确认,Blackwell系列芯片的供应链问题已完全解决,供应问题不曾妨碍到下一次训练和后续产品的研发。此外,Blackwell Ultra计划于2025年下半年发布。
对于DeepSeek,黄仁勋表示,DeepSeek-R1这样的推理模型,应用了推理时间扩展,推理模型可以消耗100倍更多的计算量,未来的推理模型可以消耗更多的计算量。黄仁勋还表示,DeepSeek-R1激发了全球的热情,这是一个出色的创新。但更重要的是,它开源了一个世界级的推理AI模型。
黄仁勋还指出,任何人都处在新科技转型的起点,所有软件和服务都将和AI相关。
英伟达CFO Colette Kress指出,感恩节和圣诞节期间的游戏硬件需求依然强劲,但整体营收仍受到供应限制的影响。不过,他预计供应问题将得到缓解,使得增速在当前季度迎来 “喷发”。
针对盈利能力,CFO指出,一旦Blackwell增产,利润将有所改善,并预计到2025年年底,利润率将在70%-80%区间的中部。然而,他强调,目前的首要任务是向客户交付尽可能多的产品。大客户和企业客户的增速大致相同。
中国市场方面,黄仁勋表示,四季度营收季环比大体上持平。
以下为电话会部分要点整理:
1. 关于推理专用集群的未来
问题:随着训练和推理之间的界限越来越模糊,推理专用集群的未来发展会如何?这对英伟达及其客户会产生怎样的影响?
Jensen Huang的回答要点:
未来AI模型将有多个扩展维度:预训练、训练后(如强化学习、微调)和推理时间扩展。
推理需求将大幅增长,特别是长思考推理AI模型,其计算需求可能比预训练高出几个数量级。
Blackwell架构为推理AI设计,推理性能比Hopper提升25倍,成本降低20倍。
英伟达的架构通用性强,能够灵活适应不同的AI工作负载,从预训练到推理都能高效运行。
2. 关于GB200的推广和系统复杂性
问题:GB200在CES上的情况如何?系统层面的复杂性和推广的挑战是什么?对NGL72平台的热情是否有所改变?
未具名发言人(可能是Jensen Huang)的回答要点:
GB200的推广进展顺利,尽管面临复杂性挑战,但需求强劲。
Blackwell(GB200)的生产涉及350个工厂,150万个组件,上个季度实现了110亿美元的收入。
大型云服务提供商(CSP)如Azure、GCP、AWS和OCI已经开始部署Blackwell系统。
对NGL72平台的热情未减,预计将继续推动AI基础设施的发展。
3. 关于毛利率和未来需求
问题:第一季度是否是毛利率的底部?未来需求的可持续性如何?DeepSeek等创新是否改变了对未来的看法?
Colette Kress的回答要点:
Blackwell推广期间毛利率将在70年代初,随着全面推广,预计年底恢复到70年代中期。
目前专注于加快Blackwell系统的制造,以满足客户需求。
Jensen Huang的回答要点:
数据中心的资本投资持续增长,AI将成为数据中心的主要工作负载。
企业AI、代理AI和物理AI等新兴领域将推动长期需求增长。
初创公司的活跃和创新表明AI市场潜力巨大,需求将持续强劲。
4. 关于Blackwell Ultra的推出
问题:下一代Blackwell Ultra的推出计划如何?当前一代Blackwell仍在推广,如何管理两种产品的推广?
Jensen Huang的回答要点:
Blackwell Ultra计划在下半年推出,将带来新的网络、内存和处理器等改进。
公司与客户和供应链紧密合作,确保平稳过渡。
Blackwell Ultra将无缝对接现有系统架构,继续推动AI基础设施的发展。
5. 关于定制ASIC与商用GPU的平衡
问题:定制ASIC与商用GPU之间的平衡如何?客户是否计划构建同时使用GPU和ASIC的异构超级集群?
Jensen Huang的回答要点:
英伟达的GPU架构通用性强,适用于多种AI模型和工作负载。
定制ASIC通常针对特定应用,而GPU的灵活性和生态系统使其成为大多数AI应用的首选。
性能和成本效率使GPU在AI数据中心中具有显著优势,特别是在推理和训练后工作负载中。
6. 关于地理分布和增长
问题:美国市场的增长是否能够弥补其他地区的潜在下降?这种地理分布的变化是否会影响增长?
Jensen Huang的回答要点:
AI技术的全球需求强劲,中国市场的比例保持稳定。
AI已成为主流技术,广泛应用于各个行业,从金融服务到医疗保健。
从长期来看,AI将渗透到更多行业,推动全球经济增长。
7. 关于企业AI的增长
问题:企业AI的增长趋势如何?是否会成为消费组合中更大的一部分?
Jensen Huang的回答要点:
企业AI市场增长迅速,特别是在自动驾驶汽车、机器人技术和工业应用中。
企业将越来越多地采用AI技术来提高生产力和效率。
英伟达的全栈AI解决方案将支持企业从预训练到推理的整个AI工作流程。
8. 关于基础设施更新周期
问题:已部署的基础设施的更新周期如何?何时会看到更新机会?
Jensen Huang的回答要点:
当前的AI基础设施仍在使用多种英伟达产品,如Voltas、Pascals和Amperes。
随着AI技术的发展,企业将逐步更新其基础设施,以利用最新的GPU技术。
英伟达的CUDA平台确保了不同代次GPU的兼容性,使得更新过程更加灵活。
9. 关于毛利率和关税影响
问题:毛利率的未来趋势如何?关税对毛利率的影响如何?
未具名发言人(可能是Colette Kress)的回答要点:
毛利率受多种因素影响,包括Blackwell的产量和配置。
公司正在努力提高毛利率,预计下半年将有所改善。
关税的影响尚不确定,公司将继续遵守相关法规。
以下为电话会实录,由AI翻译:
Colette Kress,执行副总裁兼首席财务官:
第四季度又是一个创纪录的季度。
收入为393亿美元,环比增长12%,同比增长78%,超出我们预期的375亿美元。2025财年收入为1305亿美元,较上一财年增长114%。让我们先从数据中心说起。2025财年的数据中心收入为1152亿美元,较上一财年翻了一番。在第四季度,数据中心收入达到创纪录的356亿美元,环比增长16%,同比增长93%。随着Blackwell的推出以及Hopper 200的持续增长,第四季度Blackwell的销售额超出了我们的预期。我们实现了110亿美元的Blackwell收入,以满足强劲的需求。
这是我们公司历史上最快的产品推广,其速度和规模都是前所未有的。Blackwell的生产正在全面展开,涵盖多种配置,我们正在迅速增加供应,扩大客户采用。我们的第四季度数据中心计算收入环比增长18%,同比增长超过两倍。客户们竞相扩大基础设施,以训练下一代尖端模型,并解锁下一层次的AI能力。
凭借Blackwell,这些集群从拥有10万个或更多的GPU开始将变得很常见。已经有多套这种规模的基础设施开始出货。训练后的模型定制和微调正在推动对英伟达基础设施和软件的需求,因为开发者和企业利用微调、强化学习和蒸馏等技术,针对特定领域的用例定制模型。仅Hugging Face就托管了超过9万个由Llama基础模型衍生出的版本。
训练后的模型定制和微调的规模是巨大的,其总体计算需求可能比预训练高出几个数量级。我们的推理需求正在加速增长,受到测试时扩展和新的推理模型(如OpenAI的o3、DeepSeek-R1和Grok 3)的推动。长思考推理AI可能需要比一次性推理多100倍的计算量。Blackwell是为推理AI推理而设计的。与Hopper 100相比,Blackwell可以将推理AI模型的吞吐量提高高达25倍,成本降低20倍。它具有革命性。Transformer Engine是为LLM和专家混合推理而构建的。其NVLink域提供了比PCIe Gen5高出14倍的吞吐量,确保了响应时间、吞吐量和成本效率,以应对日益复杂的推理规模。
各行各业的公司都在利用英伟达的全栈推理平台来提升性能并削减成本。NAP利用英伟达TensorRT将其截图功能的推理吞吐量提升了三倍,并削减了66%的成本。Perplexity每月处理4.35亿次查询,并通过英伟达Triton推理服务器和TensorRT LLM将推理成本降低了三倍。微软必应利用英伟达TensorRT和加速库,在数十亿张图片的视觉搜索中实现了5倍的速度提升和重大的总拥有成本(TCO)节省。Blackwell在推理方面有着巨大的需求。许多早期的GB200部署都被指定用于推理,这在新架构中尚属首次。Blackwell涵盖了从预训练、训练后到推理的整个AI市场,从云端到本地,再到企业级应用。CUDA的可编程架构加速了每一个AI模型以及超过4400个应用,确保了在快速发展的市场中对大型基础设施投资的保护,使其免受过时的影响。我们的性能和创新速度无与伦比。
我们致力于在短短两年内将推理成本降低200倍。我们提供了最低的总拥有成本(TCO)和最高的投资回报率(ROI),以及针对英伟达和我们庞大的生态系统(包括590万开发者)的全栈优化,这些开发者不断改进我们客户的经济效益。在第四季度,大型云服务提供商(CSP)约占我们数据中心收入的一半,这些销售额同比增长了近两倍。大型CSP是首批部署Blackwell的公司之一,Azure、GCP、AWS和OCI在全球范围内将GB200系统引入云区域,以满足客户对AI的激增需求。
托管NVIDIA GPU的区域云在全球数据中心收入中的占比上升,反映了全球范围内AI工厂建设的持续进行以及对AI推理模型和代理需求的迅速增长。当然,我们已经推出了基于100,000个GB200集群的实例,配备了NVLink交换机和Quantum-2 InfiniBand。消费者互联网收入同比增长了3倍,这得益于生成式AI和深度学习用例的不断扩大,包括推荐系统、视觉语言理解、合成数据生成搜索以及代理AI等。例如,XAI正在采用GB200来训练和推理其下一代Grog AI模型。Meta的尖端Andromeda广告引擎运行在NVIDIA的Grace Hopper超级芯片上,在Instagram、Facebook等应用中投放大量广告。Andromeda利用Grace Hopper的快速互联和大内存,将推理吞吐量提升了3倍,增强了广告个性化,并实现了显著的货币化和投资回报率(ROI)增长。
企业收入同比增长了近两倍,这得益于对模型微调、RAG和代理AI工作流程以及GPU加速数据处理的加速需求。我们推出了NVIDIA Llama Nemotron模型家族NIMs,以帮助开发者在包括客户支持、欺诈检测以及产品供应链和库存管理等一系列应用中创建和部署AI代理。领先的AI代理平台提供商,包括SAP和服务Now,是首批采用新模型的公司之一。
医疗保健领域的领导者IQVIA、Illumina和Mayo Clinic以及Arc Institute正在利用NVIDIA AI加速药物发现、增强基因组研究,并借助生成式和代理AI开创先进的医疗服务。随着AI从数字世界扩展到物理世界,NVIDIA的基础设施和软件平台越来越多地被采用,以推动机器人技术和物理AI的发展。在机器人技术和自动驾驶汽车领域是最早期也是最大的应用之一,几乎每一家自动驾驶汽车公司都在数据中心、汽车或两者中开发NVIDIA技术。
NVIDIA的汽车垂直业务收入预计在本财年将达到约50亿美元。在CES上,现代汽车集团宣布将采用NVIDIA技术来加速自动驾驶汽车和机器人技术的发展以及智能工厂计划。视觉变换器、自监督学习、多模态传感器融合以及高保真模拟正在推动自动驾驶汽车的发展,并将需要10倍以上的计算能力。在CES上,我们宣布了NVIDIA Cosmos World Foundation Model Platform。正如语言基础模型彻底改变了语言AI一样,Cosmos是一种物理AI,旨在彻底改变机器人技术。领先的机器人和汽车公司,包括共享出行巨头Uber,是首批采用该平台的公司之一。
从地域角度来看,由于Blackwell的初步推广,美国的数据中心收入环比增长最为强劲。全球各国都在构建自己的AI生态系统,对计算基础设施的需求激增。法国的2000亿欧元AI投资和欧盟的2000亿欧元AI计划仅是未来几年重新定义全球AI基础设施建设的一个缩影。
就数据中心收入的占比而言,中国数据中心的销售额仍远低于出口管制开始时的水平。在没有法规变化的情况下,我们预计中国的出货量将保持在当前的水平。中国市场的数据中心解决方案竞争非常激烈。我们将继续遵守出口管制规定,同时为我们的客户服务。
网络收入环比下降了3%。我们连接到GPU计算系统的网络非常强大,超过75%。我们正在从小型NVLink 8与InfiniBand转向大型NVLink 72与Spectrum X。Spectrum X和NVLink交换机的收入增加,代表了一个重要的新增长领域。我们预计网络将在第一季度恢复增长。
AI需要一个新的网络类别。NVIDIA提供NVLink交换机系统用于向上扩展计算。对于向外扩展,我们提供Quantum和InfiniBand用于HPC超级计算机,以及Spectrum X用于以太网环境。Spectrum X增强了AI计算的以太网,并取得了巨大成功。微软Azure、OCI、CoreWeave等公司正在使用Spectrum X构建大型AI工厂。第一个Stargate数据中心将使用Spectrum X。昨天,思科宣布将Spectrum X集成到其网络产品组合中,以帮助企业构建AI基础设施。凭借其庞大的企业客户群和全球影响力,思科将把NVIDIA以太网带到每个行业。现在转向游戏和AI PC。游戏收入为25亿美元,环比下降22%,同比下降11%。全年收入为114亿美元,同比增长9%,整个假日期间需求依然强劲。然而,第四季度的出货量受到了供应限制的影响。我们预计随着供应的增加,第一季度将实现强劲的环比增长。新的GeForce RTX 50系列桌面和笔记本GPU已经问世。它们专为游戏玩家、创作者和开发者设计,融合了AI和图形技术,重新定义了视觉计算。由Blackwell架构提供支持,第五代Tensor核心和第四代RT核心,以及高达3400个AI POPs。这些GPU实现了2倍的性能飞跃,并引入了新的AI驱动渲染技术,包括神经着色器、数字人类技术、几何和光照。新的VLSS4技术通过AI驱动的帧生成将帧率提升至8倍,将一个渲染帧转换为三个。它还首次在行业中实时应用了Transformer模型,拥有2倍的参数和4倍的计算能力,为无与伦比的视觉保真度提供了支持。我们还宣布了一系列配备新NVIDIA Max-Q技术的GeForce Blackwell笔记本GPU,该技术可将电池续航时间延长高达惊人的40%。这些笔记本将从3月开始由全球顶级制造商推出。接下来是我们的专业可视化业务。收入为5.11亿美元,环比增长5%,同比增长10%。全年收入为19亿美元,同比增长21%。推动需求的关键行业垂直领域包括汽车和医疗保健。NVIDIA技术和生成式AI正在重塑设计、工程和模拟工作负载。越来越多的领先软件平台,如Ansys、Cadence和西门子,正在利用这些技术,推动了对NVIDIA RTX工作站的需求。现在转向汽车业务。收入创下5.7亿美元的纪录,环比增长27%,同比增长103%。全年收入为17亿美元,同比增长55%。强劲增长得益于自动驾驶汽车(包括汽车和机器人出租车)的持续增长。在CES上,我们宣布丰田,全球最大的汽车制造商,将在其下一代汽车中采用NVIDIA Orin,并运行经过安全认证的NVIDIA DRIVE OS。我们宣布Aurora和Continental将大规模部署无人驾驶卡车,由NVIDIA DRIVE 4提供动力。最后,我们的端到端自动驾驶汽车平台NVIDIA DRIVE Hyperion已通过Su-Su和Su-Ryland的行业安全评估,这两家是汽车级安全和网络安全领域的权威机构。NVIDIA是首个获得全面第三方评估的自动驾驶汽车平台。
好的,接下来是损益表的其余部分。GAAP毛利率为73%,非GAAP毛利率为73.5%,随着我们首次交付Blackwell架构,环比下降,正如预期的那样。正如上季度所讨论的,Blackwell是一种可定制的AI基础设施,拥有多种类型的NVIDIA制造芯片、多种网络选项,以及适用于空气和液体冷却数据中心的配置。我们在第四季度超出预期地推广了Blackwell,增加了系统可用性,并为我们的客户提供了多种配置。随着Blackwell的推广,我们预计毛利率将在70年代初。最初,我们专注于加快Blackwell系统的制造,以满足客户对构建Blackwell基础设施的强烈需求。当Blackwell全面推广时,我们有许多机会降低成本,毛利率将得到改善,并将在本财年晚些时候恢复到70年代中期。环比来看,GAAP运营费用增长了9%,非GAAP运营费用增长了11%,这反映了新产品推出所带来的更高的工程开发成本以及更高的计算和基础设施成本。在第四季度,我们通过股票回购和现金股息的形式向股东返还了81亿美元。
让我转向第一季度的展望。预计资本收入为430亿美元,上下浮动2%。随着强劲需求的持续,我们预计Blackwell将在第一季度实现显著增长。我们预计数据中心和游戏业务都将实现环比增长。在数据中心内,我们预计计算和网络都将实现环比增长。GAAP和非GAAP毛利率预计分别为70.6%和71%,上下浮动50个基点。GAAP和非GAAP运营费用预计分别约为52亿美元和36亿美元。我们预计2026财年全年的运营费用将增长至中等30%水平。GAAP和非GAAP其他收入和费用预计约为4亿美元的收入,不包括非上市和上市股权证券的收益和损失。GAAP和非GAAP税率预计为17%,上下浮动1%,不包括任何一次性项目。更多的财务细节包含在首席财务官评论和其他信息中,这些信息可在我们的投资者关系网站上找到,包括一个新的财务信息AI代理。在结束语中,让我强调一下即将举行的金融界活动。
我们将在3月3日参加波士顿的TD Cowen医疗保健会议,以及3月5日在旧金山举行的摩根士丹利科技、媒体和电信会议。请加入我们在3月17日星期一开始的年度GTC会议,地点在加利福尼亚州圣何塞。Jensen将在3月18日发表新闻丰富的主题演讲,并且我们将在3月19日为我们的金融分析师举办问答环节。我们期待在这些活动中见到您。
我们讨论2026财年第一季度结果的财报电话会议安排在2025年5月28日。我们将把电话交给运营商,开始提问。如果您可以开始的话,那将很好。
问答环节
主持人:谢谢。接下来的问题来自Cantor Fitzgerald的CJ Muse。请继续。
CJ Muse:是的,下午好。感谢您接受我的提问。
我想问的是,Jensen,随着TEFCON计算和强化学习展现出如此巨大的潜力,我们明显看到了训练和推理之间的界限越来越模糊。这对可能专门用于推理的集群的未来发展意味着什么?您认为这对英伟达及其客户会产生怎样的整体影响?谢谢。
Jensen Huang,创始人、总裁兼首席执行官:
是的,我感谢你,CJ。现在存在多种扩展定律。首先是预训练扩展定律。
而且这将继续扩展,因为我们有多模态。我们有来自推理的数据,这些数据现在被用于预训练。然后第二部分是使用强化学习、人类反馈、强化学习AI反馈、强化学习可验证奖励的训练后扩展定律。实际上,用于训练后的计算量比预训练更高。
这在某种程度上是合理的,因为你可以在使用强化学习时生成大量的合成数据或合成生成的标记。AI模型基本上是在生成标记来训练AI模型。这就是训练后。第三部分,也就是你提到的部分,是测试时计算或推理、长思考、推理扩展。
它们基本上是相同的概念。在那里,你有思考链,你有搜索。已经生成的标记数量,所需的推理计算量已经比最初大型语言模型的一次性示例和一次性能力高出一百倍。而这仅仅是开始。
这只是个开始。下一个想法是,下一代可能会有成千上万倍甚至更多倍的推理量,而且我们希望未来的模型能够进行极其深入的思考,基于模拟和搜索的模型可能会比今天高出几十万倍甚至几百万倍。所以,问题来了,你该如何设计这样的架构?有些模型是自回归的。有些模型是基于扩散的。
有时你希望你的数据中心能够进行分散的推理。有时它是紧凑的。因此,很难确定数据中心的最佳配置,这也是为什么NVIDIA的架构如此受欢迎的原因。我们运行每一种模型。
我们在训练方面表现出色。我们今天的大部分计算实际上都是推理。而Blackwell将这一切提升到了一个新的水平。我们在设计Blackwell时考虑了推理模型。
当你查看训练时,它的性能要高出许多倍。但真正令人惊叹的是,对于长思考、测试时扩展、推理AI模型,它们的速度要快上十倍,25倍的更高吞吐量。所以,Blackwell在各个方面都将表现出色。当你拥有一个可以根据你是在进行更多的预训练、训练后还是扩展你的推理来配置和使用你的数据中心时,我们的架构是通用的,并且在所有这些不同的方式中都很容易使用。实际上,我们看到的是一种比以往任何时候都更加集中的统一架构。
主持人:
下一个问题来自摩根士丹利的Joe Moore。请继续。
Joe Moore:实际上我是来自摩根士丹利,谢谢。
我想知道关于GB200在CES的情况。你在准备发言中提到了机架级系统的复杂性以及你们面临的挑战。然后,正如你所说,我们已经看到了很多普遍可用性的情况,那么你在推广方面处于什么位置?在系统层面,除了芯片层面之外,是否还有瓶颈需要考虑?还有,你对NGL72平台的热情是否有所改变?
未具名发言人:
嗯,我今天比在CES时更有热情了。原因是我们自CES以来已经出货了很多。我们有350家工厂生产每个Blackwell机架所需的150万个组件。是的,这极其复杂,我们成功且令人难以置信地提升了Grace Blackwell的产能,上个季度实现了110亿美元的收入。我们将不得不继续扩大规模,因为需求相当高,客户们急切且不耐烦地想要得到他们的Blackwell系统。
你可能已经在网络上看到了相当多关于Grace Blackwell系统上线的庆祝活动。当然,我们也有。我们自己为工程团队、设计团队和软件团队安装了相当数量的Grace Blackwells。CoreWeave已经公开宣布了他们系统的成功启动。微软也已经宣布了。当然,OpenAI也已经宣布了,你开始看到许多系统上线了。我想回答你的问题是,我们正在做的事情没有什么是容易的,但我们做得很好,我们所有的合作伙伴也都做得很好。
主持人:下一个问题来自美国银行证券的Vivek Arya。请继续。
Vivek Arya:
谢谢您接受我的提问。我只是想知道您是否不介意确认一下第一季度是否是毛利率的底部。然后,Jensen,我的问题是,您的仪表盘上有什么能给您信心,让这种强劲的需求持续到明年,DeepSeek以及他们带来的任何创新,是否在任何方面改变了这种看法?谢谢。
Colette Kress,执行副总裁兼首席财务官:
让我先回答关于毛利率的第一个问题。在我们的Blackwell推广期间,我们的毛利率将在70年代初。目前,我们专注于加快我们的制造,以确保我们能够尽快为客户提供产品。
我们的Blackwell已经全面推广,一旦我们的Blackwell全面推广,我们可以降低成本并提高我们的毛利率。因此,我们预计可能在年底前达到70年代中期。正如你听到Jensen谈到的系统和它们的复杂性。它们是可定制的,在某些情况下。它们有多种网络选项。它们有液体冷却和水冷。因此,我们知道我们有机会在未来提高这些毛利率。但目前,我们将专注于完成制造并尽快将产品交给我们的客户。
Jensen Huang,创始人、总裁兼首席执行官:
我们知道几件事情,Vivek。我们对数据中心正在建设的资本投资有相当清晰的了解。我们知道,从现在起,大多数软件将基于机器学习。因此,加速计算和生成式AI、推理AI将是您数据中心想要的架构类型。
当然,我们有来自顶级合作伙伴的预测和计划。我们还知道,有许多创新的、令人兴奋的初创公司仍在不断涌现,作为开发下一代AI突破的新机会,无论是代理AI、推理AI还是物理AI。初创公司的数量仍然相当活跃,每个初创公司都需要相当数量的计算基础设施。因此,我认为无论是短期信号还是中期信号,短期信号当然是采购订单和预测等,中期信号将是基础设施和资本支出的规模与以往相比。
然后长期信号与这样一个事实有关,即我们知道从根本上说,软件已经从在CPU上运行的手工编码转变为在GPU和加速计算系统上运行的基于机器学习和AI的软件。因此,我们相当清楚地知道,这将是软件的未来,也许另一种思考方式是,我们真的只触及了消费者AI和搜索以及一些消费者生成式AI、广告、推荐系统的早期阶段。下一波浪潮即将到来,企业代理AI、机器人物理AI以及不同地区为自己的生态系统构建主权AI。所有这些才刚刚开始,我们能够看到它们。
我们能够看到它们,因为显然我们处于这些发展的中心,我们可以看到在所有这些不同地方发生的大量活动,这些活动将会发生。因此,无论是短期、中期还是长期信号,我们都有相当清晰的了解。
主持人:下一个问题来自摩根士丹利的Harlan Sur。请继续。
Harlan Sur:
是的,下午好。感谢您接受我的提问。您的下一代Blackwell Ultra计划在下半年推出,符合团队的年度产品节奏。Jensen,鉴于您仍在推广当前一代的Blackwell解决方案,能否请您帮助我们理解Ultra的需求动态?您的客户和供应链如何同时管理这两种产品的推广,团队是否仍按计划在下半年执行Blackwell Ultra的推出?
Jensen Huang,创始人、总裁兼首席执行官:
是的。
Blackwell Ultra将在下半年推出,正如您所知,第一代Blackwell出现了一些小问题,可能使我们耽误了两个月。当然,我们已经完全恢复了。团队出色地完成了恢复工作,我们的所有供应链合作伙伴以及如此多的人帮助我们以光速恢复。因此,我们现在成功地提升了Blackwell的产能。但那并没有阻止下一趟列车。下一趟列车遵循年度节奏,Blackwell Ultra将配备新的网络、新的内存,当然还有新的处理器等,所有这些都将上线。我们已经与所有合作伙伴和客户合作,进行了规划。
他们拥有所有必要的信息。我们将与每个人合作进行适当的过渡。这一次,Blackwell和Blackwell Ultra之间的系统架构完全相同。从Hopper到Blackwell的过渡要困难得多,因为我们从基于NVLink 8的系统转向了基于NVLink 72的系统。因此,机箱、系统架构、硬件、电源传输等所有内容都必须改变。这是一个相当具有挑战性的过渡。但下一次过渡将无缝对接。Blackwell Ultra将无缝对接。
我们还已经透露并与所有合作伙伴密切合作,为紧随其后的过渡做准备。紧随其后的过渡被称为Vera Rubin。我们的所有合作伙伴都在跟上这个过渡的步伐。因此,我们正在为这个过渡做准备,再次强调,我们将带来一个巨大的飞跃。
所以请来GTC,我会和你谈谈Blackwell Ultra、Vera Rubin,然后展示紧随其后的那一个。非常令人兴奋的新产品。所以请来GTC。
主持人:下一个问题来自瑞银的Timothy Arcuri。请继续。
Timothy Arcuri:
非常感谢。Jensen,我们经常听到关于定制ASIC的事情。你能谈谈定制ASIC与商用GPU之间的平衡吗?我们听说有些异构超级集群同时使用GPU和ASIC。这是客户正在计划构建的东西吗,还是这些基础设施将保持相对独立?谢谢。
Jensen Huang,创始人、总裁兼首席执行官:
嗯,我们构建的东西与ASIC非常不同。
在某些方面,我们完全不一样,在某些领域我们有交集。我们在几个方面有所不同。NVIDIA的架构是通用的。无论你是否针对自回归模型、基于扩散的模型、基于视觉的模型、多模态模型或基于文本的模型进行了优化,我们都很擅长。我们擅长这一切,因为我们灵活的架构和丰富的软件堆栈生态系统,我们是大多数令人兴奋的创新和算法的首选目标。因此,根据定义,我们比狭窄的ASIC要通用得多。我们还真的从头到尾都很擅长,从数据处理、训练数据的策划,到训练数据,当然还有用于训练后的强化学习,一直到测试时扩展的推理。因此,我们是通用的,我们是端到端的,我们无处不在。而且因为我们的架构不仅仅在一个云中,我们可以在任何云中,在本地,我们可以在机器人中。我们的架构比仅仅一个云要通用得多,它是一个伟大的目标,是任何开始新公司的首选目标。因此,我们无处不在。然后我想说的第三件事是,我们的性能和我们的节奏是如此令人难以置信的快。
请记住,这些数据中心总是固定大小的。它们是固定大小的,或者是固定功率的。如果我们的性能每瓦特是2倍到4倍到8倍,这并不罕见,这将直接转化为收入。因此,如果你有一个100兆瓦的数据中心,如果100兆瓦或吉瓦数据中心的性能或吞吐量是4倍或8倍更高,那么那个吉瓦数据中心的收入就是8倍更高。这个原因与过去的
数据中心不同,因为AI工厂是直接可货币化的,通过其生成的token。因此,我们架构的token吞吐量如此之快,这对于所有为收入生成目的而构建这些系统的公司来说,以及捕捉快速的投资回报率(ROI)来说,是非常有价值的。所以,我认为第三个原因是性能。然后,我想说的是,软件堆栈是非常复杂的。构建ASIC并不比我们所做的简单。我们不得不构建新的架构,而构建在我们架构之上的生态系统比两年前复杂了10倍。这很明显,因为世界上构建在我们架构之上的软件数量呈指数级增长,AI也在迅速发展。所以,将整个生态系统构建在多个芯片之上是困难的。
所以,我想说的是,有这四个原因,然后最后,我想说的是,仅仅因为芯片被设计出来并不意味着它会被部署。你已经多次看到这种情况了,有很多芯片被废弃。但当部署的时候,需要做出商业决策。这个商业决策是关于在有限的AI工厂中部署一个新的引擎,一个新的处理器,这个工厂在大小、功率和时间上都是有限的。我们的技术不仅更先进、性能更好,它还具有更好的软件能力,非常重要的是,我们的部署能力非常快。所以,这些事情都不是容易的,正如每个人现在所知道的那样。所以,有很多不同的原因,为什么我们做得很好,为什么我们能够胜出。
主持人:下一个问题来自Melius Research的Ben Reitz。请继续。
Ben Reitz:
是的。嗨,我是Ben Reitz。嘿,谢谢您接受我的提问。嘿,Jensen,这是一个与地理相关的提问。您非常出色地解释了一些支撑需求的潜在因素。但是美国环比增长了大约50亿美元左右,我认为,存在对于美国是否能够在其他地区面临法规限制时弥补缺口的担忧。我只是想知道,随着我们度过这一年,如果美国的这种增长持续下去,这是否合适,以及这是否支撑了您的增长率,您如何能够以如此快的速度增长,尽管存在这种向美国的混合转变?您的指导似乎表明中国可能会环比增长,所以我想知道您能否阐述一下这种动态,并可能权衡一下。谢谢。
Jensen Huang,创始人、总裁兼首席执行官:
中国的比例大约与第四季度以及之前的季度相同。大约是出口管制之前的那一半。
但它的比例大约是相同的。关于地理区域,关键要点是AI是软件。它是现代软件。它是令人难以置信的现代软件,但它是软件。而且AI已经主流化了。AI被用于每一个消费者服务中。如果你要买一品脱牛奶,它是由AI交付给你的。所以,几乎每个消费者服务都以AI为核心。每个学生都将使用AI作为导师。医疗服务使用AI,金融服务使用AI。没有金融科技公司会不使用AI。每个金融科技公司都会。气候科技公司使用AI。矿物勘探现在使用AI。每个高等教育机构,每个大学都使用AI。所以,我认为相当安全地说,AI已经主流化了,它已经被整合到了每一个应用中。我们的希望是,当然,这项技术能够安全地、有益地推进社会。
然后,最后一点,我认为我们正处于这个新时代的开始。我所说的“开始”,是指在我们身后的是数十年来构建的数据中心和计算机,它们是为手工编码和通用计算以及CPU等构建的。展望未来,我认为相当安全地说,未来的世界将是几乎所有软件都将融入AI。所有软件和所有服务最终都将基于机器学习。数据飞轮将成为改进软件和服务的一部分。
未来的计算机将是加速的。未来的计算机将基于AI。我们真的只是在这个旅程中走了几年。在现代化那些已经花费了数十年构建的计算机。所以,我相当确定我们正处于这个新时代的开始。
然后,最后一点,没有技术曾经有过机会去解决世界上更大一部分的GDP,就像AI一样。没有任何软件工具曾经有过。所以,这是一个现在可以解决世界上更大一部分GDP的软件工具,比历史上任何时候都要多。所以,我们思考增长的方式,以及我们思考某件事情是大还是小的方式,必须是在这个背景之下的。当你退后一步,从这个角度来看待它时,我们真的只是处于这个新时代的开始。
主持人:下一个问题来自富国银行的Aaron Rakers。请继续。Aaron,您的线路已开启。下一个问题来自Evercore ISI的Mark Lipacis。请继续。
Mark Lipacis:
嗨,我是Mark Lipacis。谢谢您接受我的提问。我有一个澄清的问题和一个问题。Colette,关于澄清的问题,您是否说过企业在数据中心在1月份的季度同比增长了2倍?如果是这样,这是否意味着它的增长速度比超大规模云服务提供商(CSP)更快?然后,Jensen,我的问题是,超大规模云服务提供商是您解决方案的最大购买者,但他们购买的设备既用于内部工作负载,也用于外部工作负载,外部工作负载即企业使用的云服务。
所以,问题是,您能否给我们一个关于超大规模云服务提供商在内部工作负载和外部工作负载之间的支出分配的大致情况?随着这些新的AI工作负载和应用的出现,您是否期望企业将成为消费组合中更大的一部分?这是否会影响您开发服务和生态系统的方式?谢谢。
Colette Kress,执行副总裁兼首席财务官:
当然,感谢您关于我们的企业业务的问题。是的,它增长了2倍,非常类似于我们所看到的大型云服务提供商的情况。请记住,这两个领域都很重要。
与云服务提供商合作可以进行大型语言模型的工作,也可以进行他们自己的推理工作,但请记住,这也是企业出现的地方。所以,您的企业既与您的云服务提供商合作,也在构建自己的系统。它们都在,正确,增长得相当好。
Jensen Huang,创始人、总裁兼首席执行官:
云服务提供商约占我们业务的一半。
云服务提供商既有内部消费,也有外部消费,正如你所说的。当然,我们与他们密切合作,优化内部工作负载,因为他们拥有大量的NVIDIA设备,他们可以利用这些设备。而且,由于我们可以在一方面用于AI,另一方面用于视频处理,还可以用于像Spark这样的数据处理,我们是通用的。
因此,如果我们的设备的使用寿命更长,那么总拥有成本(TCO)也会更低。那么,第二个问题是,我们如何看待非云服务提供商(CSP)的企业未来的增长?答案是,我认为从长期来看,企业部分将占据更大的份额。原因如下:
如果你看看今天的计算机行业,以及计算机行业尚未服务的部分,主要是工业。所以,让我举个例子。当我们说企业时,以汽车公司为例,因为他们既制造软件产品,也制造硬件产品。所以,在汽车公司的例子中,员工将是我们所说的企业部分,代理AI和软件规划系统和工具,我们有一些非常令人兴奋的东西将在GTC上与大家分享,这些代理系统是为了提高员工的生产力,用于设计、营销、规划和运营公司。这些是代理AI。另一方面,他们制造的汽车也需要AI。他们需要一个AI系统来训练这些汽车,管理这个庞大的汽车车队,今天路上有10亿辆汽车,将来也会有10亿辆汽车,每辆汽车都将是机器人汽车,它们都将收集数据,我们将使用AI工厂来改进它们,就像他们今天有汽车工厂一样,未来他们将拥有汽车工厂和AI工厂。
然后,在汽车内部是一个机器人系统,所以正如你所看到的,有三台计算机参与其中,有一台计算机帮助人们,有一台计算机为机器建造AI,它可以是一匹马,它可以是一台拖拉机,它可以是一台割草机,它可以是一个人或正在开发的机器人,它可以是一栋建筑,它可以是一个仓库,这些物理系统需要一种新的AI,我们称之为物理AI。它们不仅要理解单词和语言的含义,还要理解世界的物理意义,摩擦力和惯性,物体的永久性和因果关系,以及所有这些对我们来说是常识的东西,但AI需要去学习这些物理效应,所以我们称之为物理AI。
整个使用代理AI来彻底改变公司内部工作方式的部分,这只是刚刚开始。现在是代理AI时代的开始,你听到很多人在谈论它,我们有一些非常令人兴奋的事情正在进行中,然后是物理AI之后,还有机器人系统之后,所以这三台计算机都是全新的,我的感觉是,从长期来看,这将是其中最大的一部分,这在某种程度上是有道理的,因为世界上GDP的大部分是由重工业或工业企业以及为这些服务的公司所代表的。
主持人:下一个问题来自富国银行的Aaron Rakers。请继续。
Aaron Rakers:
是的,谢谢您再次给我机会提问。Jensen,随着我们接近Hopper转折点两周年的纪念日,您在2023年看到了这一转折点,以及生成式AI的兴起,当我们考虑您面前的道路时,您如何看待已经部署的基础设施,从替换周期的角度来看,无论是GB300还是Rubin周期,我们何时开始看到可能的更新机会?我只是好奇您是如何看待这个问题的。
Jensen Huang,创始人、总裁兼首席执行官:
是的,我非常感谢。首先,人们仍在使用Voltas和Pascals和Amperes。
原因是因为因为CUDA是如此的可编程,你可以使用它。嗯,其中一个主要的用例是数据处理和数据策划。你发现了一个AI模型不太擅长的情况。你将这种情况呈现给一个视觉语言模型。
假设,假设,是一辆车。你将这种情况呈现给一个视觉语言模型。视觉语言模型实际上查看了这种情况,并说,这并不是我擅长的。然后,你将这个回应,这个提示,然后你去提示一个AI模型去在你的整个数据湖中找到其他类似的情况,无论这种情况是什么。然后你使用AI进行领域随机化,并生成许多其他示例。然后,你可以从这些示例中训练模型。所以你可以使用Amperes来进行数据处理和数据策划以及基于机器学习的搜索。
然后你创建了训练数据集,然后你将这个数据集呈现给你的Hopper系统进行训练。所以,这些架构中的每一个都是完全兼容的,它们都是CUDA兼容的。所以,所有东西都可以在任何地方运行。但是,如果你有已经部署的基础设施,那么你可以将不太密集的工作负载放在过去的安装基础上。
我们的所有GPU都被充分利用了。
主持人:我们还有时间回答一个问题,这个问题来自花旗银行的Atif Malik。请继续。
Atif Malik:
嗨,谢谢您接受我的提问。我有一个关于毛利率的后续问题,Colette。Colette,我知道有很多变量,Blackwell的产量和NVLink 72以及以太网的混合。你之前有点回避关于第一季度是否是底部的问题。但下半年要达到你给出的年底70年代中期范围,必须每个季度增长200个基点。我们仍然不知道关税对更广泛的半导体行业的影响。
那么,是什么让你对今年下半年的这个轨迹有信心呢?
未具名发言人:
是的,谢谢你的提问。我们的毛利率相当复杂,就我们在Blackwell系统中所使用的材料和所有东西而言。在如何随着时间推移更好地提高我们的毛利率方面,我们有很多机会。请记住,我们在Blackwell上有许多不同的配置,这将有助于我们做到这一点。
所以,一起工作,在我们为客户提供了一些真正强劲的推广之后,我们可以开始这项工作。如果可能的话,我们将尽快开始。如果我们能在短期内提高它,我们也会这样做。关税,目前,这是一个有点未知的因素。
直到我们进一步了解美国政府的计划,无论是时间、地点还是多少,它都是未知的。所以目前,我们正在等待。但当然,我们总是会遵守出口管制或关税等规定。
主持人:
女士们、先生们,这结束了我们今天的问答环节。很抱歉。让我们把时间交给Jensen。
Jensen Huang,创始人、总裁兼首席执行官:
我只是想感谢大家。谢谢Colette。对Blackwell的需求是非凡的。AI正在从感知和生成式AI发展到推理AI。
随着推理AI的发展,我们观察到了另一个扩展定律,即推理时间或测试时间扩展。模型思考的计算量越多,答案就越聪明。像OpenAI的ROT3、DeepSeek-R1这样的模型是推理模型,它们应用了推理时间扩展。推理模型可以消耗100倍更多的计算量。未来的推理模型可以消耗更多的计算量。DeepSeek-R1激发了全球的热情。这是一个出色的创新。但更重要的是,它开源了一个世界级的推理AI模型。几乎每个AI开发者都在应用R1或思考链和强化学习技术,以扩展他们模型的性能。我们现在有三个扩展定律。AI的扩展定律仍然存在。基础模型正在通过多模态增强,预训练仍在增长。但仅靠预训练已经不够了。
我们还有两个额外的扩展维度。训练后的扩展,其中强化学习、微调、模型蒸馏需要比单独预训练多几个数量级的计算量。推理时间扩展和推理,其中单个查询可以要求100倍更多的计算量。我们为这一刻设计了Blackwell,一个单一平台,可以轻松地从预训练过渡到训练后和测试时间扩展。Blackwell的FP4 Transformer引擎和NVLink 72扩展结构以及新的软件技术,使Blackwell处理推理AI模型的速度比Hopper快25倍。Blackwell及其所有配置都已全面投产。每个Grace Blackwell NVLink 72机架都是一个工程奇迹。150万个组件在350个制造场所生产,由近100000名工厂操作员生产。
AI正以光速发展。我们正处于推理AI和推理时间扩展的开始。但我们只是处于AI时代的开始。多模态AI、企业AI、主权AI和物理AI就在眼前。我们将在2025年强劲增长。展望未来,数据中心将把大部分资本支出用于加速计算和AI。数据中心将越来越多地成为AI工厂。每个公司都将拥有自己的或租用的。我想感谢大家今天参加我们的会议。请在几周后加入我们在GTC的会议。我们将谈论Blackwell Ultra、Rubin以及其他新的计算、网络、推理AI、物理AI产品,还有许多其他内容。谢谢。
本文来自微信公众号“硬AI”,关注更多AI前沿资讯请移步这里