面对甚嚣尘上的AI泡沫论、面对知名投资人纷纷减仓甚至离场的局面,英伟达CEO黄仁勋选择正面回击。
周三美股盘后,在决定行业信心的关键财报电话会上,英伟达CEO黄仁勋明确表示,“我们看到的景象与泡沫论截然不同”,并豪言英伟达已渗透至“每一个云、每一台计算机、每一个机器人系统”。
黄仁勋试图向华尔街证明:这场AI技术革命的引擎不仅没有熄火,反而正在向更广泛的领域渗透。他同时强调,世界正同时经历三大根本性的技术平台转型,这为人工智能的持续增长提供了坚实基础,而英伟达正处在这场变革的中心。
黄仁勋在电话会上详细阐述了驱动增长的三大动力:后摩尔定律时代从CPU到GPU加速计算的转型、生成式AI对现有应用的改造,以及代理式AI(Agentic AI)带来的全新革命。同时,公司高管透露,其下一代芯片平台Blackwell和Rubin的累计收入能见度已达5000亿美元,且需求持续超出预期。
在发布了远超预期的第三季度财报后,英伟达给出了更为强劲的第四季度业绩指引,预计营收将达到650亿美元。这一乐观预测是在公司假设“没有来自中国的任何数据中心计算收入”的背景下做出的,凸显了其核心业务的强劲势头。
在近期AI板块股票经历大幅回调、市场对AI投资回报率和“循环交易”疑虑加深的背景下,英伟达管理层的强硬表态和超预期指引,无疑为紧张的投资者注入了一剂强心针,旨在重塑市场对AI长期增长的信心。
财报电话会要点提炼:
- 正面回击“AI泡沫论”:英伟达CEO黄仁勋认为,市场并非处于AI泡沫中,而是正在经历三大根本性的平台转型浪潮:从通用计算到加速计算的转型、从经典机器学习到生成式AI的转型、以及全新的代理式(Agentic)AI和物理AI的兴起。
- 5000亿美元订单能见度、“云服务商的(GPU)已经售罄”:CFO Colette Kress透露,从今年初到2026年底,Blackwell和Rubin平台的收入能见度已达5000亿美元,且该数字可能继续增长。她强调“云服务商已售罄”,GPU利用率饱和。
- 业绩指引超预期,不受中国市场影响:英伟达预计第四季度营收将达到650亿美元,远超市场预期。值得注意的是,该指引是在假设“没有来自中国的任何数据中心计算收入”的情况下做出的。
- 赢得关键新客户Anthropic:公司宣布与重要的AI模型公司Anthropic建立深度技术合作伙伴关系,这是Anthropic首次采用英伟达架构,初始算力承诺高达1吉瓦。
- 下一代平台Rubin进展顺利:下一代Vera Rubin平台按计划将于2026年下半年推出,将再次实现性能的“X因子”级飞跃。
- 反击“AI闭环经济”:黄仁勋解释称,对OpenAI、Anthropic等公司的战略投资是为了深化技术合作、扩大CUDA生态系统,并获取“一代人一遇”公司的股份,而非市场担忧的“循环交易”。
OpenAI重磅部署: 披露正在协助OpenAI建设至少10吉瓦(10 Gigawatts)的AI数据中心,并支持其从单纯依赖云厂商转向“自建基础设施”。
供应瓶颈是最大挑战:英伟达承认供应链(尤其是CoWoS封装)和能源是限制增长的主要因素,正在通过锁定产能和本土制造(如Amkor)来缓解。
黄仁勋正面回击“AI泡沫论”:三大平台转型正在发生
在电话会的开场陈述中,黄仁勋表示,“从我们的角度来看,我们看到了非常不同的东西。”他认为,世界正同时经历自摩尔定律诞生以来的首次三大平台转型。
首先,是随着摩尔定律放缓,计算领域正从CPU通用计算转向GPU加速计算。
其次,AI本身已达到一个“引爆点”,生成式AI正在取代传统的机器学习,重塑搜索、推荐系统等超大规模数据中心的核心业务。
最后,一个全新的浪潮正在兴起——能够推理、规划和使用工具的代理式AI(Agentic AI)和物理AI,这将催生新的应用、公司和产品。
黄仁勋强调:“当你们考虑基础设施投资时,请考虑这三个基本动态。每一个都将在未来几年为基础设施增长做出贡献。”他指出,英伟达的单一架构能够支持所有这三种转型,这是其被市场选择的关键原因。
需求爆表:5000亿美元订单能见度、“云服务商的(GPU)已经售罄”
英伟达首席财务官Colette Kress用一系列数据印证了需求的火爆。她表示,公司目前对从今年初到2026日历年年底的Blackwell和Rubin平台收入,已有5000亿美元的能见度。
Kress补充说,这个数字未来还会增长。她举例称,与KSA(沙特阿拉伯)新达成的协议以及与Anthropic的新合作都未完全计入,“我们肯定有机会在已宣布的5000亿美元基础上获得更多订单。”
财报数据显示,第三季度数据中心业务收入达到创纪录的510亿美元,同比增长66%。Kress强调,“云服务商的(GPU)已经售罄,我们无论是新一代还是前几代(包括Blackwell、Hopper和Ampere)的GPU安装基础都已得到充分利用。”这直接回应了市场对AI芯片需求可持续性的疑虑。
供应瓶颈与产能大考:不仅是缺芯,更是缺电
这是本次电话会市场最为关注的核心风险点。尽管需求端“爆表(Off the charts)”,但供应端能否跟上?
-
产能爬坡: 管理层坦言,Blackwell芯片的生产和交付正处于极度紧张状态,供不应求将持续数个季度。为了缓解这一瓶颈,英伟达正在全速运转其供应链。
-
点名Amkor(安靠): 为了建立更具韧性的供应链,CFO特别提到了与封装巨头Amkor的合作,并强调了在亚利桑那州的生产布局。受此消息刺激,Amkor盘后股价一度大涨8%,显示市场对英伟达供应链伙伴的高度敏感。
-
电力与物理限制: 当被分析师问及“最大的增长瓶颈是什么”时,黄仁勋没有回避,直言“电力、散热、液冷”都是巨大的挑战。他承认,构建吉瓦级(Gigawatt)的数据中心不仅需要芯片,更需要复杂的能源基础设施配合。
-
金钱换产能: 黄仁勋霸气地表示,英伟达庞大的现金流和资产负债表是其供应链管理的核心武器,“供应商可以拿着我们的订单去银行贷款扩产”。
面对“供应能否跟上需求”这一市场焦点,管理层给出了详尽的解答。黄仁勋表示,英伟达的供应链“基本上包括了全球所有的科技公司”,并与台积电、存储供应商及系统ODM伙伴进行了“出色的共同规划”。他承认在当前的增速和规模下,任何环节都不轻松,但强调问题都是“可解决的”。
OpenAI部署详情:10吉瓦与“自建”野心
本次电话会披露了英伟达与OpenAI合作的重大战略升级,这可能是被市场低估的一个关键增量信息。
-
10吉瓦(10GW)宏伟计划: 并非简单的买卖关系,英伟达宣布正在与OpenAI建立战略合作伙伴关系,协助其建设和部署至少10吉瓦的AI数据中心。这是一个惊人的数字(1吉瓦通常对应数万张GPU),暗示了OpenAI算力规模的指数级跃升。
-
从租用到自建: 英伟达管理层提到,虽然目前主要通过Azure、OCI等云厂商服务OpenAI,但英伟达正在支持OpenAI增加“自建基础设施(self-built infrastructure)”。这意味着OpenAI正试图减少对云厂商的完全依赖,直接持有算力资产,而英伟达是这一转型的直接推手。
-
股权投资: 此外,英伟达确认了对OpenAI的投资机会,这不仅是财务投资,更是为了加深技术协同。
新客户与新产品:Anthropic首次拥抱英伟达,Rubin平台步入正轨,2026年推出
在巩固现有客户的同时,英伟达也成功开拓了新的战略伙伴。公司宣布与领先的AI公司Anthropic建立深度技术合作关系,这是Anthropic首次采用英伟达的架构。Kress透露,Anthropic的算力承诺初步包括高达1吉瓦的Grace Blackwell和Vera Rubin系统容量。
赢得Anthropic这一关键客户,意味着英伟达的平台几乎囊括了所有头部的基础模型开发者。黄仁勋在问答环节自豪地表示:“我们是世界上唯一一个能运行所有AI模型的平台……我们运行OpenAI,我们运行Anthropic,我们运行xAI,我们运行Gemini。”
展望未来,下一代平台Vera Rubin的进展也备受关注。Kress确认,Rubin平台正按计划于2026年下半年推出,并将再次实现相对于Blackwell的“X因子”级性能飞跃。她表示,相关的芯片样品已经从供应链伙伴处返回,生态系统将为Rubin的快速上量做好准备。
反击“AI闭环经济”:扩张CUDA生态,而非“循环交易”
针对投资者对英伟达投资其客户(被部分市场人士称为“循环交易”)的担忧,黄仁勋在电话会上给出了详细解释。他表示,这些战略投资的核心目标是“扩大CUDA的覆盖范围和生态系统”。
以对OpenAI和Anthropic的投资为例,黄仁勋称,这不仅是为了建立更深层次的技术合作关系以支持这些公司的快速增长,同时也是为了让英伟达获得这些“一代人一遇”公司的股份。他强调:“我们投资OpenAI是为了深度合作……我们获得了他们公司的股份。我完全期望这项投资能转化为非凡的回报。”
他指出,通过这些投资与合作,英伟达的平台得以优化,确保能高效运行所有主流AI模型,从而巩固其市场地位。这番解释旨在向市场传递一个信息:这些投资是战略性的生态建设,而非单纯提振短期需求的财务操作。
中国市场挑战与业绩指引
Kress在电话会中坦言,针对中国市场的H20芯片本季度销售额仅为约5000万美元,“大额采购订单并未在本季度实现”。她表示,公司对无法向中国付运更具竞争力的产品感到“失望”。
然而,这一挫折并未影响英伟达的整体乐观前景。公司给出的第四季度营收指引为650亿美元(±2%),远超市场普遍预期的约620亿美元。尤为关键的是,Kress明确指出:“我们没有假设第四季度有任何来自中国的数据中心计算收入。”
这一表态意味着,英伟达的增长引擎依然强劲,其增长动力主要来自美国本土及其他国际市场的超大规模数据中心、主权AI项目和企业级客户。
财报电话会全文(由AI工具翻译):
英伟达2026财年第三季度财报电话会议
活动日期: 2025年11月19日
公司名称: 英伟达
来源: 英伟达演示环节
会议操作员:
下午好。我是莎拉,今天的会议操作员。此时,我谨欢迎各位参加英伟达第三季度财报电话会议。所有线路均已静音,以防止任何背景噪音。
演讲者发言后,将进行问答环节。(操作员说明)谢谢。Toshiya Hari,您可以开始会议了。Toshiya Hari,投资者关系与战略财务副总裁:
谢谢大家。
下午好,欢迎各位参加英伟达2026财年第三季度的财报电话会议。今天与我一同出席的还有英伟达总裁兼首席执行官黄仁勋先生,以及执行副总裁兼首席财务官Colette Kress女士。我想提醒大家,我们的电话会议正在英伟达投资者关系网站上进行直播。网络直播将提供回放,直至我们召开2026财年第四季度财报电话会议。今天电话会议的内容是英伟达的财产。未经我们事先书面同意,不得复制或转录。在本次电话会议中,我们可能会基于当前预期做出前瞻性陈述。这些陈述涉及许多重大风险和不确定性,我们的实际结果可能存在重大差异。
关于可能影响我们未来财务业绩和业务的因素的讨论,请参阅今日财报新闻稿、我们最近的10-K和10-Q表格以及我们可能向美国证券交易委员会提交的8-K表格报告中的披露。我们所有的陈述均基于截至2025年11月19日的信息。除法律要求外,我们无义务更新任何此类陈述。
在本次电话会议中,我们将讨论非GAAP财务指标。您可以在我们发布于官网的CFO评论中找到这些非GAAP财务指标与GAAP财务指标的对照表。接下来,请Colette发言。
Colette Kress,执行副总裁兼首席财务官:
谢谢,Toshiya。
我们又实现了一个出色的季度,收入达到570亿美元,同比增长62%,环比收入增长100亿美元,创下纪录,增幅达22%。我们的客户继续致力于三个平台转型,推动加速计算、强大AI模型和智能体应用的指数级增长。然而,我们仍处于这些转型的早期阶段,它们将影响我们各行各业的工作。从今年年初到2026日历年年底,我们目前对Blackwell和Rubin平台的收入可见度达到5000亿美元。通过执行我们的年度产品节奏并通过全栈设计扩展我们的性能领导地位,我们相信英伟达将成为我们预估到本世纪末每年3万亿至4万亿美元AI基础设施建设的首选。
对AI基础设施的需求持续超出我们的预期。云服务商的产能已售罄,我们的GPU安装基础,包括新一代和旧代产品(如Blackwell、Hopper和Ampere),都得到了充分利用。第三季度数据中心收入达到创纪录的510亿美元,同比增长66%,在我们这样的规模下,这是一项重大成就。计算业务同比增长56%,主要得益于GB300的产量提升;而网络业务增长超过一倍,原因是NVLink扩展的开始以及Spectrum-X以太网和Quantum-X InfiniBand的强劲两位数增长。
价值万亿美元的全球超大规模云服务商正在将搜索、推荐和内容理解从经典机器学习转变为生成式AI。英伟达CUDA在两者上都表现出色,是这一转型的理想平台,推动了数千亿美元的基础设施投资。在Meta,AI推荐系统正在提供更高质量、更相关的内容,导致用户在Facebook和Threads等应用上花费的时间增加。分析师对2026年顶级CSP和超大规模云服务商的总资本支出预期持续上调,目前约为6000亿美元,比年初高出逾2000亿美元。
我们看到,当前超大规模工作负载向加速计算和生成式AI的转型,约占我们长期机会的一半。另一个增长支柱是基础模型构建者(如Anthropic、Mistral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab和XAI)推动的计算规模的持续扩大。它们都在积极扩展计算规模以扩展智能。三个扩展定律——预训练、后训练和推理——依然有效。事实上,我们看到了一个积极的虚拟循环正在出现,三个扩展定律和计算资源的获取正在产生更好的智能,进而增加了采用率和利润。
OpenAI最近分享其周用户数已增长至8亿。企业客户数量增至100万。并且其毛利率健康。Anthropic最近报告称,截至上月,其年化收入已达到70亿美元,而年初时为10亿美元。
我们还看到智能体AI在各个行业和任务中的激增。像Cursor、Anthropic、OpenEvidence、Epic和Abridge这样的公司正经历用户增长的激增,因为它们赋能现有劳动力,为编码人员和医疗保健专业人员带来了明确的投资回报率。世界上最重要的企业软件平台,如ServiceNow、CrowdStrike和SAP,正在集成英伟达的加速计算和AI堆栈。我们的新合作伙伴Palantir,首次利用英伟达CUDA-X库和AI模型来增强其极其流行的Ontology平台。
此前,像大多数企业软件平台一样,Ontology仅在CPU上运行。Lowe's正在利用该平台构建供应链敏捷性,降低成本并提高客户满意度。企业界广泛利用AI来提高生产力、效率和降低成本。RBC利用智能体AI显著提高分析师生产力,将报告生成时间从数小时缩短至几分钟。
AI和数字孪生正在帮助联合利华将内容创作速度提升2倍,并将成本削减50%。Salesforce的工程团队在采用Cursor后,新代码开发的生产力至少提高了30%。过去这个季度,我们宣布了总计相当于500万颗GPU的AI工厂和基础设施项目。这一需求遍及每个市场:CSP、主权实体、现代构建者、企业和超级计算中心,并包括多个标志性建设项目。
XAI的Colossus II,世界上首个千兆瓦级数据中心;礼来公司用于药物发现的AI工厂,制药行业最强大的数据中心。就在今天,AWS和Humane扩大了合作伙伴关系,包括部署多达15万个AI加速器,包括我们的GB300。XAI和Humane也宣布建立合作伙伴关系,双方将共同开发一个世界级GPU数据中心网络,以旗舰500兆瓦设施为核心。
Blackwell在第三季度势头进一步增强,GB300的收入超过了GB200,约占Blackwell总营收的三分之二。向GB300的过渡非常顺利,已向大多数主要云服务提供商、超大规模云服务商和GPU云进行量产发货,并已在推动它们的增长。Hopper平台自推出以来已进入第13个季度,在第三季度录得约20亿美元收入。H20销售额约为5000万美元。由于地缘政治问题和中国市场日益激烈的竞争,大额采购订单在本季度未能实现。
虽然我们对当前阻止我们向中国运送更具竞争力的数据中心计算产品的状况感到失望,但我们致力于继续与美国和中国政府接触。
Rubin平台正按计划于2026年下半年开始提升产量。Vera Rubin平台由七颗芯片驱动,将再次实现相对于Blackwell的X倍性能提升。我们已经从供应链合作伙伴处收到芯片,并很高兴地报告,英伟达全球团队正在出色地执行启动工作。Rubin是我们的第三代机架级系统,在保持与Grace Blackwell兼容的同时,大幅重新定义了可制造性。我们的供应链、数据中心生态系统和云合作伙伴现已掌握英伟达机架架构从构建到安装的过程。我们的生态系统将为快速的Rubin产量提升做好准备。
我们每年X倍的性能飞跃提高了每美元性能,同时为客户降低了计算成本。英伟达CUDA GPU的长使用寿命是相对于其他加速器的显著TCO优势。CUDA的兼容性和我们庞大的安装基础延长了英伟达系统的寿命,远超其最初的估计使用寿命。二十多年来,我们不断优化CUDA生态系统,改进现有工作负载,加速新工作负载,并通过每个软件版本提高吞吐量。大多数没有CUDA和英伟达久经考验且用途广泛的架构的加速器,随着模型技术的发展,在几年内就会过时。得益于CUDA,我们六年前发货的A100 GPU今天仍在满负荷运行,这得益于大幅改进的软件堆栈。
我们在过去25年中从一家游戏GPU公司发展到如今成为一家AI数据中心基础设施公司。我们在CPU、GPU、网络和软件方面的创新能力,以及最终降低每令牌成本的能力,在行业内是无与伦比的。
我们专为AI构建的网络业务,现在是全球最大的网络业务,创造了82亿美元的收入,同比增长162%,NVLink、InfiniBand和Spectrum-X以太网均贡献了增长。我们正在数据中心网络领域获胜,因为现在大多数AI部署都包括我们的交换机,以太网GPU的附着率与InfiniBand大致相当。Meta、微软、Oracle和XAI正在使用Spectrum-X以太网交换机构建千兆瓦级的AI工厂,每个都将运行其选择的操作系统,突显了我们平台的灵活性和开放性。我们最近推出了Spectrum-XGS,一种支持千兆级AI工厂的横向扩展技术。
英伟达是唯一一家拥有AI纵向扩展、横向扩展和跨平台扩展能力的公司,这巩固了我们作为AI基础设施提供商在市场中的独特地位。客户对NVLink Fusion的兴趣持续增长。我们在10月宣布了与富士通的战略合作,将通过NVLink Fusion集成富士通的CPU和英伟达的GPU,连接我们庞大的生态系统。我们还宣布了与英特尔合作,开发多代定制数据中心和PC产品,使用NVLink连接英伟达和英特尔的生态系统。
本周在Supercomputing25上,ARM宣布将集成NVLink IP,供客户构建与英伟达连接的CPU SoC。NVLink现已发展到第五代,是当今市场上唯一经过验证的纵向扩展技术。在最新的MLPerf训练结果中,Blackwell Ultra的训练时间比Hopper快5倍。英伟达横扫了所有基准测试。值得注意的是,英伟达是唯一在满足MLPerf严格精度标准的同时利用FP4的训练平台。
在semi-analysis推理基准测试中,Blackwell在每个模型和用例中都实现了最高性能和最低总拥有成本。尤其重要的是Blackwell NVLink在混合专家模型上的性能,这是世界上最流行的推理模型的架构。在DeepSeek R1上,与H200相比,Blackwell实现了每瓦性能提升10倍和每令牌成本降低10倍,这是我们极端协同设计方法带来的巨大代际飞跃。英伟达Dynamo,一个开源的低延迟模块化推理框架,现已被所有主要云服务提供商采用。
利用Dynamo的支持和分解式推理,AWS、Google Cloud、Microsoft Azure和OCI等针对复杂AI模型(如MOE模型)的性能提升,为企业云客户提高了AI推理性能。我们正在与OpenAI进行战略合作伙伴关系的洽谈,重点帮助他们建设和部署至少10千兆瓦的AI数据中心。此外,我们有机会投资该公司。我们通过他们的云合作伙伴(Microsoft Azure、OCI和CoreWeave)为OpenAI提供服务。
在可预见的未来,我们将继续这样做。随着他们不断扩大规模,我们很高兴支持该公司增加自建基础设施,我们正在努力达成最终协议,并期待支持OpenAI的增长。昨天,我们庆祝了与Anthropic的公告。这是Anthropic首次采用英伟达平台,我们正在建立深入的技术合作伙伴关系,以支持Anthropic的快速增长。
我们将合作优化Anthropic模型以适配CUDA,并提供最佳的性能、效率和TCO。我们还将针对Anthropic的工作负载优化未来的英伟达架构。Anthropic的计算承诺初步包括高达1千兆瓦的Grace Blackwell和Vera Rubin系统计算容量。我们对Anthropic、Mistral、OpenAI、Reflection、Thinking Machines等的战略投资代表了合作伙伴关系,这些合作旨在扩展英伟达CUDA AI生态系统,并使每个模型都能在英伟达平台上实现最优运行。我们将继续保持战略投资,同时坚持我们严谨的现金流管理方法。
物理AI已经是一个价值数十亿美元的业务,对应着数万亿美元的机会,并且是英伟达的下一个增长支柱。领先的美国制造商和机器人创新者正在利用英伟达的三重计算架构:在英伟达平台上训练,在Omniverse计算机上测试,并在Jetson机器人计算机上部署现实世界的AI。PTC和西门子推出了新服务,将Omniverse驱动的数字孪生工作流程带给其广泛的客户安装基础。包括Belden、Caterpillar、富士康、Lucid Motors、丰田、台积电和纬创在内的公司正在构建Omniverse数字孪生工厂,以加速AI驱动的制造和自动化。Agility Robotics、Amazon Robotics、Figure和Skilled at AI正在构建我们的平台,利用诸如NVIDIA Cosmos、用于开发的世界基础模型、用于仿真和验证的Omniverse以及为下一代智能机器人提供动力的Jetson等产品。
我们继续专注于构建全球供应链的弹性和冗余。上个月,我们与台积电合作,庆祝了首块在美国本土生产的Blackwell晶圆。我们将继续与富士康、纬创、安靠(Amkor)、Spill等公司合作,在未来四年内扩大我们在美国的影响力。
游戏收入为43亿美元,同比增长30%,得益于Blackwell势头的持续和强劲需求。终端市场销售依然强劲,渠道库存水平在假日季前处于正常水平。Steam最近打破了其并发用户记录,达到4200万游戏玩家,同时成千上万的粉丝在韩国GeForce游戏嘉年华上庆祝GeForce 25周年。
英伟达专业可视化已演变为面向工程师和开发人员的计算机,无论是用于图形还是AI。专业可视化收入为7.6亿美元,同比增长56%,再创纪录。增长由DGX Spark驱动,这是世界上最小的AI超级计算机,基于小配置的Grace Blackwell构建。
汽车收入为5.92亿美元,同比增长32%,主要得益于自动驾驶解决方案。我们正在与Uber合作,扩展世界上最大的L4级就绪自动驾驶车队,该车队基于新的英伟达Hyperion L4 Robotaxi参考架构构建。
转到损益表的其他部分。GAAP毛利率为73.4%,非GAAP毛利率为73.6%,超出我们的预期。毛利率环比增长是由于我们的数据中心业务组合、周期时间的改善和成本结构。
GAAP运营费用环比增长8%,非GAAP基础上增长11%。增长由基础设施计算以及更高的薪酬福利和工程开发成本推动。第三季度的非GAAP有效税率略高于17%,由于美国收入的强劲表现,高于我们16.5%的指引。
在我们的资产负债表上,库存环比增长32%,而供应承诺环比增长63%。我们正在为未来的显著增长做准备,并对我们执行机会的能力感到满意。
好的,让我谈谈第四季度的展望。总收入预计为650亿美元,上下浮动2%。按中点计算,我们的展望意味着环比增长14%,由Blackwell架构的持续势头驱动。与上一季度一致,我们未假设来自中国的任何数据中心计算收入。GAAP和非GAAP毛利率预计分别为74.8%和75%,上下浮动50个基点。
展望2027财年,投入成本正在上升,但我们正努力将毛利率维持在70%中段。GAAP和非GAAP运营费用预计分别约为67亿美元和50亿美元。GAAP和非GAAP其他收入和支出预计约为5亿美元收益,不包括非上市及公开持有权益证券的损益。GAAP和非GAAP税率预计为17%,上下浮动1%,不包括任何离散项目。
此时,让我把电话交给黄仁勋,请他讲几句。
黄仁勋,创始人、总裁兼首席执行官:
谢谢,Colette。关于AI泡沫有很多讨论。从我们的角度来看,我们看到的情况截然不同。提醒一下,英伟达不同于任何其他加速器。我们在AI的每个阶段都表现出色,从预训练、后训练到推理。
凭借我们二十年来对CUDA-X加速库的投资,我们在科学和工程模拟、计算机图形学、结构化数据处理以及经典机器学习方面也表现出色。世界正在同时经历三个大规模的平台转型。这是自摩尔定律诞生以来的第一次。英伟达独特地应对着这三个转型中的每一个。
第一个转型是从CPU通用计算向GPU加速计算的转变,因为摩尔定律正在放缓。世界在非AI软件上进行了大量投资,从数据处理到科学和工程模拟,代表着每年数千亿美元的计算、云计算支出。许多曾经仅在CPU上运行的应用程序,现在正迅速转向CUDA GPU。加速计算已经达到了一个临界点。
其次,AI也达到了一个临界点,正在改变现有应用程序,同时催生全新的应用程序。对于现有应用程序,生成式AI正在取代经典机器学习,应用于搜索排名、推荐系统、广告定向、点击率预测到内容审核等超大规模基础设施的基础领域。Meta的GEM,一个在大型GPU集群上训练的广告推荐基础模型,就是这种转变的例证。在第二季度,Meta报告称,得益于基于生成式AI的GEM,Instagram的广告转化率提高了5%以上,Facebook信息流的广告转化率提高了3%。向生成式AI转型代表着超大规模云服务商的巨额收入增长。
现在,新一波浪潮正在兴起,即能够推理、规划和使用工具的智能体AI(Agentic AI)系统。从像Cursor和QuadCode这样的编码助手,到像iDoc这样的放射学工具,像Harvey这样的法律助手,以及像Tesla FSD和Waymo这样的AI驾驶员,这些系统标志着计算的下一个前沿。当今世界上增长最快的公司,OpenAI、Anthropic、xAI、Google、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridged、Tesla,正在开创智能体AI。
所以,存在三个大规模的平台转型。向加速计算的转型是基础性的、必要的,在后摩尔定律时代至关重要。向生成式AI的转型是变革性的、必要的,为现有应用程序和商业模式赋能。而向智能体和物理AI的转型将是革命性的,催生新的应用程序、公司、产品和服务。
在考虑基础设施投资时,请考虑这三个基本动态。每一项都将在未来几年推动基础设施增长。英伟达被选中,是因为我们单一的架构能够实现所有这三个转型,并且适用于任何形式和模态的AI,跨越所有行业,跨越AI的每个阶段,跨越云中所有多样化的计算需求,也从云到企业再到机器人。
一个架构。
Toshiya,交回给你。
Toshiya Hari,投资者关系与战略财务副总裁:
我们现在将开放电话会议进行提问。操作员,请收集问题。问答环节
会议操作员:
问答环节会议操作员:
谢谢。
(操作员说明)谢谢。您的第一个问题来自摩根士丹利的Joseph Moore。您的线路已接通。Joseph Moore:
很好。
谢谢。我想请你们更新一下。你们在GTC上谈到Blackwell加Rubin在2025和2026年的5000亿美元收入。当时你们提到其中1500亿美元已经发货。随着季度结束,这些总体参数是否仍然有效,即在未来14个月左右还有3500亿美元?我假设在这段时间内,你们并没有看到所有的需求。
这些数字在未来是否有上调的可能性?Colette Kress,执行副总裁兼首席财务官:
是的。谢谢,Joe。我先就此回应一下。是的,没错。
我们正朝着5000亿美元的预测努力。随着几个季度的完成,我们正按计划进行。现在,我们面前还有几个季度,将我们带到2026日历年年底。这个数字将会增长。
我确信,我们将实现额外的计算需求,这些需求可以在2026财年发货。我们本季度出货了500亿美元,但如果我们不说我们可能会接到更多订单,那就不完整了。例如,就在今天,我们与沙特阿拉伯的公告,该协议本身就在三年内增加了40万到60万颗GPU。Anthropic的也是全新的。
所以,绝对有机会在我们宣布的5000亿美元之上获得更多。会议操作员:
下一个问题来自Cantor Fitzgerald的CJ Muse。您的线路已接通。CJ Muse:
是的,下午好。
谢谢回答问题。显然,围绕AI基础设施建设的规模和为这些计划提供资金的能力以及投资回报率,存在大量担忧。然而,与此同时,你们谈到产品售罄,每颗部署的GPU都被占用。AI世界尚未从B300中看到巨大收益,更不用说Rubin了,而且Gemini 3刚刚宣布,GROK 5也即将推出。所以问题是,考虑到这个背景,您认为在未来12到18个月内,供应赶上需求是否存在现实可行的路径?或者您认为这可能延续到更晚的时间框架?黄仁勋,创始人、总裁兼首席执行官:
嗯,如您所知,我们在规划供应链方面做得非常好。英伟达的供应链基本上包括世界上所有的科技公司。台积电及其封装、我们的内存供应商和内存合作伙伴,以及我们所有的系统ODM都和我们一起做了很好的规划。我们一直在为一个大年份做准备。
一段时间以来,我们已经看到了我刚才提到的三个转型:从通用计算到加速计算的转变。认识到AI不仅仅是智能体AI,生成式AI正在改变超大规模云服务商过去在CPU上完成的工作方式,这一点非常重要。生成式AI使他们能够将搜索、推荐系统、广告推荐和定向转移到生成式AI上。这仍在转型中。
所以,无论您是为数据处理安装英伟达GPU,还是为推荐系统安装用于生成式AI,或者您正在为智能体聊天机器人以及大多数人在想到AI时看到的那类AI构建基础设施,所有这些应用程序都由英伟达加速。因此,当您审视总支出时,考虑每一个层面非常重要。它们都在增长。它们相关,但并非相同。但美妙的是,它们都运行在英伟达GPU上。
同时,由于AI模型的质量正在以惊人的速度提高,其在不同用例中的采用率,无论是在代码辅助方面(英伟达也广泛使用),而且不止我们。我的意思是,历史上增长最快的应用程序,Cursor、Cloud Code、OpenAI的Codex和GitHub Copilot的组合。这些应用程序是历史上增长最快的。而且它不仅仅被软件工程师使用。
由于自然语言编码,它被公司各处的工程师、市场人员、供应链规划人员使用。所以我认为这只是一个例子,这样的例子还有很多,无论是OpenEvidence及其在医疗保健领域的工作,还是在数字视频编辑领域完成的工作,Runway。我的意思是,许多非常令人兴奋的初创公司正在利用生成式AI和智能体AI,并且增长相当迅速。更不用说,我们所有人都在更多地使用它。
所以,所有这些指数级增长,更不用说就在今天我读到Demis的一条消息,他说预训练和后训练定律完全有效,Gemini 3利用了扩展定律,并在模型性能上获得了巨大的质量提升。所以我们看到所有这些指数级增长同时发生。总是回到第一性原理,思考我之前提到的每一个动态正在发生什么:从通用计算到加速计算,生成式AI取代经典机器学习,当然还有智能体AI,这是一个全新的类别。会议操作员:
下一个问题来自美国银行证券的Vivek Arya。您的线路已接通。Vivek Arya:
谢谢回答我的问题。我很好奇,在那5000亿美元的数字中,你们对每千兆瓦中英伟达内容的假设是什么?因为我们听到的数字低至每千兆瓦250亿美元内容,高至每千兆瓦300亿或400亿美元。所以我很好奇,作为那5000亿美元数字的一部分,你们假设的功率和每千兆瓦美元是多少?
然后从长远来看,Jensen,您提到了到2030年3万亿到4万亿美元的数据中心市场。您认为其中有多少需要供应商融资,有多少可以由您的大型客户、政府或企业的现金流支持?谢谢。黄仁勋,创始人、总裁兼首席执行官:
从Ampere到Hopper,从Hopper到Blackwell,Blackwell到Rubin的每一代,我们在数据中心中的占比都在增加。Hopper一代大概是20多到25左右。Blackwell一代,特别是Grace Blackwell,大概是30左右——比如30加减。然后Rubin可能比这更高。在每一代中,加速是X倍,因此客户的TCO改善了X倍。最重要的是,最终你仍然只有一千兆瓦的功率,一千兆瓦的数据中心,一千兆瓦的电力,因此每瓦性能、架构的效率极其重要。
而你的架构效率无法通过蛮力实现。这没有蛮力可言。那一千兆瓦直接转化,你的每瓦性能直接地、绝对地转化为你的收入。这就是为什么选择正确的架构现在如此重要,世界没有任何多余的东西可以浪费。
所以我们必须在整个堆栈中进行协同设计,跨越框架和模型,跨越整个数据中心,甚至电力和冷却,优化整个供应链和生态系统。所以每一代,我们的经济贡献将会更大。我们交付的价值将会更大,但最重要的是,我们每一代的能源效率都将非常出色。关于持续增长,我们客户的融资由他们自己决定。我们看到机会会持续增长一段时间。请记住,今天大部分焦点都在超大规模云服务商身上。关于超大规模云服务商,一个真正被误解的领域是,对英伟达GPU的投资不仅改善了他们在通用计算方面的规模、速度和成本,这是第一点,因为摩尔定律扩展确实已经放缓。摩尔定律是关于推动成本下降。是关于计算成本随时间推移的惊人通货紧缩,但这已经放缓,因此需要一种新的方法来继续推动成本下降,转向英伟达GPU计算确实是这样做的最佳方式。
第二是在他们当前商业模式中提升收入。推荐系统驱动着世界的超大规模云服务商,无论是观看短视频、推荐书籍、推荐购物车中的下一件商品、推荐广告还是推荐新闻。互联网有数万亿的内容。他们怎么可能弄清楚在你小小的屏幕上放什么内容,除非他们有非常复杂的推荐系统来做到这一点。嗯,这已经转向了生成式AI。所以我刚才说的前两点,数千亿美元的资本支出将必须投入。这完全由现金流资助。在此之上的则是智能体AI。这部分收入是全新的,全新的消费,但也是全新的应用程序,其中一些我前面提到过,但这些新应用程序也是历史上增长最快的应用程序。
好吧。所以我认为,一旦人们开始理解水面下实际发生的事情,从资本支出投资的简单视角来看,认识到存在这三个动态。最后,请记住,我们刚才谈论的是美国的CSP。每个国家都将资助自己的基础设施。你有多个国家,你有多个行业。世界上大多数行业还没有真正涉足智能体AI,他们即将开始——所有我们合作的公司名称,无论是自动驾驶汽车公司,还是用于工厂物理AI的数字孪生,以及世界各地正在建造的工厂和仓库数量,还有正在获得资助的数字生物学初创公司数量,以加速药物发现。所有这些不同的行业现在都在参与进来,他们将进行自己的融资。
所以,不要只看超大规模云服务商作为未来的建设方式。你必须放眼世界,你必须看到所有不同的行业,企业计算将资助他们自己的行业。
会议操作员:
下一个问题来自Melius的Ben Reitzes。您的线路已接通。Ben Reitzes:
嗨,非常感谢。
Jensen,我想问您关于现金的问题。说到0.5万亿美元,你们在未来几年内可能会产生约0.5万亿美元的自由现金流。你们对这些现金有什么计划?多少用于回购股票,多少用于投资生态系统?你们如何看待对生态系统的投资?我认为外界对这些交易如何运作以及你们进行此类交易的标准存在很多困惑,比如对Anthropic、OpenAI等的投资。非常感谢。黄仁勋,创始人、总裁兼首席执行官:
是的,感谢这个问题。当然,使用现金来资助我们的增长。没有哪家公司能以我们谈论的规模增长,并拥有英伟达这样的供应链联系、深度和广度。我们所有的客户之所以能信赖我们,原因在于我们已经构建了一条极具韧性的供应链,并且我们拥有强大的资产负债表来为他们提供支撑。当我们进行采购时,我们的供应商可以拿着它去银行(take it to the bank,在商业语境下指某事非常可靠、板上钉钉,可以作为担保)。当我们做出预测并与供应商共同规划时,正是因为我们的资产负债表,他们才会认真对待我们……所以,要做到这一点,要支撑这样的增长规模和增长速度,确实需要极其强劲的资产负债表。
我们没有编造承购量。我们知道我们的承购量是多少。因为他们与我们规划了这么多年,我们的采购能力、我们的声誉和可信度是惊人的。所以,这需要非常强大的资产负债表来支持这种增长水平、增长速度和发展规模。这是第一点。
第二点,当然,我们将继续进行股票回购。我们会继续这样做。但关于投资,这是我们做的非常重要的工作。到目前为止我们所做的所有投资,嗯,一直以来,都与扩展CUDA的覆盖范围、扩展生态系统有关。看看我们所做的工作,对OpenAI的投资,当然,我们自2016年以来就建立了这种关系。
我向OpenAI交付了有史以来第一台AI超级计算机。所以从那时起,我们就与OpenAI保持着密切而良好的关系。OpenAI今天所做的一切都运行在英伟达上。所以他们部署的所有云,无论是训练还是推理,都运行英伟达。我们喜欢与他们合作。我们与他们的合作伙伴关系是为了让我们可以从技术角度进行更深入的合作,以便我们能够支持他们的加速增长。
这是一家增长极其迅速的公司。不要只看媒体上的报道。看看所有连接到OpenAI的生态系统合作伙伴和所有开发者。他们都在推动它的消费。并且产生的AI质量,自一年前以来有了巨大的飞跃。
所以回应的质量非常出色。因此,我们投资OpenAI是为了建立深入的合作伙伴关系和共同开发,以扩展我们的生态系统并支持他们的增长。而且,当然,与其放弃我们公司的一部分股份,我们获得了他们公司的一部分股份。我们投资了他们,这是一代人中最具影响力的公司之一,我们拥有其股份。所以我完全预期这项投资将转化为非凡的回报。
现在,在Anthropic的例子中,这是Anthropic首次采用英伟达的架构。Anthropic首次采用英伟达的架构,这是世界上用户总数第二成功的AI。但在企业领域,他们做得非常好。Cloud Code做得非常好。Cloud做得非常好,遍布全球企业。现在我们有机会与他们建立深入的合作伙伴关系,将Cloud带入英伟达平台。
所以我们现在有什么?退一步看,英伟达的架构,英伟达的平台是世界上运行每个AI模型的单一平台。我们运行OpenAI。我们运行Anthropic。我们运行xAI。由于我们与Elon和xAI的深厚合作关系,我们能够将这个机会带到沙特阿拉伯,带到KSA,这样Humane也可以为XAI提供托管机会。我们运行XAI,我们运行Gemini,我们运行thinking machines。让我们看看,我们还运行什么?我们运行所有。更不用说,我们运行科学模型、生物学模型、DNA模型、基因模型、化学模型,以及世界各地的所有不同领域。
不仅仅是世界使用的认知AI,AI正在影响每一个行业。我们通过生态系统的投资,有能力与世界上一些最好的、最杰出的公司在技术基础上进行深入合作。我们正在扩展我们生态系统的覆盖范围,并且我们正在获得一份投资,投资于将非常成功的公司。通常是一代人中只有一次的公司。
这就是我们的投资理念。
会议操作员:
下一个问题来自高盛的Jim Schneider。您的线路已接通。Jim Schneider:
下午好。
谢谢回答我的问题。过去,你们谈到大约40%的出货量与AI推理相关。我想知道,展望明年,您预计这个百分比在一年后可能达到什么水平?另外,能否谈谈你们预计明年推出的Rubin CPX产品,并 contextualize 一下?您预计它能占据整体TAM的多大份额,也许可以谈谈该特定产品的一些目标客户应用?谢谢。黄仁勋,创始人、总裁兼首席执行官:
CPX是为长上下文类型的工作负载生成而设计的。长上下文,基本上,在开始生成答案之前,你必须阅读大量内容,基本上是长上下文。可能是一堆PDF,可能是观看一堆视频,研究3D图像,等等。你必须吸收上下文。CPX是为长上下文类型的工作负载设计的。它的每美元性能非常出色。每瓦性能非常出色。这让我忘了问题的第一部分。
未具名发言人:
推理。黄仁勋,创始人、总裁兼首席执行官:
推理。是的,有三个扩展定律在同时扩展。第一个扩展定律叫做预训练,继续非常有效。第二个是后训练。后训练基本上已经找到了惊人的算法,可以改善AI分解问题和逐步解决问题的能力。后训练和后训练正在呈指数级扩展。基本上,你对一个模型应用的计算越多,它就越聪明,智能程度越高。然后是第三个,推理。
推理,由于思维链,由于推理能力,AI基本上是在阅读、思考后再回答。由于这三件事,所需的计算量已经完全呈指数级增长。我认为很难确切知道在任何时间点百分比是多少,以及是谁。但当然,我们的希望是推理成为市场中非常大的一部分。
因为如果推理规模很大,那么这表明人们正在更多的应用中使用它,并且使用频率更高。我们都应该希望推理规模很大。这就是Grace Blackwell 比世界上任何其他平台都先进一个数量级的地方。第二好的平台是H200。
现在非常清楚,GB300、GB200和GB300由于NVLink 72,我们拥有的纵向扩展网络,实现了……Colette在semi-analysis基准测试中谈到过,这是有史以来最大的单一推理基准测试。GB200,NVLink 72的性能高出10到15倍。所以这是一个巨大的进步。需要很长时间才能有人跟上。
我们在那里的领导地位肯定是多年的。我希望推理能成为一件大事。我们在推理方面的领导地位是非凡的。
会议操作员:
下一个问题来自瑞银的Timothy Arcuri。您的线路已接通。Timothy Arcuri:
非常感谢。Jensen,您的许多客户都在寻求自备电力,但最让您担心可能限制您增长的单一最大瓶颈是什么?是电力,还是融资,或者是其他因素,比如内存甚至晶圆厂?非常感谢。黄仁勋,创始人、总裁兼首席执行官:
嗯,这些都是问题,也都是制约因素。原因是,当你以我们这样的速度和规模增长时,怎么可能有任何事情是容易的呢?英伟达所做的事情,显然前所未有,我们创造了一个全新的行业。
一方面,我们正在将计算从通用和经典或传统计算过渡到加速计算和AI。这是一方面。另一方面,我们创造了一个全新的行业,叫做AI工厂。这个想法是,为了让软件运行,你需要这些工厂来生成它,生成每一个令牌,而不是检索预先创建的信息。所以我认为这整个转型需要非凡的规模。
从供应链开始,当然,供应链我们有更好的可见性和控制力,因为显然我们非常擅长管理供应链。我们有合作了33年的优秀合作伙伴。所以供应链这部分,我们相当有信心。现在看我们的下游供应链,我们已经与土地、电力、外壳以及当然还有融资领域的许多参与者建立了合作伙伴关系。
这些事情,没有一件是容易的,但它们都是可处理、可解决的。我们必须做的最重要的事情是做好规划工作。我们规划上游供应链,下游供应链。我们建立了大量的合作伙伴。
所以,我们有很多进入市场的途径。非常重要的是,我们的架构必须为我们拥有的客户提供最佳价值。所以在这一点上,我非常确信英伟达的架构具有最佳的每TCO性能。它具有最佳的每瓦性能。因此,对于任何提供的能源量,我们的架构将驱动最多的收入。
我认为我们成功的速度在加快,我认为我们今年此时比去年此时更成功。在探索了其他平台之后,来找我们的客户数量和平台数量在增加,而不是减少。所以我认为,我认为我多年来告诉你们的所有事情正在成真,并且变得显而易见。
会议操作员:
下一个问题来自伯恩斯坦研究的Stacy Rasgon。您的线路已接通。Stacy Rasgon:
问题。Colette,我有几个关于利润率的问题。您说明年你们正努力将其维持在70%中段。那么,首先,最大的成本增长是什么?仅仅是内存还是其他原因?你们正在采取什么措施来实现这一目标?有多少是像成本优化、预购或定价之类的?另外,考虑到收入似乎很可能比现在有实质性增长,我们应该如何思考明年运营费用的增长?未具名发言人:
谢谢,Stacey。让我看看能否从我们当前财年的情况开始回忆。记得今年早些时候,我们表示通过成本改进和组合,我们将在年底退出时毛利率达到70%中段。我们已经实现了这一点,并准备在第四季度也执行这一点。
所以现在是时候沟通我们目前对明年的规划了。明年,存在一些行业内众所周知的投入价格上升,我们需要应对。我们的系统绝非易事。有大量的组件,许多不同的部分需要我们考虑。所以我们正在把所有这些问题考虑在内。但我们确实相信,如果我们再次致力于成本改进、周期时间和组合,我们将努力尝试将毛利率维持在70%中段。这是我们对于毛利率的总体计划。你的第二个问题是关于运营费用。
目前,我们在运营费用方面的目标是确保我们与工程团队、所有业务团队一起创新,为这个市场创造越来越多的系统。如您所知,我们现在有一个新的架构即将推出。这意味着他们非常忙碌以实现这个目标。所以我们将继续看到我们在创新方面的投资,包括软件、系统和硬件。
如果Jensen想补充几句,我会交给他。黄仁勋,创始人、总裁兼首席执行官:
是的,我认为说得很好。我想补充的唯一一点是,请记住,我们提前很久就进行预测、规划和与供应链谈判。我们的供应链很久以前就知道我们的需求。
他们很久以前就知道我们的需求。我们与他们合作和谈判已经很久了。所以我认为最近的激增,显然相当显著。但请记住,我们的供应链与我们合作了很长时间。
所以在许多情况下,我们已经为自己确保了大量的供应,因为显然他们正在与世界上最大的公司合作。我们也一直与他们密切合作,处理财务方面的问题,确保预测和计划等等。所以我认为所有这些对我们来说都进展顺利。会议操作员:
最后一个问题来自富国银行的Aaron Rakers。您的线路已接通。Aaron Rakers:
是的,谢谢回答问题。Jensen,问题给您。考虑到宣布的Anthropic交易以及您客户的整体广度。我好奇您对AI ASIC或专用XPU在这些架构构建中所扮演的角色的看法是否有所改变?我认为您过去一直坚持认为其中一些项目从未真正部署,但我好奇我们是否已经到了一个地步,也许这甚至更倾向于GPU架构。谢谢。未具名发言人:
是的,非常感谢,我真的很感激这个问题。首先,你不是在与团队竞争。作为一个公司,你是在与团队竞争,而世界上并没有那么多团队擅长构建这些极其复杂的东西。回到Hopper和Ampere时代,我们会构建一个GPU。那就是加速AI系统的定义。但今天,我们必须构建整个机架——三种不同类型的交换机,纵向扩展、横向扩展和跨平台扩展交换机。
构建一个计算节点不再仅仅需要一颗芯片。关于那个计算系统的一切,因为AI需要有内存,AI过去根本没有内存,现在它必须记住东西。内存和上下文的数量是巨大的。内存架构的影响是惊人的。
模型的多样性,从混合专家到稠密模型,到扩散模型,到自回归模型,更不用说遵守物理定律的生物模型。不同类型的模型列表在过去几年中爆炸性增长。所以挑战在于问题的复杂性要高得多。AI模型的多样性非常非常大。
所以这就是,如果我要说,让我们与众不同的五件事。我要说的第一件让我们特别的事是,我们加速了那个转型的每个阶段。这是第一阶段。CUDA使我们能够拥有CUDA-X,用于从通用计算过渡到加速计算。
我们非常擅长生成式AI。我们非常擅长智能体AI。所以那个转型的每一个阶段,每一个层面,我们都非常出色。你可以投资一个架构,通用于所有场景。你可以使用一个架构,而不用担心工作负载在那三个阶段的变化。这是第一点。
第二点,我们在AI的每个阶段都表现出色。大家一直都知道我们非常擅长预训练。我们显然非常擅长后训练。而且事实证明,我们在推理方面也非常出色,因为推理真的非常难。思考怎么会容易呢?人们认为推理是一次性的,因此很容易。
任何人都可以那样进入市场。但事实证明这是最难的部分,因为思考,因为思考结果相当困难。我们在AI的每个阶段都很棒,这是第二点。
第三点是,我们现在是世界上唯一能运行每个AI模型、每个前沿AI模型的架构。我们非常出色地运行开源AI模型。我们运行科学模型、生物学模型、机器人模型。我们运行每一个模型。我们是世界上唯一能声称这一点的架构。
无论你是自回归还是基于扩散的,我们运行一切。正如我刚才提到的,我们为每个主要平台运行它。所以我们运行每个模型。
然后第四点我要说的是,我们存在于每个云中。开发者喜欢我们的原因是因为我们确实无处不在。我们存在于每个云中,我们存在于每个……我们甚至可以为你制作一个叫做DGX Spark的小云。我们存在于每台计算机中,我们无处不在,从云到本地部署,到机器人系统、边缘设备、PC,应有尽有。一个架构,东西就能工作。
这太不可思议了。然后最后一点,这可能是最重要的一点,第五点是,如果你是一个云服务提供商,如果你是一个像Humane这样的新公司,如果你是一个像CoreWeave、Nscale、Niveus,或者OCI这样的新公司,英伟达对你来说是最好的平台的原因是因为我们的承购量如此多样化。我们可以帮助你处理承购量。这不仅仅是把随机的ASIC放进数据中心。
承购量从哪里来?多样性从哪里来?弹性从哪里来?架构的多功能性从哪里来?能力的多样性从哪里来?英伟达的承购量非常好,因为我们的生态系统如此庞大。
所以这五点:加速和转型的每个阶段,AI的每个阶段,每个模型,从云到本地部署,当然,最后,这一切都导向了承购量。会议操作员:
谢谢。
我现在将电话交给Toshiya Hari进行结束语。Toshiya Hari,投资者关系与战略财务副总裁:
最后,请注意,我们将出席12月2日的瑞银全球技术与AI大会,我们讨论2026财年第四季度业绩的财报电话会议定于2月25日举行。感谢大家今天的参与。操作员,请继续结束电话会议。会议操作员:
谢谢。今天的电话会议到此结束。您现在可以断开连接。活动已结束。---
本文字记录可能并非100%准确,并可能包含拼写错误和其他不准确之处。




