黄仁勋自信放话:数据中心生意一年2500亿,英伟达会抢到大部分“蛋糕”

硬AI
黄仁勋说,每年全球对数据中心设备投入的费用将共计2500亿美元,英伟达产品所占份额将超过其他芯片厂商,他预期软件将是一块非常大的业务。早盘跌近4%的英伟达股价转涨,收涨逾1%。

作者:李丹

来源:硬AI

在人工智能(AI)领域开发者盛会——英伟达2024 GTC 期间,英伟达创始人兼CEO黄仁勋自信地放出豪言,英伟达会在一年可“掘金”几千亿美元的数据中心市场抢到更多的“蛋糕”。

在美国加州当地时间19日周二GTC大会期间举行的投资者活动上,黄仁勋告诉与会者,因为英伟达生产的芯片和软件种类繁多,所以公司处于有利地位,在全球数据中心设备的支出中,会有一大部分都来自英伟达的产品。

黄仁勋预计,每年全球对数据中心设备投入的费用将共计2500亿美元,英伟达产品在其中占据的份额将超过其他芯片生产商。英伟达正致力于开发软件,以便各行各业采用和使用AI技术。英伟达提供AI模型和其他软件,然后根据客户的算力和运行的芯片数量向客户收费。

黄仁勋说,“以我的预期,这(软件)将是一块非常大的业务。”

黄仁勋讲话期间,周二早盘曾跌约3.9%的英伟达股价进一步收窄跌幅,午盘转涨,此后日内涨幅扩大到1%以上,最终收涨近1.1%,在连跌三日后连续第二日收涨,收盘涨势超过今年GTC大会揭幕当天——本周一。

在发表以上讲话前,黄仁勋在新近上媒体节目时被问到,为什么英伟达是一家市值2万亿美元公司。他回答,人类最重要的工具是电脑,现在的电脑可能理解各种各样的信息。这是一个100万亿美元的行业,英伟达的工作对这个行业的影响绝对是非比寻常的。

周一英伟达刚刚发布了号称全球最强大AI芯片的Blackwell架构GPU,该架构的首款GPU B200将成本和能耗较前代H100改善25倍,推理能力提升高达30倍。它拥有第二代Transformer引擎,可提供高达20 petaflops的FP4算力,浮点运算速度是H100 4 petaflops的五倍。

将两个B200 GPU与单个Grace CPU 结合在一起的超级芯片GB200,可为LLM推理工作负载提供30倍的性能,并且显著提高效率。在拥有1750亿参数的GPT-3大模型基准测试中,GB200芯片性能是H100的7倍,训练速度是H100的4倍。业内惊呼新的摩尔定律诞生。网上评论称,Blackwell标志着在短短八年内,英伟达AI 芯片的计算能力实现了提升1000倍的历史性成就。

在周一GTC大会上的主题演讲中,黄仁勋将Blackwell和英伟达专为数据中心设计的上一代芯片架构Hopper做了对比。他说,如果要训练一个1.8万亿参数GPT模型,大约需要三到五个月的时间:

如果用Hopper(架构)来做,可能需要8000个GPU,并且会消耗15兆瓦(电力)。8000个GPU和15兆瓦,它会需要90天,大约三个月的时间。

如果你用Blackwell(架构)来做,只需要2000个GPU。2000个GPU,同样的90天。但这是惊人的部分,只需要四兆瓦的电力。

黄仁勋透露,包括亚马逊云AWS、谷歌、微软、甲骨文等,都在为支持Blackwell做准备。同时英伟达将持续基于AI强化生态,比如英伟达NOmniverse Cloud将可以连接到苹果公司混合头显Vision Pro、加强模型与通用机器人生态等。

黄仁勋还介绍了人形机器人基础模型Project GR00T、新款人形机器人计算机Jetson Thor,还与一对来自迪士尼研究公司的小型英伟达机器人进行互动。

本文来自微信公众号“硬AI”,关注更多AI前沿资讯请移步这里

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。