微软建造了一台昂贵的超级计算机,来支持ChatGPT

微软指出,建造大型超级计算机能够允许 OpenAI 和其他依赖 Azure 的公司训练更大、更复杂的AI模型,并加速推出生成式AI应用。

微软斥资数亿美元建造了一台超级计算机,以帮助为聊天机器人 ChatGPT 提供动力。

美东时间周一,微软表示,该公司最近建造了一台为 OpenAI 的聊天机器人 ChatGPT 提供动力的超级计算机。

负责云计算和AI业务的微软副总裁 Scott Guthrie 不愿透露该项目的具体成本,但表示“可能不止”几亿美元。他还称,虽然这对于微软来说只是九牛一毛,但无疑表明该公司对人工智能领域的热情,并愿意在该领域投入更多的资金。

2019年,在向 OpenAI 投资10亿美元的时候起,微软就同意为这家AI初创企业构建一台大型超级计算机。如今,OpenAI 正在训练AI模型,获取大量数据并学习参数,开发具AI功能的新工具如 ChatGPT。这意味着 OpenAI 需要长期使用强大的云计算服务。

为了应对这一挑战,微软将数以万计的 Nvidia A100 GPU 和 Azure 云计算平台串联在一起,并改变服务器在机架上的位置以防止断电。这些GPU用于高性能计算,以 NVIDIA Quantum InfiniBand 架构为基础,能以高吞吐量、低延迟网络连接在一起。

微软当时介绍称,这台超级计算机性能位居全球前五,拥有超过28.5万个CPU核心、1万个GPU、每GPU拥有400Gbps网络带宽。

微软指出,这允许 OpenAI 和其他依赖 Azure 的公司能够训练更强大、更复杂的AI模型,并加速推出生成式AI应用。微软 Azure AI 基础设施总经理 Nidhi Chappell 向媒体表示:

我们建立了一个系统架构,可以在非常大的规模下运行,并十分可靠。这就是 ChatGPT 成为可能的原因。

这是从中得出的一个模型。还会有很多很多其他的。

现在,利用 OpenAI 训练AI模型的同一套资源,微软也可以训练自己的大型AI模型,包括上个月推出的 New Bing 搜索引擎。该公司还向其他客户销售了该系统。

微软还指出,这台大型超级计算机不仅可以为 ChatGPT 提供AI运算动力,更能将计算资源以定制化方式提供给不同的客户,扩大 Azure AI 云的应用范畴,任何想要训练大型AI模型的企业都能运用同一套资源操作和改进。

Guthrie 还表示:

我们并没有为它们建造一个定制的东西——它一开始就是一个定制的东西,但我们总是以一种泛化的方式来构建它,这样任何想训练大型语言模型的人都可以利用同样的改进。

这确实帮助我们成为更好的人工智能云平台。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。