将数据中心能耗降低50%、成本还便宜三成!英伟达合作商“全新”液冷技术来了

“2024年将是液冷散热的放量元年。”

AI热潮在催动高端处理器需求释放的同时,也在高速“吃电”,数据中心的能耗问题日益凸显。

当前,微软、Alphabet和Meta等大型科技公司正投资数十亿美元建设数据中心基础设施,以支持生成式AI的发展。而数据中心的激增也带来了能源需求的急剧上升。据估计,数据中心的全球电力消耗已占到全球总电力消耗的2%左右,并且这一数字还在不断增长。

但也有公司趁此抓住了商机,英伟达合作商Sustainable Metal Cloud(SMC)在新加坡和澳大利亚运营着由HyperCubes组成的“可持续AI工厂”。该公司表示,其平台利用合成油液冷技术可将数据中心的能耗降低高达50%,且安装成本也低于市面上的液冷同行低28%。

“革命性”新技术亮相

SMC的HyperCube技术,是利用合成油液冷技术将服务器浸没在一种名为聚α烯烃的合成油中,这种油比空气更有效地散热。与数据中心常用的传统空气冷却技术相比,SMC的平台可以减少高达50%的能源消耗。

SMC的联合创始人兼联合首席执行官Tim Rosenfield在提到英伟达宣布的新一代AI图形处理器时表示:

“它能为GPU提供高密度托管,这是我们用于像英伟达的Grace Blackwell这样的平台所需要的托管方式。”

除了在提高能源效率上具备优势,SMC还表示,其浸入式冷却技术的安装成本也低于市面上的液冷同行低28%

然而,当前大多数数据中心尚未准备好接受任何液体,无论是浸入式还是芯片直接冷却。尽管市场正在探索应用这种技术的最佳方式,但Rosenfield相信将有多种方法出现,他指出HyperCube的设计允许其快速安置到任何数据中心:

“我们的解决方案是集装箱化的,意味着它可以非常快速地部署到任何地方,并且可以根据客户需求开辟新的可用区域。”

前景看好!多企业入局液冷技术

摩根士丹利分析师Sharon Shih等曾在报告中指出,随着人工智能服务器的计算能力不断提高,液冷解决方案的采用率(目前为3%)将会增长。

液冷散热技术在AI数据中心具有广阔的应用前景,主要有三个原因:

  • AI训练/推理算力需求持续攀升,导致数据中心内算力密度和热密度持续增长。

  • 降低功耗和发热量是提高AI系统能效比的关键。

  • 液冷技术可提供超越传统风冷方案的散热能力。

而液冷技术在数据中心有目共睹的前景,也吸引了多家企业相继布局。

6月,Vertiv的首席执行官Giordano Albertazzi表示,液冷技术的采用可能会在2024年加速。该公司的热管理产品包括混合空气和液冷,以及完全液冷的数据中心。

而于同月台北电脑展上,英伟达的首席执行官黄仁勋极力推销了超微电脑的直接液冷技术。超微电脑的首席执行官Charles Liang表示,液冷技术具有更高的能效,从而带来更好的性能、更少的污染和更低的能源成本。

国盛证券的分析师也认为:

“算力时代来临,GPU服务器起量,液冷落地的驱动力发生根本性变革,2024年将是液冷散热的放量元年。”

尽管前景光明,但Albertazzi也提示道:

“数据中心仍然需要大量的空气冷却,即使在高密度的全AI数据中心也将继续发生这种情况。”

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章