一边暴涨20倍,一边降价40%,服务器行业上演冰火两重天

服务器市场正在呈现出两级分化的态势。

一方面,据证券时报报道,AI服务器价格不到一年暴增20倍。

东莞一家企业表示,去年6月其公司购买了8台AI服务器,它的基础配置为8颗英伟达A100GPU,存储是80G,当时购买价格为8万元/台,今年3月已经涨到130万/台,现在大约160万元/台。

另一方面,与AI服务器价格形成反差的,则是云服务器。

5月16日晚间,腾讯云、移动云宣布启动降价;在此次降价计划中,腾讯云将针对部分区域云服务器实例特惠时长进一步加大折扣力度,价格降幅最高将达40%。移动云部分产品线最高降幅达60%。此前4月26日,阿里云就已启动史上最大规模降价。值得一提的是,微软此前也大幅调降了今年服务器订单。

资料显示,按照用途划分,服务器可以为通用型服务器和专用型服务器(比如AI服务器)两类。

通用服务器一般是面向各类互联网用户提供综合业务能力的服务平台,主要是面向用户提供公用化的互联网基础设施服务。

而AI服务器则是作为算力基础设施单元服务器的一种类型,能够快速准确地处理大量数据,可以满足大模型所需强大的算力需求。

招商证券指出,从通用服务器到AI服务器,一个最显著的变化就是GPU取代了CPU成为整机最核心的运算单元以及价值量占比最大的部分,传统服务器通常至多配备4个CPU+相应内存和硬盘,在AI服务器中,通常是2颗CPU+8颗GPU,部分高配4U服务器中甚至可以搭配16颗GPU,预计AI服务器中GPU+CPU+存储的价值量占比有望达到80%以上的水平。

市场空间方面,其预计未来5年AI大模型训练端和推理端,AI服务器市场规模超2000亿元。

ChatGPT能带来多少AI服务器需求增量?

天风证券指出,在实现AI的过程中,训练和推理是必不可少的;同时相比于推理,训练所需的算力是几何倍的增长。天风证券以A100服务器和H100服务器作为样本,基于GPT-3模型估算了训练阶段的算力得出:

假设应用A100 640GB服务器进行训练,该服务器AI算力性能为5 PFLOPS,最大功率为6.5 kw,则测算训练阶段需要服务器数量=训练阶段算力需求÷服务器AI算力性能=2.96×108台(同时工作1秒),即3423台服务器工作1日。

假设应用H100服务器进行训练,该服务器AI算力性能为32 PFLOPS,最大功率为10.2 kw,则测算训练阶段需要服务器数量=训练阶段算力需求÷服务器AI算力性能=4.625×107台(同时工作1秒),即535台服务器工作1日。

此外其还表示,若后续GPT模型参数迭代向上提升(GPT-4参数量可能对比GPT-3倍数级增长),则测算所需AI服务器数量进一步增长。

其假设应用搭载16片V100 GPU的英伟达DGX2服务器进行训练推理,该服务器算力性能为2 PFLOPS,最大功率为10kw,则测算需要服务器数量为=1.545×108台(同时工作1秒),即1789台服务器工作1日。

据TrendForce表示,在AIGC、自动驾驶、AloT、边缘计算等新兴应用带动下,诸多大型云厂商加大AI相关基础设施建设,预计搭载GPGPU(General Purpose GPU)的AI服务器2022年出货量仅占整体服务器市场的1%,并有望在2026年增长至20万台,2022-2026年CAGR为10.8%。

最后附一张服务器产业链图:

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。