打造一个AI大模型,需要多少算力?

广发证券认为,在暂不考虑软件层面算法优化带来的模型消耗算力成本下降的前提下,国内大模型在训练与推理阶段或将产生相当于1.1万台或3.8万台(乐观假设下)高端AI服务器的算力需求,以单片A100售价10万元人民币、AI加速卡价值量占服务器整机约70%计算,则对应约126亿元(人民币)或434亿元增量AI服务器市场规模。

在席卷全球的AI热潮中,一个不容忽视的潜在阻力是算力的不足。算力是AI发展的基础设施,AI训练需要将数据集进行重复多轮处理,算力的大小代表着对数据处理能力的强弱。

据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。随着百度、360、华为等公司纷纷入局AI领域,国内厂商对算力的需求将迎来井喷。

综合OpenAI的研究经验,以及中国企业大模型的研发进度等因素,广发证券分析师刘雪峰等对国内AI大模型的训练和推理阶段算力需求,以及相应的成本进行了测算。

算力需求

首先,分析师根据GPT-3的数据测算了国内AI大模型训练和推理所需的AI服务器需求。

分析师认为:

根据商汤招股说明书的数据,GPT-3的大模型的所需要训练355个GPU-年。在当前各家公司推出AI大模型意愿较强的背景下,我们认为科技公司用于训练AI大模型的时间为1个月,因此其需要训练AI大模型的AI加速卡的数量为4260个。

我们认为,AI大模型有望成为各科技厂商竞争的关键领域,因此假设国内有意愿开发AI大模型的公司有10个,则由于AI大模型训练而新增的AI加速卡需求空间为4.3万个,国内由于AI大模型训练而新增的AI服务器的需求空间约为5325台(本文均假设单台AI服务器搭载8个AI加速卡)。

根据英伟达官网的数据,A100针对于BERT类的AI大模型可实现每秒推理1757次,因此可假设单片A100用于AI大模型每秒生成1757个单词,与单次客户需要生成的内容数量相当。

截止2023年3月27日,百度“文心一言”已收到12万家企业申请测试。我们预计,国产“类ChatGPT”的访客量规模较为庞大。

2023年3月29日,在“2023数字安全与发展高峰论坛”上,三六零公司现场演示了360大语言模型在360浏览器上的应用。分析师认为,内容生成类应用已成为各科技厂商开发AI大模型积极探索的方向,因此假设国内未来开发并应用“类ChatGPT”AI大模型的数量为10个。针对不同情境分析师进行了以下假设:

  • 国产“类ChatGPT”的定位是仅给注册企业内部使用,则假设每天访问量为5000万人次,每人与ChatGPT对话5次,由此测算下来,由于AI大模型推理而新增的AI加速卡需求空间为4.3万个,新增的AI服务器需求空间为5425台。
  • 国产“类ChatGPT”的定位是面向个人用户开放使用,则分别假设每天访问量为1亿或3亿人次,每人与ChatGPT对话5次,由此测算下来,由于AI大模型推理而新增的AI加速卡需求空间为8.7万或26.0万个,新增的AI服务器需求空间为1.1万或3.3万台。

因此,乐观假设下,国内AI大模型在训练与推理阶段或将产生相当于1.1万台或3.8万台高端AI服务器的算力需求。

成本测算

此外,分析师强调,多模态大模型是AI大模型的发展方向,应用前景广阔。今年以来,全球多家科技厂商陆续发布多模态大模型,如谷歌的PaLM-E大模型、OpenAI的GPT-4大模型以及百度的“文心一言”大模型。

相较于自然语言类模型,多模态模型在训练阶段融合了文字、图像、三维物体等多维度数据的训练,可交互的信息类型较多,通用性得到了大大增强。分析师参考OpenAI和百度的AI大模型的收费标准后,对各行业用户用于生成类任务的成本进行了以下假设:

  1. 生成文本的价格为0.003美元/1000tokens,相当于0.02元人民币/1000tokens(参考汇率:1美元=6.88元人民币)。Tokens是包括了单词、标点符号在内的字符,因此可以简单理解为单个文字。
  2. 生成图片的价格为0.02美元/张,相当于0.15元人民币/张。

多模态大模型API开放后,各行业用户用于内容生成类任务的使用成本敏感性分析:基于以上假设条件,我们对各行业用户调用多模态大模型的API用于内容生成任务的成本做关于文本生成量和图片生成量的敏感性分析。

我们预计中短期内,基于多模态大模型的单日调用量的范围预计在5000万人次到3亿人次之间。假设每天每人生成文本内容5次,每次生成文本内容为1000个tokens,则生成文本数量的范围预计在2.5千亿到15千亿个tokens之间。

假设每天每人生成图片5张,则生成图片的数量范围预计在2.5亿张-15亿张。由此,我们测算出,各行业用户调用多模态大模型的API用于内容生成任务的成本如下表所示。

分析师也强调,AI大模型技术仍处于发展早期,技术迭代的节奏和方向处于快速变化中,在AI算力需求测算中,也需考虑由于算法优化导致AI模型消耗算力成本降低的因素。考虑到软件优化带来的降本提效因素,实际硬件需求和算力成本可能较此前测算的数值较低一些。

综上,分析师指出,在暂不考虑软件层面算法优化带来的模型消耗算力成本下降的前提下,国内大模型在训练与推理阶段或将产生相当于1.1万台或3.8万台(乐观假设下)高端AI服务器的算力需求,以单片A100售价10万元人民币、AI加速卡价值量占服务器整机约70%计算,则对应约126亿元(人民币)或434亿元增量AI服务器市场规模。

分析师预计,前述AI服务器的增量需求或将在1-3年的维度内逐步落地。

本文主要观点来自广发证券分析师刘雪峰(执业:S0260514030002)等发布的报告《国内AI大模型的训练和推理阶段算力需求测算》,有删节

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。