英伟达发布新“核弹”,谷歌聊天机器人也来了,算力股再度上演涨停潮

安信证券指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言、谷歌Bird等相继发布,以ChatGPT为代表的AI大模型及其初步应用“一石激起千层浪”,类比19世纪末的美国西部“淘金热”对铲子、牛仔裤的大量需求,以GPGPU为代表的算力基础设施作为AI大模型底座将长期稳定受益。

3月22日,算力股(数据中心、AI芯片、CPO等)再次大幅走强。

消息面上,隔夜英伟达发布了ChatGPT专用GPU,号称将推理速度提升了10倍。

另外近几日,因访问量大增,ChatGPT全球各地的用户纷纷发现网站弹出报错警告,即使是有特权的Plus账户也未能幸免。

安信证券最新研报对GPT-4算力需求做了推论:GPT-4由于复杂度提升、图片识别功能加入,其推测算力需求增至十倍以上。

英伟达发布ChatGPT专用GPU,推理速度提升10倍

据澎湃新闻新闻报道,北京时间3月21日,英伟达CEO黄仁勋在2023年GTC开发者大会上宣布了专为ChatGPT设计的推理GPU(图形处理器)H100 NVL,它将英伟达的两个H100 GPU拼接在一起,以部署像ChatGPT这样的大型语言模型(LLM)。

黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100,与前者A100相比,现在一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。

除定制芯片外,英伟达还发布了突破性的光刻计算库cuLitho,英伟达宣布,经过与台积电、ASML、新思科技等公司多年的合作,推出全新的计算光刻应用,大大降低芯片代工厂在这一工序上所消耗的时间和能耗,为2nm以及更先进制程的到来做好准备。

此外,英伟达还发布了AI超级计算服务DGX Cloud、加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,以及与Quantum Machines合作推出了全球首个GPU加速量子计算系统。

黄仁勋表示,眼下整个AI产业正处于“iPhone时刻”——创业公司正在竞相建立颠覆式的商业模型,而业界巨头也在寻找应对之道,更是放出豪言——英伟达就是要做AI圈的台积电!

国内方面,黄仁勋表示,在中国,其有特别定制的Ampere和Hopper芯片,这些会通过中国云提供商,比如阿里巴巴、腾讯、百度这些企业提供落地的能力,完全相信他们有能力去提供顶级的系统服务,对于中国初创公司一定会有机会来开发自己的大语言模型。

谷歌聊天机器人也来了,AI大模型引领算力层长期受益

当地时间3月21日周二,美国科技巨头谷歌公司推出了AI聊天机器人Bard的测试版本,以期与OpenAI的ChatGPT展开竞争。

Bard将与其谷歌搜索引擎分开运行,目前仅以英语生成答案,目前以先到先得的方式向候补名单的用户提供访问权限。谷歌称随着时间的推移,Bard将适配更多的语言以及推广到更多的地区。

安信证券指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言、谷歌Bird等相继发布,以ChatGPT为代表的AI大模型及其初步应用“一石激起千层浪”.

其表示,随着多模态大模型GPT-4的发布,基于文字、图片等垂直场景的应用步伐有望“从1到10”加速,类似于移动互联网时代各类型APP的百花齐放,其竞争格局也会逐步加剧。而类比19世纪末的美国西部“淘金热”对铲子、牛仔裤的大量需求,其认为以GPGPU为代表的算力基础设施作为AI大模型底座将长期稳定受益

GPT4算力需求增至十倍以上

安信证券最新研报对GPT-4算力需求及未来趋势做了推论:GPT-4由于复杂度提升、图片识别功能加入,其推测算力需求增至十倍以上。

其表示,OpenAI首席执行官Sam Altman接受公开采访指出,GTP-4参数量为GTP-3的20倍,需要的计算量为GTP-3的10倍;GTP-5在2024年底至2025年发布,它的参数量为GTP-3的100倍,需要的计算量为GTP-3的200-400倍。

算力的瓶颈并不体现在算力的绝对大小,而在于实现该算力的成本,从成本的角度,国信证券也对此作了测算,其根据根据GPT-4的公开数据,8K的上下文长度下,每1000个token的提问成本为0.03美金,每1000个token的回答完成成本为0.06美金;32K的上下文长度下,每1000个token的提问成本为0.06美金,每1000个token的回答完成成本为0.12美金。

其表示,这个算力成本相比与GPT-3的成本(每1000个tokens的算力成本约为0.02美金)上升了较高(输入成本增加50%-200%,输出升本增加200%-500%),相比于GPT-3.5-turbo的成本上升更为可观,输入成本增长了14-29倍,输出成本增长了29-59倍。

此外,AI服务器市场的扩容,同步带动高速网卡、HBMDRAMNANDPCB等需求提升。同时围绕解决大算力场景下GPU“功耗墙、内存墙”问题的相关技术不断升级,如存算一体、硅光/CPO产业化进程有望提速;先进制程芯片演进中已有的Chiplet等技术路径也将受益;Risk-V由于开源免费、开发者自由度高、自主可控度高、更适应AIoT处理器架构需求等优势,带动围绕AI场景的参与企业数量提升。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。