Altman:我们GPU不够用了

Sam Altman表示,GPT-4.5 是“庞大”且“昂贵”的。由于GPU不足,GPT-4.5模型只能分批向不同类型的ChatGPT用户开放。

在人工智能领域风头正劲的 OpenAI,如今却陷入了硬件资源的 “泥沼”。

2月28日在社交媒体上,CEO Sam Altman大倒苦水,称公司因 GPU 供应不足,不得不 “挤牙膏” 式地分阶段推出GPT-4.5模型。

Sam Altman表示,GPT-4.5 是“庞大”且“昂贵”的,而由于目前面临的GPU短缺问题,需要增加"数万个"GPU才能支持更多用户访问。

从本周四开始,GPT-4.5只能首先向ChatGPT Pro用户开放,随后在下周才能向ChatGPT Plus用户群体开放。"我们业务增长很快,现在GPU库存告罄,"Altman表示,"下周我们将增加数万个 GPU。"

其实,OpenAI 的 “硬件之困” 早已露出苗头。

去年10月份,在 Reddit AMA 上,Sam Altman 就承认计算能力不足是产品按时出货的 “拦路虎”。面对下一代 AI 模型为啥这么久还没推出的灵魂拷问,他直言:

“这些模型太复杂了,我们得在众多好想法里艰难抉择,分配有限的计算资源。”

许多报道表明,OpenAI 一直在努力确保足够的计算基础设施来运行和训练其生成模型。据路透社报道,OpenAI将专注于内部芯片设计。去年开始已经在与博通合作开发用于运行模型的 AI 芯片,该芯片最早可能在 2026 年问世。

此外,GPT-4.5的定价策略引人注目。OpenAI对该模型的收费标准为:输入每百万token(约75万字)收费75美元,输出每百万token收费150美元。这一价格相较于公司主力模型GPT-4,输入成本增加了30倍,输出成本增加了15倍。

在这场AI军备竞赛中,硬件成本正呈指数级飙升。而此次GPT-4.5的定价策略,本质上是在将硬件成本转嫁给终端用户。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章