近日,开源大语言模型DeepSeek R1的走红引发了业界关注。大摩表示,这一模型以远低于GPT的训练成本实现了相近的性能,或将对中国数据中心和软件行业产生深远影响。
1月27日,摩根士丹利分析师Yang.Liu、Tom.Tang、Lydia.Lin发布报告称,DeepSeek R1的出现引发了人们对采用大规模高端GPU集群来训练大型语言模型(LLM)必要性的讨论。该模型作为开源项目,其训练成本仅为GPT的1/30,却能达到与GPT相当的性能水平。
大摩认为,对于中国数据中心而言,DeepSeek R1的影响可能如下:
短期内,如果大型科技公司开始采用类似DeepSeek的技术路线,可能会减少AI模型训练相关的需求,特别是在偏远地区的数据中心。
然而从长远来看,低成本模型可能会推动推理需求的增长,这对一线城市的数据中心需求是利好。
另一方面,对于中国软件行业,大摩认为DeepSeek R1的影响可能会带来选择性的小幅利好。因为AI模型成本的降低可能会降低应用程序运行AI功能的门槛,从供给侧改善行业环境。然而,这并不直接意味着更好的变现能力,软件行业最大的问题仍然在需求端。
摩根士丹利认为,最终影响将取决于具体的软件产品及其下游市场。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。