随着人工智能竞争升级,DeepSeek发布R1模型更新版。
周三,DeepSeek在微信群发布帖子称,DeepSeek R1模型已完成“小版本试升级”,欢迎前往官方网页、APP、小程序测试(打开深度思考),API 接口和使用方式保持不变。
DeepSeek R1模型在语义理解精准性、复杂逻辑推理、长文本处理稳定性等方面进行了强化。
DeepSeek并未提供本次更新的更多细节。有网友测评后称,感觉模型的理解能力上了一个层次:
感觉模型的理解能力上了一个层次,比如激活参数部分,R1可以制作交互动画来展示,另外关键信息的逻辑也非常清晰。
编程能力也大幅提升,有网友测评后感叹,太吓人了,1000多行代码一次搞定,没有bug。
还有网友称,编程能力可以和“编程新王”Claude 4一较高下。
这是两个月来DeepSeek的首次模型更新。
今年3月,DeepSeek放出了 DeepSeek-V3-0324 模型。该模型全面超越 Claude-3.7-Sonnet,在数学、代码类相关评测集上超过 GPT-4.5。
作为一个没有思维链的非推理模型,DeepSeek-V3-0324 模型在推理类任务上的表现可圈可点。根据第三方评测,新版的 DeepSeek-V3 模型与 Grok-3 打平,并列传统对话类模型榜首。
同时性价比极高,输入价格仅为Claude-3.7-Sonnet的1/11、GPT-4.5的1/277。此外,新版本开源且可免费用于商业用途。
迄今为止,DeepSeek最震动世界的动作还是1月发布R1。当时人们发现,R1不但在多项标准化指标上的表现均优于OpenAI的模型等西方竞争对手,而且成本据称仅有数百万美元,采用的还是较低版本的英伟达芯片。
R1的异军突起引发了全球科技股暴跌,因为投资者开始质疑,是否还需要像微软等硅谷巨头那样投入巨资构建突破性的AI模型和AI服务。
前几个月R2频传要发布
证券时报指出,自以上V3模型的小版本升级之后,DeepSeek的热度就开始下降,使用率也有所回落,并且引发了一些质疑。当前,市场最关心的依然是R2模型发布。
今年2月,有媒体称,1月R1问世后,DeepSeek在加速推出R2,原计划时间定在5月初,后希望尽早推出,还称DeepSeek希望,R2在代码生成方面表现更佳,并具备在英语之外的语言中进行推理的能力。
4月初,DeepSeek联手清华大学发布一篇论文,提出一种名为自我原则点评调优(SPCT)的新学习方法,用于推动通用奖励建模在推理阶段实现有效的可扩展性,最终构建出DeepSeek-GRM系列模型。同时,研究者引入了元奖励模型(meta RM),进一步提升推理扩展性能。
上述论文引发了DeepSeek的R2是否很快面世的猜测。
4月末,又有消息称,R2将采用更先进的混合专家模型(MoE),总参数量预计达1.2万亿,较6710亿参数的R1提升约1倍,单位推理成本较GPT-4剧减97.4%。而且,R2训练全程未使用英伟达显卡,全部基于昇腾910B芯片集群平台,在FP16精度下,计算性能达到512 PetaFLOPS,芯片利用率高达82%,整体性能约为英伟达上一代A100集群的91%。
不过,迄今为止DeepSeek都未正式确认任何有关R2发布时间的消息。
在社交媒体X上,有关此次R1模型小版本试升级的消息下面,就有些点赞高的网友评论在猜测R2。有的问,DeepSeek有没有R2,有的认为,这次的小版本升级可能意味着,R2还远未准备好推出。