OpenAI 首席研究 Mark Chen :DeepSeek独立发现了o1 核心理念,然而市场反应过度

AI寒武纪
OpenAI的首席研究Mark Chen的推文,表面上是祝贺DeepSeek取得的成就,但仔细品味,却能感受到一丝微妙的 “酸味” 和 “防守” 姿态

国产 AI 新锐 DeepSeek(深度求索) 悄然发布了其最新的 o1 级别推理模型R1,犹如一颗深水炸弹,先是引爆整个硅谷,随后震惊整个世界!这件事的影响力大家都知道了, 事情还在继续发酵,刚刚OpenAI 的首席研究 Mark Chen 亲自下场评论DeepSeek R1,虽然肯定了DeepSeek R1的研究发现,但是态度非常微妙,还有DeepSeek前实习生工对于Mark Chen的回应,整个过程不要太精彩,我整理了一下,分享给大家

Mark Chen “态度微妙” 回应 DeepSeek:既肯定又“划重点”?

Mark Chen 的推文,表面上是祝贺 DeepSeek 取得的成就,但仔细品味,却能感受到一丝微妙的 “酸味” 和 “防守” 姿态

他首先承认 DeepSeek “独立发现了 OpenAI 在 o1 模型研发过程中的一些核心理念”, 原话:

“祝贺DeepSeek成功研发出o1级推理模型!他们的研究论文表明,他们独立发现了我们在实现o1过程中所采用的一些核心思想”

这无疑是对 DeepSeek 技术实力的一次高调认可,也侧面印证了 DeepSeek 模型的硬核实力。

然而,话锋一转,Mark Chen 立即将焦点转移到 “成本” 问题上,认为 “外界对成本优势的解读有些过头”。他抛出了一个略显专业的概念——“双轴优化 (pre-training and reasoning)”, 解释说,将模型训练和推理视为两个可独立优化的维度,可以更有效地控制成本。他的言外之意似乎在暗示:DeepSeek 你在成本控制上做得不错,但我们 OpenAI 也能做到,而且我们还有更全面的优势!

为了进一步 “划重点”,Mark Chen 还提到了 “蒸馏技术” 的成熟和 “成本与能力解耦” 的趋势, 暗示 OpenAI 也在积极探索模型压缩和优化技术,降低服务成本。他强调, “低成本服务模型(尤其是在较高延迟下)并不意味着拥有更强的模型能力”, 试图弱化 DeepSeek 在成本方面的优势对 OpenAI 能力优势的冲击

最后,Mark Chen 不忘 “画饼”, 强调 OpenAI 将继续在 “降低成本” 和 “提升能力” 两个方向上 “双管齐下”,并承诺 “今年会发布更优秀的模型”。这番回应,既有对 DeepSeek 技术实力的肯定,也充满了 OpenAI 作为行业领导者的自信和 “捍卫地位” 的意味。毕竟,DeepSeek 这次发布的 o1 模型,直接挑战的是大模型最核心的 推理能力,这无疑触动了 OpenAI 的敏感神经。

前 DeepSeek 实习生 “扎心”回怼 :OpenAI,说好的“开放”初心呢?

如果说 Mark Chen 的回应还算官方 “过招”, 那么DeepSeek实习生Zihan Wang 对Mark Chen回应较为尖锐!(资料显示,他 曾就职于 DeepSeek,并深度参与了 RAGEN 项目!) 他还透露自己 早在 2022 年就关注 OpenAI,并对其早期的 VPT 和 ChatGPT 项目印象深刻,甚至在伯克利的课程项目也做了类似 VPT 的尝试!曾是 OpenAI 的早期 “粉丝”。

Zihan Wang 坦言,他并非有意冒犯,只是好奇曾经以 “开放 AI” 为名的 OpenAI,为何在开源问题上变得如此 “犹豫” 和 “保守”。他回忆起 2022 年 OpenAI 的 VPT 和 ChatGPT 项目,那时他对 OpenAI 的印象是 “开放、创新、引领未来”,充满了乐观和信任。但如今,他感觉 OpenAI “变了”,变得不再像以前那样 “纯粹”,不再像以前那样 “为了更重要的事” 而努力, 似乎更加注重商业利益和竞争优势。

DeepSeek 源代码在哪里?

更有趣的来了, 另一位网友 Autark 追问Zihan Wang ,他直接 “喊话” DeepSeek:“DeepSeek 的源代码在哪里?我说的不是权重或推理支持代码,我要的是真正的源代码!”

面对 Autark 的追问,Zihan Wang 也给出了他了解到的 DeepSeek 官方解释:

“DeepSeek 团队人数有限,开源需要投入额外的大量工作,不仅仅是让训练框架跑起来那么简单 (open-sourcing needs another layer of hard work beyond making the training framework brrr on their own infra)。因此,DeepSeek 目前优先聚焦于迭代下一代模型, 在开源方面,他们优先开源 ‘最小化 + 必要’ 的部分,同时通过发布详细的技术报告,并鼓励社区进行复现, 来弥补开源的不足。”

“华人 AI 力量” 的崛起,中美 AI 竞争的新注脚?

有网友调侃两位来自不同国家的顶级人工智能公司的华人代表在 X上争论,这可能是 2025 年的一个好兆头

资料显示,Mark chen 高中就读于中国台湾省National Experimental High School(2004年 - 2008年),本科就读于MIT的Mathematics with Computer (2008年 - 2012)。

已经在OpenAI工作6年4个月,今天1月刚刚从OpenAI研究副总裁升任为首席研究。

zihan wang 本科就读于中国人民大学,美国西北大学在读PhD。

zihan wang 2024年2月 - 2024年7月 在DeepSeek 实习,

A. 利用稀疏架构训练专业化语言模型。通过选择最佳的5%专家进行专业化大语言模型(LLM)调优,能够实现接近完全的性能。该论文作为第一作者在EMNLP 2024会议上展示

B. 与团队开发了DeepSeek-V2,一个拥有2360亿参数的模型,采用多头潜在注意力机制来压缩LLM效率瓶颈中的KV缓存,降低了42.5%的成本,生成速度提升了5.76倍,获得了3.5k GitHub星标和10万用户

最后,Zihan Wang 也补充声明:强调他的观点仅代表个人,不代表 DeepSeek 官方立场

本文来源:AI寒武纪,原文标题:《OpenAI 首席研究 Mark Chen :DeepSeek独立发现了o1 核心理念,然而市场反应过度》。

 

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章