三思注:本文我们一个字都没写,全文都是DeepSeek AI对于Citrini Research今日最新文章的解读。美国这家投研机构是英伟达的长期投资者,同时也在24年6月加入了A/H半导体的交易。
DeepSeek输出的内容我是一个字都没有改,甚至标题加粗这些排版工作也都是AI做的。我把DeepSeek的思考过程也都截图进来了,大家可以感受下。图片可能有点糊,主要是微信压缩的原因,我把文章英文原文和这篇AI解读一起发了,大家可以对比下。
因为我也想多看看DeepSeek的思考过程,所以也多问了几个视角,分别是:作者介绍-》中文标题(我给它文档的时候忘了发标题,靠它自己理解的)-》推荐语-》全文翻译-》内容框架
----
作者介绍:
中文标题(我上传文档的时候忘了发标题):
推荐语:
全文翻译:
本周,来自中国人工智能开发商深度求索(DeepSeek)的两个全新开源模型引发全球关注,其性能已可媲美OpenAI和Anthropic的顶尖基准水平。
我们对此并不感到意外。实际上,自去年夏季起,我们就预期中国在硬件受限的背景下会通过架构创新实现突破:
“通过专注于依赖更少英伟达(NVDA)式硬件的研究方向,他们可能找到超越当前范式的新方法。
但必须承认,这将是一场艰苦的战斗。英伟达的领先优势巨大,美国制裁更是难以逾越的障碍。然而,从中国崛起为科技超级大国的历程中,我们学到最重要的一课是:永远不要低估他们。”
《Citrindex一周年报告》,发布于CitriniResearch.com,2024年6月
讽刺的是,这些模型的成本效率却吓坏了投资者,并为那些急于宣告“AI热潮终结”的人提供了弹药。但无论是看空者还是看多者,都未抓住问题的核心。
效率提升是好事,而英伟达并不等同于AI。英伟达只是为满足大语言模型(LLM)的巨大算力需求提供关键硬件,并在此前的AI军备竞赛中成为最核心的赢家。
自2023年5月首次覆盖AI领域以来,我们始终聚焦于“铲子与镐头”(即“AI革命第一阶段”)的投资策略。
在商业化路径和产品赢家尚未明朗时,我们选择押注已知的确定性——财力雄厚的超大规模云厂商将在硬件和数据中心基础设施上投入数百亿美元。微软(MSFT)和Meta(META)最新上调的资本支出指引表明,这场建设热潮仍未放缓。
但继续以‘未来AI形态不明,因此默认投资基础设施’为借口正变得越来越困难。尽管过去两年我们的重心在此,但我们的投资逻辑从来不是‘数据中心’。我们不能因留恋过去的成功而忽视技术演进。从一开始我们就主张:AI基础设施完善后,大语言模型将走向商品化和民主化,从而开启下一阶段的产品开发与真实场景应用。
我们还预期,大语言模型的商品化将成为第二波AI投资的关键标志——从基础设施转向应用产品。在此过程中,中国通过持续提升LLM效率或挑战CUDA生态/训练专用芯片(ASIC),仍将扮演重要角色。
无论直接还是间接,深度求索(DeepSeek)的突破都是AI演进中的重要进展,投资者需警惕其潜在影响。
别只听我说,以下是微软CEO萨提亚·纳德拉(Satya Nadella)的观点:
更廉价、更优质的模型可能确实会冲击那些依赖资本支出膨胀估值的公司,但对AI商业化却是一大利好。事实上,训练成本(以及较小程度上的推理成本)过高始终是AI软件盈利的最大障碍。或许通过顶级开源模型的民主化,需求将再次超越供给。
无论这场辩论结果如何(我们后续将深入探讨),我们愈发确信:AI投资的第二阶段已拉开帷幕。
但在深入讨论前,先来了解深度求索(DeepSeek)究竟是什么。
深度求索(DeepSeek)(傻瓜版)
深度求索(DeepSeek)发布了两款新模型——DeepSeek-V3和DeepSeek-R1,以及名为“R1 Zero”的指令集,其性能与OpenAI和Anthropic的顶级产品不相上下。这些模型在社交媒体引发轰动,不仅因其能力比肩甚至超越知名系统,更因其API调用成本仅为对手的零头。
12个月前甚至6个月前,深度求索(DeepSeek)对许多人而言仍名不见经传。但这不意味着他们是“业余玩家”——该公司拥有数百名工程师,并投入大量资金与时间(仅预训练成本就达600万美元)。其自研的DualPipe GPU通信系统和其他定制优化技术,显著提升了硬件效率,从而降低了训练成本。
部分神秘感源于猜测:深度求索(DeepSeek)可能秘密囤积了大量禁售GPU(他们确实拥有许多),或中国正在发动一场认知战(PsyOp)并伪造数据。
在分析投资影响前,本文需使用大量术语。鉴于读者并非AI研究员,我们特邀一位AI专家协助简化解释。以下是核心要点(如我一般的“傻瓜”也能看懂):
深度求索(DeepSeek)的研究人员想验证:能否在不依赖海量数据或复杂工具的前提下,显著提升数学解题AI的能力?
他们以已有数学解题能力的模型(Qwen2.5-Math-7B)为起点,摒弃传统人工标注数据的监督学习,转而采用强化学习。该技术虽非新事物,但此前效果远未如此惊艳。
想象一下:每当AI答对问题就奖励一颗“金星”——这种简单的反馈机制引导AI持续优化解题策略。更惊人的是,他们仅用8,000道数学题就完成了训练,而其他团队通常需要数百万题。
此外,他们未使用复杂的监督工具或多层反馈循环,系统逻辑极致简洁:“答案正确=获得奖励。”尽管看似简陋,该AI的表现却超越了依赖海量数据和复杂流程训练的模型。
深度求索(DeepSeek)还融入多项巧思——如压缩内存占用、同时预测多组标记(token)——以极高效完成训练。这意味着他们无需堆砌昂贵GPU即可实现顶尖性能。此类突破降低了成本门槛,证明小团队若训练方法得当,仍可与行业巨头竞争。
总之,深度求索(DeepSeek)证明:无需巨额资金、硬件或人工干预,也能打造擅长复杂任务的AI。关于他们实际投入的争论已无关紧要——通过聚焦强化学习与效率优化,他们展示了资源有限仍可创造强大模型。
他们公开了全部训练步骤和代码供他人复现,所谓“审查担忧”显得荒谬。最终成果是一个可本地运行于两台Mac Mini的轻量版模型,性能却媲美Anthropic和OpenAI。
该过程称为“模型蒸馏”(model distillation),即训练小型“学生模型”模仿大型“教师模型”的逐步推理逻辑与输出。
深度求索(DeepSeek)(技术小白版)
深度求索(DeepSeek)的创新大幅精简了训练与推理流程。默认采用8位浮点精度(FP8),结合分块策略、多标记预测和键值(KV)索引压缩技术,其GPU需求仅为行业巨头的零头。
其混合专家(MOE)架构允许在单个模型中集成海量参数,但每次推理仅激活部分参数。例如,6710亿参数的DeepSeek-V3可在消费级GPU上运行,因为典型推理任务仅需约370亿参数激活。
此思路并非首创。
谷歌早在2021年初的论文中已通过Switch Transformer提出类似概念。但由于训练不稳定、多专家路由效率低下、难以适配消费级硬件等实际挑战,该方案未获广泛应用。
但R1模型证明,该技术能有效实现专用模型的自动调优。无需监督微调的大规模强化学习使模型通过试错自行进化。在某些人眼中,这重构了LLM开发的思维方式。
更少参数、更智能的训练、更优的推理,且关键是完全无需人类反馈。
此外,这或许为打破英伟达的垄断撕开一道裂口。深度求索(DeepSeek)的PCIe架构表明,他们无需依赖NVLink或每节点8张网卡。
未被充分关注的是深度求索(DeepSeek)的R1 Zero指令集(致敬AlphaZero)。他们证明,仅凭强化学习即可实现推理时的计算扩展(即“思考/反思”),完全无需人工监督微调。
这本身已足够吸引人,同时也印证了OpenAI此前宣称“这只是语言模型”(无人相信)的观点——R1 Zero未使用蒙特卡洛树搜索(MCTS)等复杂机制。
R1 Zero的“思考过程”常显得毫无逻辑:不仅随意切换语言,甚至生成对人类无意义的文本。但这有其合理性:模型只是收敛于全局损失函数最小值,输出标记本质上是为人类服务的最后一层表象。
简言之,R1 Zero通过“破解”损失函数找到了一种更优的思考方式。
大胆推测
或许人类可读性并非LLM推理的最优解,某些场景下甚至构成阻碍。这为AI代理(Agent)的讨论增添了新维度:是否需要在现有工具之上构建专为AI交互设计的新应用层?
R1模型还引入了另一维度:媲美顶尖OpenAI模型的强健思维链推理能力。与Anthropic或OpenAI的封闭路线不同,深度求索(DeepSeek)不仅详尽公开技术细节,还采用宽松许可供任何人复现。
其V3模型在混合精度训练和MOE损失尖峰抑制上均取得突破,极大降低训练成本。这再次印证:OpenAI的“只是语言模型”声明并非烟雾弹。
透明性揭示了他们如何通过纯强化学习与精心设计的奖励函数(而非海量标注数据)引导模型生成逐步逻辑,并支持自我中途修正。
他们还添加了语言一致性检查,确保即便模型将复杂任务分解为多步,最终输出仍清晰连贯。
我们始终耐心等待LLM商品化的发令枪,甚至断言这是AI应用普及与智能代理(Agentic AI)升级的必要前提。意外的是,这一转折点竟来自中国——此前AI领域被认为由少数西方巨头主导,如今中国实验室已跻身顶尖行列!
此类进展(西方或将跟进)可能预示未来不再有离散的“新模型”,取而代之的是系统间大规模相互训练、持续优化与递归自我改进。此进程将加速至超脱人类控制,最终我们甚至无法完全理解其优化目标。
Qwen 1.5b r1蒸馏版在某些推理任务上超越GPT-4o和Claude,这绝不容忽视。开源驱动的AI推理民主化潜力同样值得重视。
影响
那么,这是一场中国的认知战吗?
我们认为其最后一次训练的公开数据可信,因其可被复现验证。但总资源投入可能存在误导性,论文已近乎明示这一点。
但效率的飞跃毋庸置疑。
周末社交媒体盛传“深度求索(DeepSeek)终结英伟达芯片需求”的观点是错误的。不过,本地运行的蒸馏模型将更普及,这对英伟达构成利空(我们已清仓的部分原因),但同时对AI整体发展与用例扩展是巨大利好。开源是深度求索(DeepSeek)的主动选择。
这一切让我们愈发确信:中国在ASIC(专用芯片)上的突破将重塑硬件格局(并解答了我们此前关于“中国会否用ASIC淹没市场”的疑问——答案是肯定的)。
我们继续看好中国半导体产业(尽管对美国的乐观程度略有下调)。
我们认为的未来走向
至少,市场对中国AI的悲观情绪可能终结。这对我们有利——我们已布局中国积极进展,并强化了“中国本土半导体将在ASIC上突破”的观点。
我们最初于2024年5月将中国AI公司纳入投资组合,并在去年10月的《忧虑之墙再添一砖》报告中加倍押注。
以下是它们迄今的表现:
其次,若工具成本下降,AI代理时代将加速到来。在现有应用层之上构建专为AI交互设计的新层(对人类无意义)可能是最优路径。布局那些有望构建或整合海量代理的公司是明智之举。我们相信,沿用“第一阶段”基础设施策略(先广撒网,再随趋势明朗缩窄范围)将再次奏效。
但关于AI本身已谈得够多。我知道你们都在问:“这对英伟达意味着什么?”
看空逻辑显而易见:效率提升将减少对GPU的需求——过去两年全球云厂商的资本支出狂欢正基于此。这一风险已被充分定价。
较少被讨论的是另一种情景——深度求索(DeepSeek)可能成为英伟达的利好。
英伟达的看多逻辑:杰文斯悖论
“现在我们可以拥有更多AI。”
——Dylan Patel, SemiAnalysis
或许开源与蒸馏模型将催生更多AI初创公司,而算力效率的提升最终被激增的需求吞噬。
推理成本已呈深度通缩趋势,但市场并未因此恐慌。
看多逻辑是:资本支出维持不变,但模型性能远超预期。为什么?
因为我们并非按需优化——算力扩容只会刺激需求同步增长。更大规模的集群仍将建设,但结果可能是加速进入“矩阵时代”。此外,中国竞争的威胁可能进一步刺激美国巨头加大投入。
我们的立场
我们对此热情不高——只需看看市场对“半万亿美元太空投资”公告的反应:军备竞赛的下一阶段形态或将不同,且未被定价的增量资本支出空间已极小。
这是我们清仓英伟达的原因——风险回报比不再具备吸引力。
正如我们在《2025年25大交易》中所写:
“我们相信,2025年英伟达的主导地位将面临实质威胁。这些威胁或许尚未商业化,但会成为叙事的一部分,迫使估值模型反映风险。尽管其仍拥有巨大竞争优势(且可能延续),但我们认为英伟达的风险回报已不再诱人。
AI训练与推理工作负载的商品化或将在明年成为现实,推动对高性价比方案的需求,尤其是在市场度过当前爆发性增长阶段后。”
这还未考虑炒作周期中的市场心理——我们无疑正处于这一周期中。
在炒作巅峰期,无需重大变故即可引发波动,只需担忧——对过度建设、定价权丧失、利润率下滑或竞争的担忧。我们多数人在投资AI时并非专家,成功不代表市场真正理解技术。
恐慌随时可能爆发并导致暴跌。
但有一件事必须明确:
开源、高效且商品化的LLM对AI发展极其有利,将加速真实场景中的AI应用与创新。
互联网的基石是车库里的极客,更多开源意味着更多极客,进而催生更多AI产品与用例。以下是我们当前的布局。
投资策略调整
我们的AI投资组合有何变化?
您可通过Citrindex表格的“近期变动”标签查看调整详情。
核心调整方向:正如我们在第一阶段广撒网(买入120家潜在数据中心受益者,随趋势明朗淘汰60-70%),我们认为现在应从第一阶段转向第二阶段。
我们做空SMH(半导体ETF)以增持可能受益于开源与AI代理爆发的标的,同时关注那些可能因“第二阶段需构建专为AI代理交互设计的新层”而获益的公司。
归根结底,第一阶段或会延续,但第二、三阶段的非对称收益潜力更大。主要风险在于这些公司可能掉队或被取代,但我们对中国软件板块仍具信心——智能代理只是锦上添花。
以下是新增的潜在第二阶段受益标的及理由:
建议重温我们最初的《AI受益框架》与《AI赢家/输家》报告。尽管部分观点已过时,但在更新认知时回顾框架仍有价值。
全文框架:
本文来源:三思社,原文标题:《英伟达的美国老多头,如何看DeepSeek的影响》