过了一天的信息消化,市场 / 机构对于星际之门的反馈开始慢慢出来了;这里稍微做一些梳理。
NVDA + AI 基建是大家都同意的赢家;之前吵“scaling laws” / "capex峰值” / “ASIC份额转移的”,可以都先消停一段时间了;100B的增量 VS 之前25年300B的capex consensus,大家想要的短期能见度 / 确定性都出来了。简单理解就是,一夜之间多出了一家大厂/ large hyper-scaler,25年峰值这个叙事从此应该没人再提(“25 peak concerns off the table”)- TSMC AVGO MRVL ARM ANET DELL HPE ALAB CRDO COHR CIEN MU HYNIX VRT VST PSTG LITE CLS APH 都在这个受益列表里*。
大家对于ORCL的情绪就有些不坚定了(“Skeptical”);ORCL上个季度的时候,大家还在担心OCI的backlog + 管理层在bus tour提到的op margins降低;这个星际之门当然是强心剂,带来巨额的收入增量,但是所带来的利润未必那么有想象力;微软这次退居二线,让人更加对“利润率”有所担忧(如果是一块大肉微软就自己吃了);low margin + costs before revenue,也是一些bear不坚定的原因。之前也有关于ORCL收购tiktok的声音,如果按照这样的capex投入的话,ORCL未必能有足够的现金流做这种额外交易。
180K:一个比较有意思的是,好多家都提到了Deepseek;大家都拿deepseek来证明,模型的商品化进程似乎比想象中快(some point out that China deepseek LLM is essentially trained on Open AI, so LLM training commoditizes quickly);
MS稍微给德州的集群做了个测算,100K GB200s可能产生10B的收入;详情下图。
对于MSFT的反馈也是比较“两面”(mixed feedback);好的方面是,微软不需要为了Open AI这个“训练客户”,深陷100B投资的泥潭;MSFT仍然有API access + Open AI的推理收入(继续推动Azure的货币化); 坏的方面就是,Open AI和微软疏远了之后,微软自家不再有领先的大模型(虽然有一个低调的Phi models);
最后Azure可能跟随AWS的道路,那就是集合各家模型(a host for leading models);这里回到了我们对于模型“商品化”的讨论,可以参考我公众号12月9日的一些讨论;之后的云大厂道路可能更加“集成”,提供各种各样的模型让大家去自由调用(180K:譬如你软件里面需要省钱的模块就调用deepseek,需要其他功能的模块再调用其他的LLM);留给GOOGL, META & xAI的问题是,他们要如何应对OAI的这个100B挑战?需要提升多少capex?
虽然微软失去了OAI的训练收入,但是微软目前和OAI的合作方式还仅仅是通过credit drawdown的形式(大概还剩下4B的额度);
UBS的观点是,这次微软退居二线,是从投资 vs 回报角度的一个“明哲保身”;之前媒体报告的OAI目标是,收入从24年的3.7B提升到26年的100B(30倍的一个“大饼”);虽然OAI的训练需求在这几年不太可能也增长30倍,但是要匹配这个野心下的GPU支出仍然是天量。微软可能选择把支出分配到推理层面(继续应对OAI + 其他的企业用户)更为实际一些。
很多买方的反馈也集中在,这个100B,是不是英伟达?如果这个星际之门马上执行的话,从NVDA开始几乎是唯一选项;虽然OAI和AVGO在ASIC有合作,但是ASIC的生产至少是12-18个月之后的事情;ORCL暂时没什么ASIC的消息,软银的进展就更远了(不过软银的ARM不可忽视)。
上面提到deepseek / 模型商品化,多说两句。
这里引用Ben的一些观点,写得挺好。
文章来源:180K,原文标题:《外资交易台 | 机构对星际之门的一些反馈 (1月23日)》