周末听了a16z的podcast,启发很大;里面有一句提到关于大模型的货币化,让我印象很深:
That (LLM model layer)is not the best layer to monetize it. In fact, there might not be any money in that layer.
大概意思就是,AI大模型层面上,变现的机会并不是很大;甚至在AI模型这个层面,毫无利润可言。
顺着里面提到的一些思路,聊聊 AI模型层的利润 vs AI应用的边际成本。
AI的模型层不是一个好的变现层
1/ AI模型是不是一个“通用商品”? 这个辩论不算新鲜;但是现在,deepseek把这个叙事推向了另外一个高度。回顾一些关键的时间节点:
2003年 - Nicholas Carr的一篇“IT doesnt matter”;完美解释了IT技术如何成为一项“通用商品”,最后变得“无关紧要”;
2022年 - chatGPT横空出世;开始零星听到有人把IT商品化的思考,拓展到了AI;
2023年5月 - Google的内部文件声称,AI并没有护城河
2024年 - 各家巨头的CEO都在公开场合讨论AI commoditization;比如微软,亚马逊(尤其是在re:invent发布会上)
2025年1月 - Deepseek横空出世;在更小更多的设备上部署AI成了可能;很多服务商已经开始竞相提供最低价的R1解决方案(开始朝着“成本角度”去竞争);
2025年2月 - Open AI 开始聊开源;
2/ 如果你接受了AI模型最后会变成“通用商品”技术 (a generic commodity),而且没有明显的“差异化” / “网络效应(network effects)”,那么你就很难去在这个基础上建立一个拥有大量溢价 / 利润的业务模式。在这个层面上,你基本上聊的只能是是“边际成本”;
3/ 这个说法在我们现在这个时间点上,仍然还是有点反直觉的。巨头们用地球上规模最庞大的资本,买了大量最先进的英伟达芯片,难道不就是为了创造出最为复杂的“AI明珠”吗?怎么就成为“通用商品”了?
4/ 一项技术复杂精密,并不代表它不能成为“通用商品”。举一个不是那么贴切的例子,个人电脑现在看起来司空见惯,但是其刚刚被发明出来的时候,却仍然凝结了人类当时最先进的硬件和软件,这并不代表它不能逐步迭代,而成为“通用商品”;
就算是现在最低端的智能手机,放在10年前,仍然称得上非常的复杂,但是几乎也只能按照“边际成本”去销售;(苹果手机吃掉了智能手机大部分利润,正是因为它把其做成了一个消费公司 / "consumer discretionary",而非单纯的科技公司;)
5/ 历史也给过一些启发。回顾互联网的发展史,人们曾过度专注于从互联网最底层的基础设施(即HTML和HTTP)去实现盈利,但是历史最终证明互联网的商业价值不在于底层协议,而在于应用层(譬如我们现在熟悉电商 /广告/流媒体);
如果HTTP的这个例子太过老套,大家也可以参考“5G时代”的投资体验;当时一大堆基金经理冲进去中国移动等5G基础设施标的,最后证明腾讯这类的应用公司,才最终掌握了行业的大部分利润。
6/ 亚马逊在去年12月 Re:Invent的时候,对AI模型商品化有过一些挺好的描述,在现在看来也仍然有很多启示;大意就是,AI能力会变得非常非常重要,重要到其不再成为一种非常特殊的东西(钢铁是构建现代建筑必不可少的东西,但是钢铁也仅仅是一个commodity,谁便宜谁好用,就用谁的。)
AI模型不再特殊,而是成为和数据库,储存等云计算时代的传统参数一样,成为构建AI应用需要调用到的计算处理之一。
7/ 回到AI大模型的护城河这里,Google的23年的内部文件其实已经“预言”了deepseek这类挑战者的出现;我这里简单摘录一些;
我们一直在关注 OpenAI;谁将跨越下一个里程碑?下一步将是什么?但不舒服的真相是,我们并没有准备好赢得这场军备竞赛,OpenAI 也没有。在我们争吵的时候,一个第三方(开源模型)正在悄悄地抢走我们的市场。
简单来说,开源模型正在超越我们;仅举几例,人们在Pixel 6手机上上以每秒 5 个tokens运行基础模型;人们也可以在一个晚上在大家的笔记本电脑上微调个性化的人工智能;
尽管我们的模型在质量上仍然略有优势,但差距正在惊人地迅速缩小。开源模型更快、可定制性更强、隐私性更好,并且在能力上更具性价比。它们用 100 美元和 130 亿参数完成的事情,我们在 1000 万美元和 5400 亿参数下却难以做到。而且它们是在几周内完成的,而不是几个月。这对我们有深远的影响;
我们没有秘密武器。我们最好的希望是向谷歌外部的其他人学习并与他们合作。我们应该优先考虑支持第三方集成;人们不会为一个受限的模型付费,当免费的、无限制的替代品在质量上相当时。我们应该考虑我们的价值真正在哪里。
巨型模型正在拖慢我们的进度。从长远来看,最好的模型是那些可以快速迭代。既然我们知道在<20B 参数范围内可能实现的内容,我们应该将小变体视为重要内容,而不是事后考虑。
我们应该认真考虑每个新应用或想法是否真的需要一个全新的模型。如果我们确实有重大的架构改进,导致无法直接重用模型权重,那么我们应该投资于更激进的蒸馏形式,以便尽可能保留上一代的能力。
如果我们能够更快地对小模型进行迭代,大模型在长期内并不会更具能力;LoRA 更新的生产成本非常低(约 $100),适用于最受欢迎的模型大小。这意味着几乎任何有想法的人都可以生成并分发一个。训练时间通常在一天以内。
在这种速度下,所有这些微调的累积效应很快就会克服起步时的规模劣势。实际上,就工程师工作小时而言,这些模型的改进速度远远超过我们使用最大变体所能达到的效果,而最好的模型已经在很大程度上与 ChatGPT 区分不开。专注于维护地球上最大的一些模型实际上使我们处于劣势。
直接与开源竞争是一项失败的提议;现代互联网之所以依赖开源,是有原因的。开源具有一些我们无法复制的重要优势。
如果AI模型层不能变现,那么巨头们为什么还花“冤枉钱”?
我们姑且先接受AI大模型即将成为“通用商品”,并且很难货币化这个观点;那么各家巨头们为什么在deepseek之后,仍然继续提升25年的capex投入呢?
1/ 花大钱,办大事,是云计算大厂的思维惯性;现在主流的AI模型,多数是由云厂商去推动的(这里把Meta先放在一边,回头再聊);云计算时代,他们就是通过巨额的资本支出去获得竞争优势,所以在AI时代,这个思维惯性自然会保留下来;在巨头眼里,资本支出 + 数据,是他们的战略优势;所以通过战略优势去scale up,顺理成章。
2/ 其他硅谷的初创公司也都采取大云厂这类scale up的方法(包括Meta + xAI + anthropic),因为在同一个生态系统里面,大家都习惯在微观上去做优化和改进,争夺同类的资源(人才 + 算力 + 数据),反而忽视了一些宏观层面的模型架构改变。中国模型生态,因为芯片的限制,反而出现deepseek这类型的突破。
3/ 这类型的思维惯性,在互联网的早期阶段,也出现过。引述 Marc Andreessen的一个说法,
在90年代的互联网萌芽期,许多大型机构投资者(如银行或主权基金)渴望布局互联网,却对如何投资软件公司一筹莫展;最终这些机构做了什么?他们集体涌向了光纤基础设施投资;如今我们正在目睹历史重演:众多银行和大型投资者纷纷转向数据中心建设,因为他们依然不擅长投资初创企业。这可能导致一个结果:正如当年的光纤过剩,我们或将面临数据中心的过度建设潮。
4/ 云厂的大量投资,来自于思维惯性,也来自于FOMO(害怕错过这场军备竞赛);这是个老话题了,我随便贴两张图上来(Google和Meta关于FOMO的表述);
5/ 简单用大白话来说,就是
大科技穷的只剩下钱,累计了十多年的资产负债表,需要找个办法花出去(前几年花钱慢也一直被分析师们诟病);
如果还没有明确知道要投什么,那最简单直白的就是直接投基础设施;有基础设施,也能笼络对应的人才(譬如有一个KPI是,每工程师/GPU数量)
FOMO,别人都在投,投了不一定赢,不投一定输;“生态卡位”对于巨头而言至关重要。
Capex对于主营业务也确实有提振作用(譬如云计算 vs 推荐算法)
探索未知的业务模式;如果真的等到真正的商业模式出来了再追赶,可能也会来不及。
6/ 具体到各家大厂,
亚马逊 / 微软 / 谷歌 都在争夺云计算份额,不管自家模型能不能赚钱,云计算还是很赚钱;各家云厂在这次的业绩会上都提到,如果不是因为capex的限制,云计算增速可以更快一些。
Meta虽然没有自己的云计算业务,但是各个app的推荐算法,广告也都需要巨大规模的计算量;就算模型用不上,推荐算法也都能兜底; Meta还对于在移动互联网时代受限于苹果耿耿于怀,所以其更加有动力去卡位生态,同时用开源追逐下一个计算平台(包括VR)。
这里苹果也有自己的“惯性思维”,那就是在移动互联网时代,充当入口;只需要和AI模型赢家合作,也能够有战略角度。
用第一性原则推演苹果的AI战略
7/ 这里值得注意的是,光纤过量投资,导致公司破产,和现在的AI资本投资存在本质的差异;这次AI的主要投资者是几大巨头,每家都有非常稳健的主营业务提供几乎无限量的资金,就算AI模型的变现永远不会到来,它们也能安然无恙;尽管很多人喜欢将AI与互联网泡沫相提并论,但是当时的资本方主要是风险投资资金;VC的钱,很容易面对后面LP的压力,其风险承受力,和这些巨头根本无法相提并论。
8/ AI模型层赚不了钱,和巨头持续投入,这两者没有必然的关系,因为巨头的出发点,并不完全是从短期的财务角度出发(这里涉及到了很多博弈论 / game the)。二级市场看到了deepseek并没有导致Capex支出的大量降低,重新欢欣鼓舞,仿佛一切都没有发生过。但是这或许仅仅是通过错误的原因,找到了“正确”的结果。
9/ AI模型层赚不了钱,不代表拥有模型层优势的巨头没办法通过其他业务赚钱。譬如Chrome虽然免费,但是google搜索却卡位流量入口端,赚的盆满钵满;互联网时代的那套bundle vs debundle的赚钱方法可能仍然适用。
从互联网时代到AI时代
1/ 互联网时代的变现非常简单,"lauch free, go viral, work out revenue later";先把流量冲上去,然后自然而然就可以变现。AI时代的变现,目前看来,并非这么直观。
2/ 科技巨头也不是没有尝试过AI的变现;微软的copilot 和谷歌的gemini都尝试过做出一些货币化的初步尝试;但是这一个过程并不顺利,所以他们几次调整了自己的计费方式;主要还是通过和“现有业务捆绑” vs "按用量计费”的形式;
谷歌gemini
微软copilot
3/ 基于使用量计费的形式,现在看起来似乎很符合直觉,因为AI时代的“推理成本”,让软件重新拥有了“边际成本”;但是基于使用量的计费形式,其实是很反常识的,也是和计算的历史背道而驰。
4/ 我们曾经历过“拨号上网”的年代,当时流量还按用量计费,我也曾经因为下载了一个游戏,不小心花了好几百块的流量费。然而现在,虽然我们也每个月在给移动电信交一笔上网费,但是却很少有人再去计算“上网流量”的用量。
互联网巨头企业,在流量按量计费的时候,并没有成为巨无霸,反而是在“流量无限” (或者没有什么边际成本的时候),才开始吞噬一切。另外一个例子,就是我们从来没有考虑过,在双11抢折扣的时候,淘宝需要调动多少云计算算力,去支持我们的每一次成交。
5/ 我们仍然处在“按量计费”的阶段,可能就是因为我们仍然在这项技术应用的“过渡期”;什么时候我们调用AI,调用模型,如呼吸般简单,也从来不需要考虑价格,那时候AI应用时代可能才真正到来。
6/ Deepseek的出现,让我们对边际成本/marginal costs的降低,看到了更大的希望。这里我引述Steven Sinofsky的表述,
人工智能的成本,正如大型计算机向X.25网络连接转型时的成本问题一样,本质上迫使市场必须发展出一种无需大规模直接资本投入即可扩展的替代方案。从各方面来看,DeepSeek的最新方案似乎正代表着这种方向。
Deepseek的模型能在普通商用硬件,且无需联网的环境下运行,加之其开源属性,已足以对当前依赖超大规模投入的人工智能发展路径构成有力挑战——这种突破性进展,足以被视为"未来技术演进的方向"。
7/ Yishan对于deepseek也有过类似的描述,
8/ 当然也有人认为marginal costs会因为test-time计算而一直存在;这主要取决于你认为我们究竟处在技术进步的哪一个阶段(可能最终test-time计算也会变得非常便宜)...
本文来源:180k,原文标题:《AI模型层可能毫无利润可言(2月10日)》