从这里开始聊,
Sam Altman在X上面说自家的图像模型太受欢迎,导致GPU过载(原话是,“GPUs are melting”...GPU快烧融化了);需要限制使用次数来应对推理的需求。
这要是放在半年,一年前,整个芯片/算力链应该狂升;但是市场却仍然在讨论微软减单,英伟达中国(FT的那篇报道);
市场现在很熊,好消息不怎么升,坏消息(就算是谣言)狂跌。
不过我们先退一步,不聊市场,聊聊GPT图像模型带来了什么样的叙事变化。
GPT图像模型带来的叙事变化
1/ AI图像生成不是新的东西(不过这次OAI用了auto-regressive vs 之前大家用的diffusion)。不过AI图像生成,从概念到大规模应用需要突破一些门槛。第一个门槛是prompt,提示词不能太复杂,让普通用户通过一系列“半编程语言式”的提示词去改图,不现实也很低效;第二个是门槛是效果,生成的东西一股AI味,或者缺胳膊少腿,都只能当做是一种“玩具”,而非“应用”;
2/ 这次Open AI的图像模型似乎跨过了这两个门槛。何以见得?看看X上面的盛况就知道,大家(不管是专业的从业者,或者门外汉)都在分享自己用GPT生成的图像。第一,提示词简单(用自然语言就可以修改);第二,效果好(没太多AI味,所以让人更有分享欲;所以才在X病毒式传播);
3/ 之后对各行各业会有无数的变化;譬如社交媒体,以后朋友圈不需要找照片配图了,可能可以直接给一个按钮AI生成;譬如PPT,之后不需要一堆死气沉沉的排版,可以创意无限;譬如美图秀秀,譬如电子书,譬如网站设计...你可以想出很多,这里我就不赘述。AI本身就是一个通用技术,可以和无数行业去杠杆。
4/ 不过这里我想特别挑出广告业来聊聊(广告和电商是互联网TAM最大的两个行业);当高质量+简单的文生图/文生视频普及后,推荐算法可能会变得更加细致。
为了可视化更加清晰,我做了几张很丑的图片。大家不要介意。
以前的广告业,广告和内容死板的叠在一起(纸质媒体时代+门户互联网时代);广告匹配用户的效率不高。广告有限+渠道死板+广告TAM和广告巨头规模不大(比如电视+门户网站)
移动互联网时代,开始流行“千人千面”的说法,机器算法推荐,把合适的广告推给合适的用户。广告有限+渠道灵活+广告TAM和广告巨头膨胀(比如META+腾讯)
AI时代,高质量的文生图让广告成本骤降,理论上你可以生成“无限量广告”(比如小米SU7,可以有漫画版+青年版+商业人士版+北京版+23岁的北京版+25岁的山东女生版+喜欢看雷总版+喜欢看马斯克版;甚至极端情况下,每一个人都可以看到一个完全不同版本的小米SU7广告);广告无限+渠道灵活+广告TAM再次膨胀(为了广告效率,更有钱的巨头会不会更加用力地卷推荐算法?这里大家自己想)
市场对于AI的算力一直放在AI本身(图中的“AI生成”),而忽视了围绕在AI身边的其他算力。看看这张图(要做好那乱七八糟的红线,“AI定位”推荐算法需要消耗多少算力?)。
5/ 我这种无名小卒说的话不管用,那我们看看老黄的表述(我直接用AI机翻了)。
下面引述Jenson,
我将倒着说。这个估计可能被低估了,但我们进行了估计。让我告诉你为什么……当你浏览互联网、新闻、视频、音乐,以及推荐给你的产品时,因为你知道,互联网有数万亿——我不知道有多少万亿,但确实是数万亿的信息——而你的手机只有 3 英寸见方,因此他们将所有这些信息压缩到如此小的空间的能力,是通过一个系统,一个叫做推荐系统的惊人系统。
I’ll go backwards. The estimate is probably understated, but we estimated it. And let me tell you why…when you run the internet, the news, the videos, the music, the products that are being recommended to you because as you know, the internet has trillions — I don’t know how many trillions, but trillions of things out there — and your phone is 3-inches square, so the ability for them to fit all of that information down to something, such a small real estate, is through a system, an amazing system called recommender systems.
这些推荐系统曾经完全基于 CPU 方法。但最近迁移到深度学习以及现在的生成式 AI,确实使这些推荐系统直接进入了 GPU 加速的轨道。它需要 GPU 加速来处理嵌入。它需要 GPU 加速来进行最近邻搜索。它需要 GPU 加速来重新排序,并且它需要 GPU 加速来为您生成增强信息。
These recommender systems used to be all based on CPU approaches. But the recent migration to deep learning and now generative AI has really put these recommender systems now directly into the path of GPU acceleration. It needs GPU acceleration for the embeddings. It needs GPU acceleration for the nearest neigh bor search. It needs GPU acceleration for the re-ranking and it needs GPU acceleration to generate the augmented information for you.
所以 GPU 现在在推荐系统的每一个步骤中都发挥着作用。正如你所知道的,推荐系统是地球上最大的单一软件引擎。几乎每个主要公司都必须运行这些大型推荐系统。每当你使用 ChatGPT 时,它正在进行推理。每当你听到 Midjourney 以及他们为消费者生成的各种内容时,当你看到 Getty,我们与 Getty 和 Adobe 的 Firefly 所做的工作时。这些都是生成模型。这个列表还在继续。正如我提到的,这些在一年前都不存在,100%是新的。
So GPUs are in every single step of a recommender system now. And as you know, recommender system is the single largest software engine on the planet. Almost every major company in the world has to run these large recommender systems. Whenever you use ChatGPT, it’s being inferenced. Whenever you hear about Midjourney and just the number of things that they’re generating for consumers, when you when you see Getty, the work that we do with Getty and Firefly from Adobe. These are all generative models. The list goes on. And none of these, as I mentioned, existed a year ago, 100% new.
6/ 上面老黄的说法可能稍微有些不容易理解(ermm..老黄一直都有点乱)...我按照自己的理解,就是画出上面的图。
我们聊AI推理,AI生成,常常只是聊“文生图”的这个“推理算力”,没聊到“把生成的图”,推荐到对应用户里的这个“算力”;但是按照一个比较自洽的逻辑思路,我们应该从广告的TAM(推荐越有效率,广告主ROI越高,TAM就越大),算到推荐算法的TAM(“用AI来定位”),再算到文生图、文生视频的TAM(“用AI来生成”),再来预测算力需求。
8/ Meta的Dave Wehner也曾经说过,
推荐内容,推荐广告,都需要大量的算力(尤其是现在处于从CPU向GPU过度的阶段);
这是Meta的Mark Zukerberg的说法,
9/ 有时候和一些朋友聊天,大家都在一个房间里,我们看似都在聊AI,但是聊的是不同的东西。
比如我们在3月19日这篇公众号提到的。
10/ 你也在花钱买capex,你也有ai支出;但是我的支出是为了推荐算法(腾讯meta之类),你的支出是为了云计算(AWS阿里之类),他的支出是为了给平台减成本(比如电商平台给广告商AI工具);我们聊的东西都不一样,简单直接去比较1200亿vs1000亿,80B或者100B,又有什么意义呢?
最近市场的一些气氛
早上星球微信群发完,一个朋友来找我聊了一会;我用对话式的形式呈现,
A:awz/azure还是在按照20%网上的增速在跑,我们说的并不是funky的AI应用/变现收入,而是更加有可见度的云计算收入(多家管理层多次提到,云计算仍然受限于硬件);AI capex没有太过分的泡沫;云计算有一个更加清晰的capex逻辑,那就是不亏就行(比如只要能赚回5-6年的GPU折旧价格);从这个角度看,你很难说这几家云厂支出有什么大问题(就算有,他们的负债表+现金流也能完全支持);
B:没错,不过英伟达增速的二阶导数变成负数了;仍然增长,但是大家共识是继续增长,但是增速降低了;
A:最近大家都只是在跑分上突破(比如grok),但是如果突然有人在算法/新的层面突破了呢?那另外那几家会不会怕,会不会加码军备竞赛?如果你不认为技术会在这里停止突破,那算力是升还是跌?
B:这个技术突破可以是向上,也可以是是向下。比如deepseek,从成本上“向下”突破,那我们有jevons paradox,但需要看应用能不能赶上;要是能从能力上“向上”突破,那么算力逻辑就可以照原来路径走;现在大家都是在黑暗里面射飞镖,没人能够确切知道下一个技术突破的路径。
A:OAI已经用3000亿估值融资了,看似很多,但是正是因为技术突破还没成为定数(要不然就不是3000亿这么便宜了);
B: 这里我们不能假设一级市场的定价是正确的。实际上一级二级,包括产业界,大家都是在摸索中定价。
最后是一些大家比较关心的蔡崇信 + FT + 微软的信息
我总结了一些Q&A,
如何理解蔡崇信说的美国AI存在泡沫?
美国AI产业主要风险:
-
成本高企 -
多数模型闭源 -
应用开发缓慢→高价导致普及迟滞 -
数据中心建设长期或供过于求(美国年建5-6GW vs 中国3.3GW,受限于电力短缺) -
商业模式已显现问题
不能单纯理解成为“花的多”就是浪费,就是泡沫;而是北美的成本结构+应用丰富度需要留意。
FT那篇,中国禁H20如何理解?
-
从有关部门的角度,他们可能认为国产芯片推理性能已达标(用谈判的角度来看,H20这里我们能给压力,自己又不会损失太多); -
互联网公司仍热衷英伟达,但电信公司等被要求支持本土替代; -
若关税谈判破裂,这个H20叙事可能会更强(苹果+特斯拉和制造业关系千丝万缕,不要必要时候不搞;小公司搞了没啥影响力,英伟达变成关税谈判的一个好“谈判标的”,有点中国版tiktok的意思,trump也把tiktok和关税放在一起谈); -
这个新闻海外意外而已,但是本土早早有所耳闻。
微软TD COWEN的那篇(消息刚出来不久星球就给了报告),
-
微软之后有了声明;“现有投资已充分满足当前及增长中的客户需求...虽会战略性地调整部分区域基础设施,但所有地区都将保持强劲增长...这使我们能向未来增长领域调配资源”;这个和2月底那次传言没什么大的区别。
-
主要还是因为市场气氛太熊,看什么都是“半杯水空”,而非“半杯水满”;
接下来的一些AI催化剂。
来源:180K,原文标题:《从GPT的图像模型,到巨量的推理需求》