最近一轮AI之战,OpenAI、谷歌、微软都交卷了,现在,全世界的目光齐刷刷看向苹果。
全球开发者大会,就在6月上旬。选择这个时机发布新产品,苹果勇气可嘉。
被一众竞品抢尽风头后,苹果得拿出什么重大突破来,才能证明自己在AI领域还能让人兴奋?
看起来,苹果可走的路数不多了,所以外媒记者才意味深长地暗示:这次WWDC的主题应该是「迎头赶上」,而非「超越」。
毕竟,在LLM上,继ChatGPT和Gemini之后,苹果早已失去了先发优势;微软面向开发者的CoPilot生态,也是XCode短时间内无法企及的。
和英伟达的旧仇,也让苹果孤注一掷发展自研芯片,然而比起英伟达GPU,M2系列在成本和实际应用性能上都有些差强人意。
硬气的苹果,无疑在进行一场豪赌。
苹果,拼命追赶
彭博社记者Mark Gurman发出了一篇爆料文,预测了苹果即将在开发者大会上祭出的杀手锏。
Gurman分析道,比较引人瞩目的消息,就是苹果和OpenAI CEO Sam Altman的合作了。
在WWDC上,双方的合作伙伴关系很可能会昭告天下。
这就有点微妙了。一方面,这一举动,相当于让苹果向公众承认了,自己无法在AI最热门的领域竞争,通过「曲线救国」,它倒是可以拥有最先进的聊天机器人,从而硬刚一波使用Gemini的三星。
另一方面,最近Altman的名声不大好,OpenAI的公司结构看起来也不太稳定。
因此,苹果根本无法对OpenAI作为iOS新功能的单一供应商感到放心。(这就是为什么它还在和谷歌达成协议,把Gemini也作为备选)
根据预测,苹果很有可能着重发力软件方面,比如推出iOS 18、iPadOS 18、macOS 15等操作系统的更新。
iPad已经用上了最新的M4芯片,也许它会继续被集成到Mac Pro和MacBook Pro中?
对于外界最关注的AI功能,苹果将「另辟蹊径」,推出「Project Greymatter」,重点关注普通人在日常生活中可以使用的工具,满足用户对于「实用」的需求。
一系列新功能将分布在手机、平板和PC端,包括——
- 更灵活的主屏幕布局、自定义app图标颜色
- 语音备忘录转文字
- AI照片编辑
- 随短信内容变化的自定义表情符号
- Spotlight搜索更快速、准确
- Safari搜索改进
- 邮件和短信的自动回复建议
如果仅是这些功能,那就不免令人有些失望,毕竟,这些功能并不是革命性的,也很难吸引眼球,绝大部分都已经在谷歌或Meta的相关应用中存在。
OpenAI的GPT-4o语音最近虽然饱受争议,但让我们看到了语音助手可以拟人化、智能化到什么程度。
于是,全网期待的目光落在了被传和OpenAI合作的苹果上。作为最流行的语音助手之一,Siri有望在功能和声音上升级吗?
也有预测称,ChatGPT可能被植入到iOS18中作为聊天机器人插件;同时苹果也在「两手准备」,和谷歌洽谈Gemini的交易。
苹果的AI战略:数据中心、设备、云计算
与此同时,SemiAnalysis的著名爆料研究员Dylan Patel和Myron Xie一起,刚刚发了一篇文章,全面分析了苹果的AI战略。
在这篇文章中,两位记者提出了一个困扰着许多人的问题:苹果在AI领域到底在做什么?
要知道,现在全球都在疯狂抢购英伟达的GPU,然而苹果却没有参与这一「囤货」大潮。调查显示,苹果对GPU的采购微乎其微,连英伟达的十大客户都不是。
在WWDC大会前夕,各种传言满天飞。
两位记者对目前的各路消息来了个汇总。
加大M系列处理器产量,还要做自己的AI服务器
首先,有多个消息来源称,苹果今年将加大M系列处理器的产量,甚至达到创纪录的水平。
所谓M系列处理器,主要指的是M2 Ultra,它由2个片上M2 Max拼接而成,被苹果称之为「UltraFusion」。(有趣的是,据悉苹果的M3 Ultra被取消了。)
Ultrafusion指的是使用本地硅互连技术将两个M2 Max芯片连接在一起。在软件层面上,这两个芯片被看作一个单一的芯片。M2 Ultra利用了台积电的InFO-LSI封装技术。这与台积电的CoWoS-L概念相似,英伟达的Blackwell和未来的加速器也将采用这种技术。要说苹果和英伟达两种方法之间的唯一区别,就是苹果的InFO是芯片先行工艺流程, 而英伟达的CoWoS-L是芯片后行工艺流程,另外它们使用的是不同类型的内存
但是稍微仔细一想,就会发现:M2 Ultra的增产实在是很奇怪。
在需求上就完全找不到理由。M2 Ultra仅用于高端Mac Studio和Mac Pro,这些产品一年了都没什么有意义的更新,也没听说有哪个新产品要用到M2 Ultra。
总之,高端的台式PC和MacBook的需求都相当低迷,没有任何迹象表明,有什么消费需求能消耗掉这些设备。
所以,苹果究竟在下一盘什么棋?
跟M2 Ultra的增产消息呼应的,就是华尔街日报和彭博社最近的报道——苹果正在自己的数据中心,使用自己的芯片,为苹果用户提供AI服务。
另外,苹果在扩建数据中心基础设施上,也有着野心勃勃的计划。
两位记者发现,苹果目前至少有7个数据中心,涉及到30多座建筑,这还不包括计划中的项目。结果就是,这些数据中心的总容量在短时间内,就会翻一番。
上图是苹果公司即将建成的最大数据中心。目前只有一个数据中心,但明年将有许多数据中心陆续建成
挖来基础设施大牛
另外,苹果还在几个月内进行了一系列重大招聘,招兵买马扩张基础设施团队。
比如,他们挖来了云基础设施领域的大牛Sumit Gupta,来操刀苹果的基础设施。
Gupta在2007年到2015年效力于英伟达,参与了英伟达进军加速计算的初级阶段。随后他又入职IBM,再于2021年加入谷歌的AI基础设施团队,成为谷歌基础设施产品经理,包括TPU和基于Arm的数据中心CPU。
谷歌和英伟达算是目前唯二大规模部署AI基础设施的公司,能挖来这样的大牛,苹果要做的事恐怕不小。
苹果自研AI芯片
然而尴尬的是,M2 Ultra对于AI服务器来说,恐怕并不是个好主意。
虽然业界普遍认为,苹果的M系列芯片在AI性能上表现出色,但这仅限于设备端的AI应用,服务器上就不一定了。
现实的情况是,苹果的竞争对手们在笔记本和台式电脑上使用的内存架构要差得多:现有的英特尔、AMD和高通笔记本,都只有128位的内存总线,而苹果的内存总线宽度要远远吊打他们的CPU。
这就会导致这样一种后果:虽然其他笔记本电脑可以配备与苹果内存带宽相当的英伟达GPU,但是英伟达采用的是成本较低的GDDR6内存架构,而苹果采用的是高成本的LPDDR架构,这就需要更宽的总线、更大的芯片边缘面积。
这就让英伟达GPU受到了限制,它无法在内存中放下苹果CPU能够容纳的高级模型,比如Llama 3-70B。虽然苹果的每GB成本实际上更低,但LPDDR的内存容量太高。
这种优势并不能延伸到云端的AI性能。设备端主要关注模型是否能够运行,而云端则更关心经济性。
在云端,虽然原始带宽和容量很重要,但FLOPS的数量更关键,因为许多用户通过批处理同时服务。高批处理大小,可以将推理成本(tokenomics)降低到10倍以上。
这样的结果就是,M2 Ultra就像是一个糟糕社区中最好的一栋房子,它无法与数据中心其他GPU很好地协同。
不仅内存带宽方面落后于竞争对手,但更重要的差距,在于其FLOPS较少,导致并发用户数也大大减少。
Apple GPU中拥有的FLOPS数虽然极少,但幸运的是,好在他们还有神经引擎。
在苹果设备上运行LLM的一种策略,是将多层感知器(multi-layer perceptron)运行在神经引擎上,同时将注意力机制(attention mechanism)运行在GPU上。
不过需要注意的是,这里还是存在一个带宽问题,所以在总FLOPS方面,结果并不理想。
而且,就算我们能神奇地将GPU和神经引擎的FLOPS相加,性能仍然比数据中心GPU差了35倍到85倍。这意味着实现高批处理大小的能力有限,每个芯片服务的用户数量也会大幅减少。
对于Llama 3-70B,M2 Ultra的每个芯片能服务4-6个用户就算走运了,然而GPU却常能实现64或更多的批处理大小。
靠成本能弥补吗?
而且,目前我们还没有分析最重要的变量之一——成本。
采用自研M2 Ultra,苹果就无需支付商用硅或者定制设计合作者的高额利润了。
计算下来, 两个M2 Max芯片、InFO-L封装和192GB的LPDDR,成本大约在2000美元左右。相比之下,H100的成本达到了10倍之多。
但同时也要考虑到超过10倍的性能差异。即使对于Llama 3-70B这类模型,苹果也很难让M2 Ultra具备很高的成本效益。
此外,当模型规模超出单个芯片时,这种情况并不适用。
计算并不是简单地线性扩展,尤其是M系列的SoC并不是为这种扩展设计的。
芯片间唯一的互连是UltraFusion桥,将两个M2 Max结合成一个M2 Ultra。但这与英伟达的NVLink的高速Serdes芯片间扩展完全不同。
虽然苹果芯片在单位美元下能提供相当可观的总计算量,但是和直接购买英伟达GPU相比,也没差太多。
因为所有的浮点计算无法被集成到单一集群中,模型推理会被降级到以人类语速运行,规模上限是Llama 3同等大小,无法运行千亿参数模型。
为什么要自研芯片?
理性原因
如果苹果只是为了提供更好的Siri,自研芯片有点夸张。但实际上,苹果的目标远不止于此。
他们的目标是将所有数据、服务与AI集成在一起,这意味着从设备端到云端,从底层计算、操作系统到应用程序和数据,用户都会有无缝衔接的流畅操作。
这种愿景符合苹果一直以来对于用户体验的追求。但这不仅需要强大的AI计算性能,还需要从芯片到软件的高度垂直的完整技术链。
比如Siri可能需要在云中运行,在手机或者Apple Watch上应答,同时保证强大功能、高速通信和流畅交互。
其中的另一个卖点在于,苹果会在自己的数据中心处理用户数据,而不是发送到第三方云服务,保护数据的隐私和安全。
非理性原因
但搭建自己的数据中心需要大量芯片和服务器,英伟达作为全球首屈一指的公司,完全可以提供所有高性能计算的基础设施,自己从头开始显然不是最优解。
这看起来不太理性的商业决策,确实蕴含着一些情感因素,这里就牵扯到苹果和英伟达的一桩旧怨了。
虽然如今英伟达已凭「毫无瑕疵的工程执行力」封神,但过去的英伟达,也曾犯下不少重大的工程错误。
最大的一个,就是2006至2009年间的「bumpgate」丑闻。
在那段时间里,英伟达的整个55nm和65nmGPU系列由于高热量和糟糕的封装设计,早期故障率极高,超过40%。芯片和封装基板之间的凸点由于应力容易破裂,导致故障率完全不可接受。这是因为,英伟达选择了一种Tg过低的劣质填充物,因此在操作循环期间的高温下无法正确支撑凸点,导致了它们的疲劳
这就影响了GeForce 6000、7000、8000和9000系列,以及各种移动芯片组。
苹果、Dell和HP出售的含有英伟达芯片组的笔记本,全部受到影响。而糟糕的,就是英伟达的处理方式。起初,它拒绝承担责任,苹果、Dell和HP怒而对英伟达提起集体诉讼,迫使英伟达同意更换已售出的有缺陷GPU。
从此,苹果和英伟达的关系可以说是彻底破裂,英伟达再也没有被设计进任何一份苹果产品中。
甚至,苹果不惜选择性能和功耗更差的AMD GPU,甚至和AMD合作开发了一款在笔记本中使用HBM的定制GPU。
所有这些历史包袱,都会让苹果对再次依赖英伟达,感到心里打鼓。
苹果「芯」的未来
M2 Ultra推出只是苹果给出的一个临时的解决方案,并在逐步开发更强大的芯片。
不过,目前M3 Ultra已在内部取消。
M4 Ultra还未投入生产阶段,甚至可能会被搁置,成为下一个夭折的产品。
而目前,这些芯片还没有针对大模型所需的计算完成优化,其神经引擎结构带宽严重不足,需要加以改造,才能适配。
不过,苹果并不会去依赖其他芯片供应商,去帮助自己开发AI芯片。
我们可能看到,苹果授权使用高速串行通信(SerDes)技术,去设计开发数据中心的专用芯片。
但,这一过程还需要数年的时间,目前还处于构想阶段。
因此,在今年和明年,我们仍将看到苹果Macbook和Mac mini上,使用增强版的苹果芯片。
在AI PC时代「迎头赶上」
在大模型方面,毋庸置疑,苹果目前的成果无法和GPT、Gemini或者Claude等系列相提并论。
然而,继微软提出AI PC之后,可以预料到,AI与硬件和操作系统进行更深度的集成是大势所趋。
苹果想要继续走在智能硬件的前沿,就必须拿出有竞争力的AI模型,提供符合「苹果风格和价值观」的AI服务。
然而,他们似乎并没有储备足够的算力和AI人才来训练自己的AI大模型。
虽然App Store已经提供了ChatGPT应用的下载,但作为一个倾向于高度垂直整合的公司,做到这一步远远不够。
彭博社披露称,苹果已经与OpenAI达成协议,并正在和谷歌、Anthropic讨论,也许这类成熟的模型会直接被集成、封装在在苹果设备上,并使用与苹果品牌形象一致的系统prompt。
另一个值得关注的方面是搜索功能。
谷歌每年向苹果支付200亿美元,换取Chrome作为苹果的默认搜索引擎。但这其实是一个双赢的交易,从庞大且有钱的苹果用户身上,谷歌用搜索中的广告收入赚回这笔钱绰绰有余。
但随着ChatGPT、Llama与Claude相继发力向搜索工具转型,蚕食谷歌在搜索引擎方面的巨大市场份额,这种稳定的商业模式或许会发生改变。
归根结底,苹果不能只满足于硬件供应商的地位,无论其他公司的AI模型有怎样的进展,它至少要保持「迎头赶上」的节奏。
仅仅在App Store上线各种AI模型和应用会让它失去控制权,失去在数据和隐私方面的品牌原则,也错过生成式AI可能带来的用户增长和广告收入。
此外,和微软的AI PC全部在本地运行AI推理不同,苹果的「Project Greymatter」采用混合的工作方式——
大部分计算强度较低的 AI 功能在设备上完成,但如果需要更多算力,则将被推送到云端。
这项服务一经推出,很有可能在短时间内迎来大规模流量涌入,这对苹果的AI基础设施会是一个考验。
虽然在AI之战中短暂落后,但苹果有一个不能忽视的独特优势——庞大的忠实用户群。
一旦发布AI功能,全球的数亿台苹果设备,都可以在短时间内更新,并提供给用户试用。
在未来某个时间节点,苹果可能一夜之间成为全球AI竞技场上最大的玩家。
文章来源:新智元,原文标题:《苹果豪赌!神秘AI项目曝光,宁死不用英伟达?自研芯片全家桶都要AI了》