AI进入一切智能设备,已经是消费电子产业的新趋势。
11月22日,在一次媒体活动上,联想集团董事长兼CEO杨元庆指出,未来的PC市场,将由AI PC所主导。
杨元庆认为,所谓AI PC,需要具备以下五大特质:能够运行经过压缩和性能优化的个人大模型;具备更强的算力,支持异构计算;具备更大的存储,形成个人知识库,为个人大模型提供燃料;更顺畅的自然语言交互;更可靠的安全和隐私保护。
华泰证券分析师黄乐平等也指出,生成式AI的出现,会改变过去40年一直保持稳定的以Wintel(Windows+Intel)联盟为核心的PC生态:
从应用角度,连接企业数据库的知识问答,基于个人信息的文生图工具和个人助手等可能成为第一批AIPC应用;
从芯片角度,对AI应用支持更好的ARM芯片可能在2-3年之后占据全球20%以上重要份额;
从PC品牌角度,新的应用和更多的芯片供应商会缩短换机周期和提升毛利率。
应用:尚处于雏形阶段 三类杀手级应用已经出现
据高通统计,AI终端应用已从去年的1-2个增长至今年的数百个,预计2024年将达到上千个。
分析师指出,目前AI落地PC的应用可大致分为6类:
1)文字交互:人机对话、问答;
2)文字生成:文字归纳总结、撰写演讲稿与邮件、扩写文章;
3)音频/图像/视频:音视频编辑、视频压缩;
4)跨模态搜索:根据文字搜索图片、根据文字/图片搜索视频内容;
5)跨模态生成:文生图(根据文字制作PPT配图)、图生文(根据配图生成PPT文字)、语音转文字、文稿生成视频;
6)与应用软件协同优化:视频会议软件人像背景分离、视觉与游戏增强、网络安全。
不过,目前AI PC应用尚处于雏形阶段,分析师认为,有望在初期成为杀手级应用的有三类:连接企业/个人数据库的知识问答、图像生成与处理工具、AI个人助手(例如微软Copilot)。
杀手级应用#1:基于企业知识库的知识问答
企业对数据隐私、数据安全的高要求推动知识问答功能在AIPC的落地。企业可以通过内部数据对基础模型进行微调,在端侧再加入企业知识矢量数据库中的特定知识,最后链接旧有的ERP系统、CRM系统、MES系统等供应商数据库,得到一个混合的AI系统,既能够既保证数据安全,也具有泛化知识,同时能够回答企业相关的特定问题。
下图是Microsoft365Copilot的例子,基于用户在MicrosoftGraph中的业务数据(电子邮件、日历、聊天、文档等),Copilot可以从会议、电子邮件和聊天中生成更新,让用户了解项目进展,或者根据内部文件和网络数据创建SWOT分析。
杀手级应用#2:图像生成与处理
我们认为用户对图像生成与处理的需求较大,未来AIPC的应用或包括:1)上传本地图像训练定制化图像模型,再生成新的图像;2)图像处理。我们认为AIPC能够满足用户对于隐私性的需求。
杀手级应用#3:AI个人助手
我们认为类似微软Copilot形态的AI个人助手或将改变人机交互方式,用户通过个人助手实现一定基础功能,并调用其他软件完成进阶功能。AIPC能够创建个性化的本地知识库,通过模型压缩技术运行个人大模型,实现AI自然交互。个人将拥有AI孪生设备,进一步提高生产力、简化工作流程,并保护个人隐私数据安全。我们认为微软Copilot是值得关注的产品形态。
总体而言,随着PC经历从互联网阶段到基于云计算的移动互联网,办公软件也普遍实现云化,推动大量在线协作工具及企业协作平台的出现。如今,AI已在多种生产力工具中实现落地,如WPSAI、微软365Copilot、谷歌DuetAI等,显著提升办公效率,Zoom等沟通工具也新增了基于大模型的重点摘要、自动回复等功能,办公软件进入基于AI的新时代。
芯片:ARM架构市占率进一步提升
芯片方面,分析师认为,ARM 架构 CPU 具备低功耗、高性能等特点,符合 AI PC 发展趋势,在 2-3 年之后有望在全球 PC 芯片市场占据一个重要份额(>20%)。
目前一台 PC 通常需要以下芯片:1)一颗内置 GPU 功能的 x86 架构的 CPU, 2)DRAM 运行程序,3)NAND 用来存储数据。AI大模型的出现对 PC 用芯片提出了新的需求。
华泰证券指出,根据 IDC 统计,2022 年在 PC 市场,从出货量上看,Intel 芯片占比 71.5%,AMD 占比 16.2%。2022 年,ARM 架构 CPU 在 PC 市场的市占率约 11%,主要布局厂商为苹果。
2023 年 10 月,高通推出的基于 ARM 架构 X Elite 芯片具备突出的 AI 性能表现,符合AI PC发展趋势,有望带来 ARM CPU 在 PC 市场取得进一步突破。
PC品牌:AI推高配置要求 缩短换机周期
分析师还指出,AI应用落地将对PC性能提出更高要求。
算力方面,高通、英特尔、AMD等芯片厂商纷纷展开布局,陆续推出针对AIPC场景优化的芯片产品。在PC侧,使用独立GPU运行AI运载,具备高性能、高吞吐量等优势,但功耗高;NPU方案更具高能效、低功耗等特点,但对高性能要求AI负载支持能力有限。
考虑AI任务需求以及用户偏好不同,分析师认为AI PC市场使用1)CPU+NPU;2)CPU+独立GPU;3)CPU+NPU+独立GPU组合作为处理AI负载主力的算力架构方案或将长期共存。
存储方面,由于大模型的离线应用将占用一定内存,同时AI模型大量的计算也将对总线带宽提出更高要求,因此将对PC终端的存储能力提出更高要求。在内存方面,以运行7B的LLM为例,在INT8量化下,分析师认为大模型端侧推理将为PC带来约8GB的内存提升。
因此,随着AI大模型渗透率的提高,为了跟上AI软件的性能要求,消费者和企业也势必会加快PC更换频率。
本文主要观点来自华泰证券黄乐平(S0570521050001)等撰写的研究报告,有删节