Meta发力AI:官宣训练和推理芯片项目,首款定制AI芯片超低功耗

Meta将这款AI芯片称为MTIA,它的功耗仅25瓦,号称比竞品芯片更有效处理中低复杂度的AI模型,目前重点放在Meta应用的推理、不是训练。Meta未透露配置MTIA的时间表,称MTIA是加快AI训练和推理的芯片“家族”成员之一。

继利用人工智能(AI)提升广告效果后,Meta又在芯片上发力。

美东时间5月18日Meta披露了旗下数据中心项目支持AI工作的细节,提到已经打造一款定制芯片,简称MTIA,用于加快生成式AI模型的训练。这是Meta首次推出AI定制芯片。Meta称,MTIA是加快AI训练和推理工作负载的芯片“家族”的一分子。

MTIA全称为Meta训练和推理加速器。所谓推理是指运行经过训练的模型。MTIA是一种ASIC,也就是将不同电路集成在一块板上的芯片,可以将它进行编程,执行一项或多项任务。

Meta介绍,MTIA采用开源芯片架构RISC-V,它的功耗仅有25瓦,远低于英伟达等主流芯片厂商的产品功耗。

Meta称,2020年设计了第一代MTIA芯片,采用7纳米工艺,那是同名MTIA项目的部分工作。打造第一代芯片的目的是提高推荐模型的效率,那些模型服务于广告和其他新闻推送内容。一代MTIA可以将内部128MB的内存扩展到高达128GB。在Meta设计的基准测试中,它处理了低等和中等复杂度的AI模型,效率比GPU高。

Meta的软件工程师Joel Cohurn介绍新芯片时称,Meta最初用图形处理单元(GPU)执行推理任务,发现GPU不太适合这种工作。用GPU固然可以大幅优化软件,但对真实模型的效率很低,现实配置时难度大、成本高。所以Meta需要MTIA。

Meta承认,MTIA芯片在处理高复杂度AI模型时遇到了问题,但指出,它比竞品芯片能更有效地处理中低复杂度的模型。

Meta表示,芯片在内存和网络领域的工作还未完成,随着AI模型发展,这些工作会出现瓶颈。目前,MTIA 的重点放在Meta应用家族的推理,而不是训练。不过Meta 强调,MTIA“大大”提高了单位瓦特的推荐负载运行效率,让公司能运行加强版的、更尖端的AI工作负载。

Meta本周四并未披露配置新芯片的时间表,也未说明具体有什么计划开发可能训练模型的芯片。

Meta同时介绍,计划针对以AI为核心的网络和冷却系统,重新设计其数据中心,今年内,首个相关数据中心的设施将破土动工。Meta的员工演示时称,新设计的成本将降低31%,而且建造速度是公司目前数据中心的两倍。

Meta还介绍了旗下的一种AI驱动系统,它可帮助Meta的工程师编写电脑代码。Meta的AI助力代码工具名为CodeCompose,目前没有对外公开。公司团队内部用它获取Python 和其他语言的代码建议。

今年ChatGPT掀起AI的热潮后,Meta正在努力追赶其他硅谷巨头加速开发AI功能的脚步。

2月Meta推出针对研究社区的大型语言模型LLaMA ,不同于ChatGPT和必应这类聊天机器人,它是开源的“研究工具”,可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者。当月有报道称,Meta将AI率先用于广告功能,推出名为Advantage+的广告产品,针对不同的用户,让AI根据算法自动生成广告。

上月初传出Meta年底前推出AI广告工具的消息。Meta首席技术官Andrew Bosworth当时说,Meta将推出生成广告图像的AI工具,帮助公司针对不同的受众制作不同的图像。

上月末Meta公布了优于预期的一季度业绩,并承诺要对火爆的AI领域加大押注。Meta的CEO扎克伯格评价一季度业绩时称,AI推动App和业务取得良好成果,还在业绩电话会上说,对AI和元宇宙要两手抓。

在Meta本周四官宣之前,其他科技巨头已有定制AI芯片的动作。

谷歌用简称TPU的处理器训练PaLM-2等旗下大型生成式AI系统。亚马逊为云服务AWS的客户提供训练和推理的专属芯片。上月媒体称,微软在与AMD合作开发名为Athena的自有AI芯片。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。