微软正在人工智能(AI)领域积极地“跑马圈地”,缔结新的合作关系,同时又将在拓展AI掘金的工具,要和英伟达等芯片巨头分一杯羹。
美东时间11月15日周三,微软在官网宣布,与AMD和英伟达建立新的合作伙伴关系。AMD将为微软客户带来新的AI和计算能力;英伟达在微软智能云Azure上为全球企业和初创公司推出生成式AI代工服务。
在公布和两家芯片巨头新合作的同时,微软在Ignite 2023技术大会上首次推出两款定制芯片,均为微软设计,为Azure服务。
其中Azure Maia 100是一款AI加速器芯片,也是微软的首款AI芯片,用于OpenAI模型、Bing、GitHub Copilot和ChatGPT等AI工作负载运行云端训练和推理。它采用台积电的5纳米工艺制造,有1050亿个晶体管,比AMD挑战英伟达的AI芯片MI300X的1530 亿个晶体管少约30%。
媒体称,Maia 100可能和英伟达的芯片正面对决,成为英伟达芯片的替代品。
微软主管Azure硬件系统和基础设施的副总Rani Borkar表示,她没有详细了解 Maia与英伟达H100等替代品相比的性能如何。不过她指出,Maia芯片支持微软首次实现亚8位数据类型、MX 数据类型,以便共同设计硬件和软件。这有助于微软支持更快的模型训练和推理时间。
微软提供的下图展示了微软实验室内的Maia 100 AI 加速器的定制机架及其“助手”。 这个助手就像汽车散热器一样,在处理AI工作负载的计算需求时,在机架之间循环液体来冷却芯片。
Maia 100的问世印证了今年稍早的微软自研AI芯片消息。当时媒体称,芯片是为训练大语言模型(LLM)等软件而设计,同时可支持推理,能为ChatGPT背后的所有AI软件提供动力。近几年,微软一直努力开发面向其服务器的定制芯片,为Azure云计算服务提供支持。
另一款Azure Cobalt 100是一款基于Arm架构的128核云原生芯片,用于处理通用的计算任务,针对通用工作负载的性能、功率和成本效益进行了优化。它是英特尔处理器的竞品。
微软提供的下图展示,位于华盛顿州Quincy市数据中心的服务器。它们是首批由微软Azure Cobalt 100 CPU支持的服务器。
微软同时宣布,另一基于微软数据中心集群的创新产品Azure Boost将正式商用。该系统可将存储和网络进程从主机服务器转迁移到专用硬件和软件上,从而提高存储和网络速度。
微软介绍,作为定制芯片的补充,公司正在拓展与芯片供应商的合作伙伴关系,为客户提供基础设施选项,包括以下分别同AMD和英伟达的合作:
- 微软将在Azure 中添加AMD MI300X 加速虚拟机(VM)。ND MI300 VM将采用AMD最新的GPU——AMD Instinct MI300X,旨在加速AI工作负载的处理,以实现高范围的AI模型训练和生成式推理。
- 微软为英伟达H100芯片打造的全新NC H100 v5 VM系列开放预览,将提高大中型AI训练和生成式推理的性能、可靠性和效率。微软还发布了ND H200 v5虚拟机系列计划,这是一款AI优化虚拟机,配备即将推出的英伟达H200芯片。
微软主管Azure硬件系统和基础设施的副总Borkar表示,在Cobalt 100上运行的虚拟机实例将于2024年通过微软Azure云实现商业化。她并未透露发布Maia 100的时间表。
Borkar说,微软基于客户的反馈打造用于AI计算的芯片。微软正在测试Maia 100 如何满足旗下搜索引擎必应的AI 聊天机器人Copilot、GitHub Copilot 编码助手和OpenAI模型GPT-3.5 Turbo的需求。
在Azure AI方面,本次微软Ignite技术大会介绍,支持16K token提示词长度的GPT-3.5 Turbo 模型将正式商用,GPT-4 Turbo 将于本月底在Azure OpenAI服务中公开预览。GPT-4 Turbo将使客户能够扩展提示词长度,为生成式AI应用带来更多控制和效率。