AI 2.0-网络时代启动?“超级以太网代表”Arista财报超预期 隔夜大涨6%

硬AI
以太网正在成为AI数据中心最关键的基础设施组件之一,Arista此次上调业绩指引,被认为是对未来信心更足的表现。

本文作者:李笑寅

来源:硬AI

在AI训练需求的提振下,计算机网络公司Arista Q1财报和业绩指引均超预期。

财报显示,Arista一季度营收同比增长16.3%,达到15.71亿美元,超出预期;公司一季度净利润同比大增46%,达到6.377亿美元。

营收指引方面,该公司对2024年收入预期的增幅从10%-12%上调至12%-14%,预计全年总营收在16.2亿-16.5亿美元之间,超出华尔街普遍预测的16.2亿美元。

隔夜,公司股价大涨超6%,报291.67美元/股。今年以来,该公司股价累计上涨近26%。

外界分析指出,Arista一般不会在Q1末就提高全年指引。因此这次上调指引,被解读为对未来信心更足

此外,在完成了先前20亿美元的股票回购计划后,Arista此次还宣布了价值12亿美元的股票回购计划。

AI集群时代来临?以太网“香”了

Arista于2004年10月在特拉华州注册成立,于2008年上市。该公司在数据驱动、客户端到云端的大型数据中心、园区和路由环境联网方面处于行业领先地位。

作为一家to B的网络交换器和路由器制造商,Arista主要服务于包括微软、Meta等在内的云服务商们。

Arista此次在财报中表示,训练AI大模型对性能的高要求提振了云服务厂商对该公司硬件产品的需求。

Arista董事长兼首席执行官Jayshree Ullal在财报电话会上表示,以太网正在成为AI数据中心最关键的基础设施组件之一。

Ullal解释道:

“AI应用是无法单独运行的,它们需要计算节点之间的无缝通信。”

“而随着生成式AI训练的发展,如今需要成千上万次单独迭代。(所以)网络拥塞导致的任何减速都会严重影响应用性能,造成效率低下的等待空耗,导致处理器性能下降30%甚至更多。”

简单来说,AI工作负载无法容忍网络延迟,因为只有在所有流成功交付到GPU集群后才能完成作业。只要有一个链接的出现故障或延迟将限制整个AI的工作效率。

减少训练任务时间就需要构建横向扩展AI网络,从而提高GPU利用率。

而由后端GPU和AI加速器组成的计算节点以及CPU等前端节点以及存储和IPWAN系统之间都需要无缝通信——这就促使大规模以太网成为横向扩展AI训练工作负载的首选。

有“超级以太网代表”之称的Arista在该领域颇具优势。

华尔街见闻此前提及,在与竞争对手InfiniBand的五个AI网络集群竞标中,Arista赢得了所有四个以太网。

分析指出,针对这四个集群,Arista已经从验证过渡到中试,今年以来连接了数千个GPU,预计可以到2025年生产1万-10万个GPU节点的连接。

此前,基于其旗舰产品7800 AI Spine,Arista还向云服务客户构建了2.4万个节点的GPU集群,一度引起行业震动。

不仅是硬件,Arista构建了专门的AI架构(NetDL),实现了结构范围的可见性,集成了网络数据和NIC数据,使运营商能够识别错误配置或行为异常的主机,并查明性能瓶颈。

本文来自微信公众号“硬AI”,关注更多AI前沿资讯请移步这里

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。