本文作者:李笑寅
来源:硬AI
在AI训练需求的提振下,计算机网络公司Arista Q1财报和业绩指引均超预期。
财报显示,Arista一季度营收同比增长16.3%,达到15.71亿美元,超出预期;公司一季度净利润同比大增46%,达到6.377亿美元。
营收指引方面,该公司对2024年收入预期的增幅从10%-12%上调至12%-14%,预计全年总营收在16.2亿-16.5亿美元之间,超出华尔街普遍预测的16.2亿美元。
隔夜,公司股价大涨超6%,报291.67美元/股。今年以来,该公司股价累计上涨近26%。
外界分析指出,Arista一般不会在Q1末就提高全年指引。因此这次上调指引,被解读为对未来信心更足。
此外,在完成了先前20亿美元的股票回购计划后,Arista此次还宣布了价值12亿美元的股票回购计划。
AI集群时代来临?以太网“香”了
Arista于2004年10月在特拉华州注册成立,于2008年上市。该公司在数据驱动、客户端到云端的大型数据中心、园区和路由环境联网方面处于行业领先地位。
作为一家to B的网络交换器和路由器制造商,Arista主要服务于包括微软、Meta等在内的云服务商们。
Arista此次在财报中表示,训练AI大模型对性能的高要求提振了云服务厂商对该公司硬件产品的需求。
Arista董事长兼首席执行官Jayshree Ullal在财报电话会上表示,以太网正在成为AI数据中心最关键的基础设施组件之一。
Ullal解释道:
“AI应用是无法单独运行的,它们需要计算节点之间的无缝通信。”
“而随着生成式AI训练的发展,如今需要成千上万次单独迭代。(所以)网络拥塞导致的任何减速都会严重影响应用性能,造成效率低下的等待空耗,导致处理器性能下降30%甚至更多。”
简单来说,AI工作负载无法容忍网络延迟,因为只有在所有流成功交付到GPU集群后才能完成作业。只要有一个链接的出现故障或延迟将限制整个AI的工作效率。
减少训练任务时间就需要构建横向扩展AI网络,从而提高GPU利用率。
而由后端GPU和AI加速器组成的计算节点以及CPU等前端节点以及存储和IPWAN系统之间都需要无缝通信——这就促使大规模以太网成为横向扩展AI训练工作负载的首选。
有“超级以太网代表”之称的Arista在该领域颇具优势。
华尔街见闻此前提及,在与竞争对手InfiniBand的五个AI网络集群竞标中,Arista赢得了所有四个以太网。
分析指出,针对这四个集群,Arista已经从验证过渡到中试,今年以来连接了数千个GPU,预计可以到2025年生产1万-10万个GPU节点的连接。
此前,基于其旗舰产品7800 AI Spine,Arista还向云服务客户构建了2.4万个节点的GPU集群,一度引起行业震动。
不仅是硬件,Arista构建了专门的AI架构(NetDL),实现了结构范围的可见性,集成了网络数据和NIC数据,使运营商能够识别错误配置或行为异常的主机,并查明性能瓶颈。
本文来自微信公众号“硬AI”,关注更多AI前沿资讯请移步这里