“ AWS AEC核心供应商Credo业绩大超预期”
AWS核心供应商Credo发布新季度业绩,当季与展望大超预期,数据中心互联进入高速以太网建设的加速期。
财报亮点:
营收增长:第二季度营收同比增长 64%,达到 7200万美元,远超分析师预期的 6650万美元。
盈利表现:调整后每股收益(EPS)为 0.07美元,与市场预期一致,但营收的强劲表现进一步提振了市场信心。
第三季度指引:预计营收将在 1.15亿至1.25亿美元之间,远超分析师预期的 8604万美元。调整后的毛利率预计在 61%-63% 之间,展现出强劲的盈利能力。
市场需求:公司总裁兼CEO Bill Brennan 表示,随着 AI部署需求 的增长和客户关系的加深,公司已经迎来了收入增长的转折点,需求甚至超出了最初的预期。
财报发布后,Credo 的股价在盘后交易中 暴涨超过30%,市场对其业绩和前景非常看好。投资者普遍看好Credo的未来发展,尤其是其在 人工智能基础设施 领域的布局被认为比一些巨头(如Nvidia)更具吸引力。公司高管明确指出,这一增长主要得益于AI部署的推动以及与客户关系的深化。随着人工智能技术的广泛应用,对光纤和以太网连接解决方案的需求激增,Credo成功抓住了这一市场机遇。此外,公司预计未来季度的营收将进一步增长,表明AI相关基础设施需求的持续扩大将为其业务带来更强劲的推动力。01 AEC(主动电子线缆)行业与产业链深度分析
1. 什么是AEC?主动电子线缆(Active Electrical Cable, AEC)是通过在传统铜缆中嵌入电子元件(如信号放大器和均衡器)实现高性能数据传输的解决方案。
核心价值:提供高带宽和低延迟的传输能力。相较于光纤,AEC在短距离传输中更具成本效益,且更高效和可靠。特别适用于数据中心、AI集群和高性能计算(HPC)中的短距离高密度连接。
2. AEC产业链主要环节
(1)上游:原材料和电子组件供应
-
高质量铜缆:用于传输数据的物理介质。
-
半导体芯片:包括嵌入式信号放大器、均衡器和SerDes芯片。
-
连接器和封装:支持线缆的结构化和标准化接口。
核心参与者:
-
半导体厂商:如博通(Broadcom)、Marvell等提供芯片技术支持。
-
铜缆供应商:如Prysmian Group、Belden等。
-
连接器制造商:如Amphenol、Molex等。
竞争壁垒:高纯度铜材和高性能芯片技术是关键壁垒,要求高度专业化的制造能力和研发投入。
(2)中游:AEC产品设计与制造
主要功能:在短距离传输中,通过嵌入芯片实现信号的放大、均衡和纠错功能,确保数据完整性。提供即插即用的模块化设计,便于客户快速部署。
核心参与者:
-
Credo Technology:市场领导者,拥有“ZeroFlap”等创新技术。
-
Broadcom:通过成熟的SerDes技术切入市场。
-
Spectra7 Microsystems:专注于消费级和数据中心级AEC解决方案。
-
其他新兴厂商:参与者包括中国的硅谷数模等初创企业。
竞争壁垒:技术壁垒:AEC的设计需要高度优化的信号处理技术,涉及硬件和软件的协同开发。厂商需要深度参与客户设计流程,为特定场景提供定制化解决方案。
(3)下游:应用与部署,主要应用场景,包括数据中心、AI集群、高性能计算HPC等
-
支持规模化的并行计算需求。
-
支持高密度AI训练和推理场景,降低网络延迟。
-
连接GPU到GPU之间的高速通信。
-
GPU到交换机的短距离互连。
-
消费电子(较少):如超高清显示和虚拟现实设备。
-
核心参与者:超大规模云服务提供商(如亚马逊AWS、微软Azure、Google Cloud)。AI初创企业(如xAI)。网络设备制造商(如Cisco、Arista)。
-
竞争壁垒:成本与性能:AEC在短距离部署中需要对比光纤表现出显著的成本和性能优势。网络集成:客户需要高度兼容其现有的网络架构,任何性能或质量问题都会影响采用率。
3. AEC行业实现的核心功能
-
信号完整性:嵌入信号放大和均衡技术,确保高速传输中信号不衰减。
-
低功耗:相比光纤解决方案,AEC功耗更低,适合高密度部署。
-
高可靠性:如Credo的“ZeroFlap”技术,可避免短距离连接中常见的“链路断裂”问题。
-
成本优势:铜缆本身成本低且易于维护,在短距离传输中具有显著经济性。
4. 各环节根据竞争壁垒的确定性排序
中游环节具有最高的竞争壁垒,Credo等企业凭借强大的研发能力和客户协作优势,在设计与制造端占据主导地位。
上游环节因原材料和标准化供应商较多,进入壁垒较低,但核心芯片制造仍需要高度专业化的能力。
下游环节的竞争壁垒主要体现在客户粘性和网络集成需求,成功切入超大规模客户的供应链是关键。
5. AEC行业核心参与者竞争力比较
6. 未来发展趋势与机遇
技术趋势:高速(800G及以上)和低功耗设计是未来发展重点。短距离网络中,铜缆与光纤的混合应用将持续,但AEC的可靠性优势可能促使其在更多场景中替代光纤。
市场机遇:随着AI集群和高密度数据中心建设的加速,AEC市场需求将显著增长。新兴AI企业的兴起为AEC提供了更大的市场渗透机会。
AEC行业依托于数据中心和AI网络的发展,Credo等领先企业在中游环节的技术积累和客户合作深度是其成功的关键。随着市场需求的增长,AEC有望在短距离高性能网络中占据更大的市场份额,同时也需要应对技术创新和行业竞争的双重挑战。
02 几个典型的数据中心高速互联场景
高速互联是数据中心和AI集群的基础,其主要目的是支持高带宽、低延迟和高可靠性的数据传输。在数据中心、AI集群和高性能计算(HPC)中,互联场景可以分为GPU互联、GPU与交换机互联、交换机互联、以及存储节点互联。以下是对这些典型互联场景及其主要工具和参与角色的深度分析。
1. GPU互联(GPU-to-GPU)
-
GPU互联主要发生在单个计算节点内或者节点之间的GPU协同通信。
-
在AI训练和高性能计算中,GPU需要共享大规模数据并进行高速通信,互联的性能直接影响计算效率。
主要互联工具
-
NVLink(NVIDIA专属技术):
-
高速互联总线,提供高带宽和低延迟支持。
-
第四代NVLink带宽高达900GB/s(跨多GPU通信)。
-
用于NVIDIA GPU之间的直接连接,构成单节点的计算单元。
-
-
PCIe(Peripheral Component Interconnect Express):
-
高速接口标准,支持GPU与CPU、GPU与GPU之间的通信。
-
最新一代PCIe Gen 5/Gen 6支持128GB/s带宽,适合短距离互联。
-
广泛应用于多厂商GPU解决方案中。
-
-
InfiniBand:
-
网络协议和硬件标准,提供超低延迟的GPU互联解决方案。
-
常用于跨节点的GPU互联,在AI训练集群中广泛采用。
-
-
Credo的AEC:
-
提供短距离高密度GPU互联,支持800G及更高带宽。
-
功耗低、信号完整性高,适合节点内的GPU互联需求。
-
主要参与角色
-
NVIDIA:提供GPU硬件(如H100)及专属互联技术(NVLink)。
-
AMD:通过Infinity Fabric和PCIe技术支持GPU互联。
-
Credo:为多GPU互联场景提供高性能线缆解决方案。
-
Mellanox(现为NVIDIA子公司):InfiniBand网络解决方案的核心供应商。
2. GPU与交换机互联(GPU-to-TOR Switch)
-
单个机架内的GPU节点与顶层交换机(Top-of-Rack, TOR)的连接,是AI集群和数据中心通信的关键。
-
此类连接需支持高密度部署、低功耗和低延迟。
主要互联工具
-
主动电子线缆(AEC):
典型代表:Credo的800G ZeroFlap AEC。功耗低、可靠性高,相比传统光纤更适合短距离高密度连接。
-
DAC(Direct Attach Copper, 直连铜缆):成本低,但受限于信号完整性,传输距离通常不超过5米。用于对功耗敏感的小型部署场景。
-
光模块(Optical Transceivers):用于更长距离的机架间连接(>5米)。典型速率支持400G/800G。
主要参与角色
-
Credo:通过AEC产品为GPU到交换机的短距离互联提供高可靠性解决方案。
-
Broadcom:光模块和以太网交换芯片的主要供应商。
-
Arista Networks:TOR交换机的核心供应商,提供高密度以太网解决方案。
-
Cisco:顶层网络设备提供商,为GPU到TOR连接提供全面支持。
-
安费诺:DAC主要供应商之一。
3. 交换机互联(Switch-to-Switch)
-
交换机互联发生在TOR和Spine交换机之间或Spine交换机之间。
-
Spine-Leaf架构是现代数据中心的核心,支持大规模横向扩展。
主要互联工具
-
光模块(光纤连接):用于中长距离(10米至几公里)的交换机互联。主流速率支持400G、800G和1.6Tbps。
-
DAC:用于机架内或机架间的短距离互联(通常<5米)。成本低,但易受距离限制。
-
AEC:在短距离应用中逐渐取代DAC和光纤,提供更高信号完整性和更低功耗的解决方案。
主要参与角色
-
Cisco、Arista Networks、Juniper Networks:提供核心交换机解决方案,支持多种互联方式。
-
Credo:通过高带宽AEC解决方案优化短距离交换机互联。
-
Broadcom、Marvell:供应高性能光模块和交换芯片。
4. 存储节点互联(GPU-to-Storage)
-
GPU需要快速访问分布式存储,尤其在AI训练中,需要实时处理大规模数据集。
-
存储节点与GPU通过高速互联实现数据的快速传输。
主要互联工具
-
NVMe-oF(NVMe over Fabrics):通过以太网或InfiniBand实现高性能存储访问。支持低延迟和高带宽传输。
-
InfiniBand:提供GPU到存储的超低延迟互联。广泛应用于高性能计算和AI集群中。
-
光模块:用于长距离连接,支持分布式存储和云存储的高速访问。
主要参与角色
-
NetApp、Pure Storage:分布式存储系统提供商。
-
NVIDIA:通过InfiniBand优化GPU到存储的连接。
-
Credo、Broadcom:通过高速互联解决方案支持数据传输需求。
互联架构的核心功能与技术趋势
核心功能
-
高带宽:支持AI和HPC对数据吞吐量的极高要求。
-
低延迟:优化实时计算和训练的效率。
-
高可靠性:确保长时间运行的稳定性,减少链路波动或断裂。
-
成本效益:在高密度部署中降低互联设备成本和功耗。
技术趋势
-
更高速率:从800G向1.6Tbps迈进。
-
低功耗设计:特别是在高密度短距离连接中,功耗优化成为关键。
-
模块化与兼容性:支持不同设备和协议的互联,提升系统灵活性。
- 典型互联场景分析表明,Credo等领先公司在GPU互联和GPU到交换机连接中占据重要地位,尤其通过AEC产品提供了短距离互联的最佳解决方案。
-
主要参与角色覆盖从硬件供应商(如Broadcom、Credo)到系统集成商(如NVIDIA、Cisco),构成了一个高效协同的产业链。
-
未来方向将集中在更高速率、低功耗的技术突破,以及更高效的分布式互联架构上,推动数据中心和AI集群的持续升级。
文章来源:贝叶斯之美,原文标题:《从Credo看几个典型的高速互联场景》