7*24 快讯

字节攻克MoE关键瓶颈,训练成本再砍40%

3月10日,华尔街见闻获悉,字节豆包大模型团队开源针对 MoE 架构的关键优化技术COMET,可将大模型训练效率提升1.7倍,成本节省40%。据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。