7*24 快讯

月之暗面推出全新注意力架构Kimi Linear

Kimi Linear架构的核心是Kimi Delta Attention (KDA),一种表达能力更强的线性注意力模块,通过更精细的门控机制实现了对循环神经网络有限状态记忆的有效利用。最终,Kimi Linear模型不仅在各项任务上取得了更优异的性能,还在效率上实现了巨大突破:与full attention模型相比,能将Key-Value (KV) 缓存的使用量减少高达75%,并在处理百万级别的长下文时,实现高达6倍的解码吞吐量提升。这表明Kimi Linear可以作为全注意力架构的“即插即用”替代品,在提升性能的同时显著增强了效率。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。