DeepSeek大模型V3.2亮相!华为、寒武纪芯片同步适配开源,首次自研DSA注意力机制,API价格砍半

9月29日,DeepSeek-V3.2-Exp模型正式在Hugging Face平台发布并开源。模型引入稀疏 Attention 架构,这种架构能够降低计算资源消耗并提升模型推理效率。DeepSeek大幅下调官方 API 价格,降价幅度超过 50%,新价格已即刻生效。

国庆长假在即,Deepseek又放大招了!

9月29日,DeepSeek-V3.2-Exp模型正式在Hugging Face平台发布并开源。

该版本作为迈向下一代架构的重要中间步骤,在 V3.1-Terminus 的基础上引入了团队自研的 DeepSeek Sparse Attention (DSA) 稀疏注意力机制,旨在对长文本的训练和推理效率进行探索性优化与验证。这种架构能够降低计算资源消耗并提升模型推理效率。

目前,华为、寒武纪已完成对 DeepSeek-V3.2-Exp模型的适配工作,最大可支持160K长序列上下文长度。

核心技术突破:DeepSeek Sparse Attention (DSA)

DeepSeek Sparse Attention(DSA)首次实现了细粒度稀疏注意力机制。DeepSeek 方面表示,这项技术在几乎不影响模型输出效果的前提下,大幅提升了长文本场景下的训练和推理效率

为了确保评估的严谨性,DeepSeek-V3.2-Exp 的训练设置与前代 V3.1-Terminus 进行了严格对齐。测试结果显示,该模型在各大公开评测集上的表现与 V3.1-Terminus 基本持平,有效性得到了初步验证。

API成本将降低50%以上

随着新模型服务成本的显著降低,DeepSeek 同步采取了重磅举措:大幅下调官方 API 价格,降价幅度超过 50%,新价格已即刻生效。目前,官方 App、网页端和小程序均已同步更新至 DeepSeek-V3.2-Exp 版本。

DeepSeek 现已将 DeepSeek-V3.2-Exp 模型在 Huggingface 和 ModelScope 平台上全面开源,相关论文也已同步公开。

作为一款实验性版本,DeepSeek 认识到模型仍需在更广泛的用户真实场景中进行大规模测试。为便于开发者进行效果对比,DeepSeek 为 V3.1-Terminus 版本临时保留了 API 访问接口,且调用价格与 V3.2-Exp 保持一致。该对比接口将保留至北京时间 2025 年 10 月 15 日 23:59。

此外,为支持社区研究,DeepSeek 还开源了新模型研究中设计和实现的 GPU 算子,包括 TileLang 和 CUDA 两种版本。团队建议社区在进行研究性实验时,优先使用基于 TileLang 的版本,以便于调试和快速迭代。

值得注意的是,寒武纪在深度求索发布新模型的同时宣布完成适配,并开源vLLM-MLU推理引擎源代码,开发者可在寒武纪软硬件平台上即时体验新模型功能。

AI行业资深专家指出,芯片与大模型的适配涉及底层架构优化、算力资源匹配、兼容性调试等复杂工作,绝非短时间内能够完成。如此快速的适配响应表明寒武纪早在DeepSeek-V3.2发布前就已启动相关研发工作,双方技术团队的沟通协作早已悄然展开。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章