"源神"启动!
阿里巴巴正式开源Qwen3.5-Plus,性能指标直接对标Gemini 3 pro与GPT 5.2等顶级闭源模型。千问团队凭借这一代际跨越,坐上全球最强开源模型交椅。
核心突破在架构。
397B总参数,推理时仅激活17B,这种精巧设计让其全面超越上代万亿参数的Qwen3 Max,部署显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升至19倍,速度也更快了。

过去束缚大模型商业化的算力瓶颈被打破。
支撑点是阿里长期坚持的基础技术创新。研发团队深度应用混合专家架构,抛弃简单参数堆砌。预训练阶段采用统一架构同时处理多模态数据,构建出同等性能级别中参数量最小的模型底座。
但千问3.5只是开始。
这次发布揭开了阿里多模态战略布局的一角,千问研发团队正在探索文本、视觉、语音与操作反馈的全模态融合,这条大一统架构路径,指向通用人工智能(AGI)。
科技估值体系、企业AI应用渗透率、开源生态话语权,都将在此刻重新定义。
千问3.5,更小模型,更强性能,发布即开源——"极致性价比"
参数规模曾被视为提升智能的唯一路径。千问3.5用数据终结了这一迷信。

更精简的模型实现了更强性能,同时带来颠覆性定价。Qwen3.5 Plus的API价格降至0.8元/百万Token,同等性能下仅为Gemini 3 pro的十八分之一。顶级AI能力跳出了高算力、高成本的闭环。
个人开发者、初创团队、中小企业都能以极低门槛获取世界级智能基础设施,AI向下渗透的管道被打通。
性价比背后是模型基础能力的全面升级。
千问3.5具备真正的跨模态理解能力,标志着千问系列从语言模型进化为原生多模态大模型。
行业内多数"多模态"方案仍停留在工程拼装:先训练语言模型,再外挂视觉或音频模块,各模块通过适配层勉强对齐。有些产品只是在统一入口后用路由分发任务给不同单模态模型。这类方案能应对基础任务,但无法实现真正的多模态融合,甚至会出现视觉能力增强、语言能力下降的降智现象。
Qwen3.5走了另一条路。
从预训练第一天起,模型就在文本与视觉混合数据中联合学习。视觉与语言在统一参数空间内深度交织。模型看到图像能理解深层语义,读到文字能在神经网络中构建对应画面。
中间翻译环节被抹除,信息折损降到最低,千问具备了人类级别的跨模态理解力。
这种原生融合带来了宽广的能力边界。
细粒度视觉定位能做到像素级精度,长时序理解长达2小时视频内容的演变过程与内在因果关联,跨模态生成,能把手绘草图轻松转化为可运行的前端代码。
模型进化真正意义上重构了工作流。
千问3.5可以作为视觉智能体,自主操控手机与电脑系统,跨多个应用完成复杂多步骤指令。
从模式识别到跨模态逻辑推理,Qwen3.5推动大模型从文字工具进化为理解现实世界的基座,为更自然的多模态生成与复杂推理打下技术基础。
千问3.5"以小胜大"背后:全新架构与效率的代际跃迁
过去两年,大模型行业陷入算力竞赛。参数从千亿堆到万亿,性能缓慢爬升,成本指数级膨胀。
企业部署需要昂贵GPU集群,日常推理烧钱,中小企业付不起账单,端侧设备跑不动模型,技术越强大,落地越困难。
Qwen3.5颠覆了这条路径。
竞争重点从"谁的参数更多"转向"谁的模型更聪明",用更小规模通过技术创新获取超越规模的智能。
这不是偶然,是阿里大模型团队多年技术积累的集中兑现。四项核心突破共同驱动了这场代际跃迁。
第一,混合注意力机制。
传统模型处理长文本时,每个Token都要与所有历史上下文做全量计算,算力消耗呈平方级增长。Qwen3.5让模型学会有详有略地阅读——动态分配注意力资源,略读无关信息,精读关键节点。效率与精度双重提升。
第二,极致稀疏的混合专家架构。
传统稠密模型每次推理都要激活全部参数,规模越大开销越高。Qwen3.5将397B参数库中与任务最相关的专家子网络精准激活,每次推理仅用17B参数——用不到5%的算力调动全局知识储备。
第三,原生多Token预测。
模型不再一个字一个字输出。预训练阶段就学会了对后续多个Token进行前瞻性联合预测。在长文生成、代码补全、多轮对话等场景中,推理速度接近翻倍。
第四,系统级训练稳定性优化。
通义团队获NeurIPS 2025最佳论文的注意力门控机制是关键。
在Transformer注意力输出端嵌入基于Sigmoid的智能开关,防止稀疏信息被噪声淹没,抑制无效扰动放大。这削弱了注意力下沉负面效应,消除了对特定位置编码的过度依赖,长上下文泛化能力质变。配合归一化策略与专家路由初始化,新架构在大规模训练中表现稳健。
四项技术叠加带来化学反应:训练成本降90%,相比Qwen3 Max显存占用降60%,推理吞吐量最高提升19倍。原生多模态融合使训练提速10%、激活内存减少50%。大规模强化学习框架让智能体训练效率提升3到5倍。
当其他厂商还在跑分榜上争论小数点,Qwen3.5已经降维打击,竞争维度变成了谁的模型更好用、更实用、让更多的企业毫无压力地用得起。
模型+基础设施,"powered by阿里云"成为AI时代印记
卓越模型如果脱离生态与基础设施,只能是实验室展品。阿里采取双管齐下战略:研发端高频推出SOTA级模型,生态端坚持开源,让顶尖模型免费可得。
千问产品矩阵覆盖从轻量端侧到千亿旗舰,全线遵循Apache 2.0协议完全开放。这将核心技术直接推向全球数千万开发者,千问迅速成为最受欢迎的开源大模型。
开源数据显示优势明显。千问官方开源模型超400个,全球开发者衍生的微调与垂直定制模型突破20万个,总下载量超10亿次,在热度、活跃度与生态广度上全面超越Meta的Llama生态。
李飞飞团队、爱彼迎等顶尖力量已将千问深度嵌入其AI引擎。当开源模型在逻辑推理与跨模态理解上追平甚至超越顶级闭源模型时,免费且最强成为开发者无法拒绝的选项。竞争主轴从单点跑分转向生态系统的整体替代。
企业端市场,阿里云与平头哥构筑了技术护城河。
平头哥真武芯片针对MoE混合专家架构做了底层指令级优化,这种软硬件深度耦合实现了模型算法、芯片与云网络的协同效能爆发。
真武芯片对路由分发机制做硬件级加速,满足千问大模型对大规模稀疏计算的需求。软硬协同释放了芯片算力潜能,数据中心集群效率大幅提升,企业微调训练与高并发推理时间被压缩,这是API价格降至0.8元/百万Token的底气。
软硬协同与开源生态反哺推动阿里云进入新增长期。
Omdia《中国AI云市场,1H25》报告显示,2025年上半年中国AI云市场规模达223亿元,阿里云以35.8%市场占比排名第一,超过第二至第四名总和。
Omdia预测2025-2030年中国AI云市场复合年增长率为26.8%,其中MaaS层增速最快,复合增长率超72%,2030年将达177亿元规模,2025年阿里云在中国云市场份额从33%升至36%,优势持续扩大。
财务数据印证这一趋势。
近期财报显示,阿里云公共云收入同比增长34%,AI相关产品收入连续9个季度保持三位数增长。
资本市场对中国科技资产的旧有低估偏见正在被彻底抛弃,全球资金对中国科技股的定价逻辑正经历着重塑。
纵观科技产业史,真正定义时代的往往不是最贵的闭源产品,而是被最多人使用的基础设施。Linux定义了服务器时代,Android定义了移动互联网时代。
开源、免费、无处不在的特质,将使千问成为AI产业默认的底层基石。"powered by 阿里云"正深深烙印在每个智能应用的代码深处,成为这个时代的技术印记。
结语
"源神"启动的不只是一个模型,而是AI产业的范式切换。
千问3.5用技术创新重构行业规则。当最强性能遇见最低成本,AI真正从少数人走向所有人的生产力工具。
这场由阿里云主导的技术革命,正在重写全球AI的游戏规则。
本文来自微信公众号“硬AI”,关注更多AI前沿资讯请移步这里





