9月24日,阿里巴巴2025云栖大会在杭州正式开幕。
本次大会将于24日至26日举行三天,以“云智一体·碳硅共生”为主题,设置三大主论坛“云栖前瞻”“云栖技术”“无法计算的价值”,共同探讨AI、云计算与产业应用的最新趋势。新模型、Agent(智能体)应用等AI软件产品及AI服务器等基础设施硬件或是看点。
阿里巴巴集团CEO吴泳铭宣布阿里云重磅升级全栈AI体系,实现从AI大模型到AI基础设施的技术更新。面向新一轮智能革命,阿里云将全力打造成为全栈人工智能服务商。
他透露,集团资本开支会在3800亿基础上,增加更多的投入。AI时代,大模型将是下一代操作系统,超级AI云是下一代计算机。吴泳铭认为,超级AI云需要超大规模的基础设施和全栈的技术积累,未来,全世界可能只会有5-6个超级云计算平台。而通义千问的目标是打造AI时代的安卓系统。
会上,阿里云还展示了超大规模集群、分布式训练、推理加速等能力,并首次展出单柜支持144个计算节点的高密度AI服务器和新一代高性能网络架构HPN8.0。
同时,通义大模型7连发,在模型智能水平、Agent工具调用和Coding能力、深度推理、多模态等方面实现多项突破。在大语言模型中,阿里通义旗舰模型Qwen3-Max全新亮相,性能超过GPT5、Claude Opus 4等,跻身全球前三。
大会还宣布了一项重磅合作,阿里云和英伟达在Physical AI(物理AI)领域达成合作。阿里云人工智能平台 PAI 将集成英伟达Physical AI软件栈,将为企业用户提供数据预处理、仿真数据生成、模型训练评估、机器人强化学习、仿真测试等全链路平台服务,进一步缩短具身智能、辅助驾驶等应用的开发周期。
大会召开期间,阿里巴巴港股盘中持续拉升涨超9%,续创2021年10月以来新高。
吴泳铭:ASI才是开始 大模型将是下一代的操作系统
阿里巴巴集团董事兼CEO吴泳铭发表主旨演讲。
他表示,AGI是具备人类公共认知能力的智能系统,现在在行业看来已经成为现实的世界。但吴泳铭指出,AGI并非是发展的终点,只是全新的起点,AI肯定不会止步于AGI, 它将迈向超越人类智能能够自我迭代进化的超级人工智能行业,称为ASI超级人工智能。
AGI的目标是将人类从80%的日常工作中能够解放出来,让我们专注于碳创造与探索。而ASI将作为全面超越人类智能的系统,有可能创造出一批超级科学家来和潜在的高级工程师。ASI将以我们难以想象的思路解决现在未被解决的科学工程问题,比如攻克医学难题,发明新材料,解决可持续能源和气候问题,甚至未来的风险。
超级人工智能(ASI)将经历四个阶段:智能涌现(学习人)、自主行动(辅助人)、自我迭代(超越人)和ASI。
吴泳铭表示,在AGI到ASI的巨大变革中,大模型将是下一代的操作系统。“并不是说大模型替代了windows或者说linux这样的操作系统。而是大模型以及相关的系统,在整个物理世界和数字世界的交互当中,将承载现有操作系统的地位。未来几乎所有链接真实世界的工具接口,都将与大模型进行连接,所有用户需求和行业应用将会通过大模型相关的工具执行任务”。
大模型作为下一代的操作系统,将允许任何人使用自然语言创造无限多的应用,未来,支撑所有与计算世界打交道的软件。可能都是由大模型产生的,而不是现在有各个软件公司创作的商业软件。
“大模型将是下一代操作系统,AI Cloud是下一代计算机。”未来全世界或只会有5-6个超级云计算平台。
阿里吴泳铭:资本开支会在3800亿基础上,增加更多的投入
吴泳铭透露,目前阿里正积极推进3800亿的AI基础设施建设,并计划追加更大的投入。为了迎接ASI时代的到来,对比2022年这个GenAI的元年,到2032年阿里云全球数据中心的能耗规模将提升10倍。这意味着阿里云算力投入将指数级提升。
“人类和AI将演进出全新的协同方式”,吴泳铭表示,从Vibe Coding到Vibe Working。未来,每个家庭、工厂、公司,都会有众多的Agent和机器人24小时为我们服务。正如电曾经放大了人类物理力量的杠杆,ASI将指数级放大人类的智力杠杆,人会变得比历史上任何时候都强大。
阿里云CTO周靖人:通义千问已开源300+模型,累计下载量超6亿
阿里云智能集团首席技术官周靖人分享中透露,截至目前,通义千问已累计开放300+开源模型,覆盖全尺寸、全模态模型,开源模型下载量已经突破6亿+。大会上,阿里云还新发布了Qwen3-VL等多款模型。据周靖人透露,通义万象目前已经生成了超过3.9亿张图片,7000万多个视频。
阿里云和英伟达在物理AI领域达成合作
在2025杭州云栖大会上,阿里云和英伟达在Physical AI(物理AI)领域达成合作,阿里云人工智能平台 PAI 将集成英伟达Physical AI软件栈,将为企业用户提供数据预处理、仿真数据生成、模型训练评估、机器人强化学习、仿真测试等全链路平台服务,进一步缩短具身智能、辅助驾驶等应用的开发周期。
据介绍,阿里云人工智能平台 PAI将集成NVIDIA Isaac Sim、NVIDIA Isaac Lab、NVIDIA Cosmos和Physical AI 数据集在内的全套 Physical AI 软件栈,结合阿里云大数据AI平台能力,形成覆盖数据预处理、仿真数据生成、模型训练评估、机器人强化学习、仿真测试在内的全链路平台支撑。
阿里多项重磅技术更新 Qwen3-Max全新亮相
围绕大模型和AI云,2025云栖大会现场,阿里云智能首席技术官周靖人发布了多项重磅技术更新。
通义大模型7连发,在模型智能水平、Agent工具调用和Coding能力、深度推理、多模态等方面实现多项突破。
在大语言模型中,阿里通义旗舰模型Qwen3-Max全新亮相,性能超过GPT5、Claude Opus 4等,跻身全球前三。Qwen3-Max包括指令(Instruct)和推理(Thinking)两大版本,其预览版已在 Chatbot Arena 排行榜上位列第三,正式版性能可望再度实现突破。
Qwen3-Max是通义千问家族中最大、最强的基础模型,预训练数据量达36T tokens,总参数超过万亿,拥有极强的Coding编程能力和Agent工具调用能力。在大模型用Coding解决真实世界问题的SWE-Bench Verified测试中,Instruct版本斩获69.6分,位列全球第一梯队;在聚焦Agent工具调用能力的Tau2-Bench测试中,Qwen3-Max取得突破性的74.8分,超过Claude Opus4和DeepSeek-V3.1。Qwen3-Max推理模型也展现出非凡性能,结合工具调用和并行推理技术,其推理能力创下新高,尤其在聚焦数学推理的AIME 25和HMMT测试中,均达到突破性的满分100分,为国内首次。
下一代基础模型架构Qwen3-Next及系列模型正式发布,模型总参数80B仅激活 3B ,性能即可媲美千问3旗舰版235B模型,实现模型计算效率的重大突破。Qwen3-Next针对大模型在上下文长度和总参数两方面不断扩展(Scaling)的未来趋势而设计,创新改进采用了混合注意力机制、高稀疏度 MoE 结构、多 token 预测(MTP)机制等核心技术,模型训练成本较密集模型Qwen3-32B大降超90%,长文本推理吞吐量提升10倍以上,为未来大模型的训练和推理的效率设立了全新标准。
在专项模型方面,千问编程模型Qwen3-Coder重磅升级。新的Qwen3-Coder与Qwen Code、Claude Code系统联合训练,应用效果显著提升,推理速度更快,代码安全性也显著提升。Qwen3-Coder此前就广受开发者和企业好评,代码生成和补全能力极强,可一键完成完整项目的部署和问题修复,开源后调用量曾在知名API调用平台OpenRouter上激增1474%,位列全球第二。
在多模态模型中,千问备受期待的视觉理解模型Qwen3-VL重磅开源,在视觉感知和多模态推理方面实现重大突破,在32项核心能力测评中超过Gemini-2.5-Pro和GPT-5。Qwen3-VL拥有极强的视觉智能体和视觉Coding能力,不仅能看懂图片,还能像人一样操作手机和电脑,自动完成许多日常任务。输入一张图片,Qwen3-VL可自行调用agent工具放大图片细节,通过更仔细的观察分析,推理出更好的答案;看到一张设计图,Qwen3-VL 就能生成Draw.io/HTML/CSS/JS 代码,“所见即所得”地完成视觉编程。此外,Qwen3-VL还升级了3D Grounding(3D检测)能力,为具身智能夯实基础;扩展支持百万tokens上下文,视频理解时长扩展到2小时以上。
全模态模型Qwen3-Omni惊喜亮相,音视频能力狂揽32项开源最佳性能SOTA,可像人类一样听说写,应用场景广泛,未来可部署于车载、智能眼镜和手机等。用户还可设定个性化角色、调整对话风格,打造专属的个人IP。类似于人类婴儿一出生就全方位感知世界,Qwen3-Omni一开始就加入了“听”、“说”、“写”多模态混合训练。在预训练过程中,Qwen3-Omni采用了混合单模态和跨模态数据。此前,模型在混合训练后,各个功能会相互掣肘甚至降智,比如音频理解能力提升,文字理解能力反而降低了。但Qwen3-Omni在实现强劲音频与音视频能力的同时,单模态文本与图像性能均保持稳定,这是业内首次实现这一训练效果。
通义大模型家族中的视觉基础模型通义万相,推出Wan2.5-preview系列模型,涵盖文生视频、图生视频、文生图和图像编辑四大模型。通义万相2.5视频生成模型能生成和画面匹配的人声、音效和音乐BGM,首次实现音画同步的视频生成能力,进一步降低电影级视频创作的门槛。通义万相2.5视频生成时长从5秒提升至10秒,支持24帧每秒的1080P高清视频生成,并进一步提升模型指令遵循能力。此次,通义万相2.5还全面升级了图像生成能力,可生成中英文文字和图表,支持图像编辑功能,输入一句话即可完成P图。
2025杭州云栖大会上,通义大模型家族还迎来了全新的成员——语音大模型通义百聆,包括语音识别大模型Fun-ASR、语音合成大模型Fun-CosyVoice。Fun-ASR基于数千万小时真实语音数据训练而成,具备强大的上下文理解能力与行业适应性;Fun-CosyVoice可提供上百种预制音色,可以用于客服、销售、直播电商、消费电子、有声书、儿童娱乐等场景。
通义大模型已成为全球第一开源模型,也是中国企业选择最多的模型。截至目前,阿里通义开源300余个模型,覆盖不同大小的“全尺寸”及LLM、编程、图像、语音、视频等“全模态”,全球下载量突破6亿次,全球衍生模型17万个,稳居全球第一。超100万家客户接入通义大模型,权威调研机构沙利文2025上半年报告显示,在中国企业级大模型调用市场中,阿里通义占比第一。
作为一站式模型服务和Agent开发平台,阿里云百炼也来了重磅升级。大会现场,阿里云发布全新Agent开发框架ModelStudio-ADK,该框架突破以预定义编排方式开发Agent的局限,可帮助企业高效开发具备自主决策、多轮反思和循环执行能力的Agent。使用ModelStudio-ADK,1个小时就能轻松开发一个能生成深度报告的Deep Research项目。随着模型能力的不断提升以及Agent应用的爆发,过去一年,阿里云百炼平台的模型日均调用量增长了15倍。
在框架层面,阿里云ModelStudio-ADK基于通义开源的AgentScope打造,可开发深度研究、硬件代理智能体、复杂检索智能体等应用。该框架还全面支持云端部署和云端组件调用,提供企业级、服务稳定、灵活部署和运行的高代码开发模式,帮助企业和开发者快速实现复杂场景Agent的开发和落地。
在模型层面,阿里云百炼持续上线全新通义千问家族旗舰模型,基于Qwen3系列模型强大的推理能力,可驱动Agent实现更高效的自主规划与决策,推理性能提高50%,决策成功率达到90%。目前,用户可一键调用Qwen、Wan、DeepSeek等200多款业界领先的模型。
在组件层面,面向Agent开发和部署所需的各类组件,阿里云百炼集成了工具连接MCP Server、多模数据融合RAG Server、沙箱工具Sandbox Server、智能记忆存取Memory Server以及支付订阅服务 Pay Server等7大企业级能力。以Pay Server为例,该服务由阿里云百炼和支付宝联合首发推出,是业界首个为企业级Agent提供专业商业化支付通道的服务。目前,阿里云百炼首批上线了基于ModelStudio-ADK开发的DeepResearch、Agentic-RAG、Computer-Use Agent等Agent应用,用户可免费在线体验或下载代码进行二次开发。
大会现场,阿里云百炼还升级了低代码Agent开发平台ModelStudio-ADP,该平台已广泛应用于金融、教育和电商等领域企业,目前,阿里云百炼平台已有超20万开发者开发了80多万个Agent。据介绍,网商银行基于ModelStudio-ADP开发了贷款审核应用,支持合同、发票、营业执照等26种凭证,以及店面门头、餐饮厨房、就餐区、货架商品等超过400种细粒度物体的精准识别,准确率超95%,其任务处理时间从原来的3小时优化至5分钟内。
同时,阿里云Agent Infra重要组件的无影AgentBay迎来重大升级。无影AgentBay是阿里云为Agent量身打造的“超级大脑” ,可动态调用云上算力、存储及工具链资源,大大突破了Agent在本地设备上的算力限制。本次云栖大会,无影AgentBay还全新推出了自进化引擎、自定义镜像、安全围栏、内存状态管理等新能力,并首次展示全新的个人计算产品——无影Agentic Computer,拥有全新的人机交互方式,革命性的“记忆”能力和近乎无穷的云上算力。
阿里云围绕AI进行了软硬全栈的协同优化和系统创新,已初步形成以通义为核心的操作系统和以AI云为核心的下一代计算机。过去一年,阿里云AI算力增长超5倍,AI存力增长4倍多。
阿里全面升级的阿里云AI基础设施重磅亮相
2025年云栖大会现场,全面升级的阿里云AI基础设施重磅亮相,全面展示了阿里云从底层芯片、超节点服务器、高性能网络、分布式存储、智算集群到人工智能平台、模型训练推理服务的全栈AI技术能力。
在服务器层面,阿里云发布全新一代磐久128超节点AI服务器。新一代磐久超节点服务器由阿里云自主研发设计,具备高密度、高性能和高可用的核心优势,可高效支持多种AI芯片,单柜支持128个AI计算芯片,密度刷新业界纪录。磐久超节点集成阿里自研CIPU 2.0芯片和EIC/MOC高性能网卡,采用开放架构,扩展能力极强,可实现高达Pb/s级别Scale-Up带宽和百ns极低延迟,相对于传统架构,同等AI算力下推理性能还可提升50%。
在网络层面,阿里云新一代高性能网络HPN 8.0全新亮相。为应对大模型时代对海量数据传输的需求,HPN8.0采用训推一体化架构,存储网络带宽拉升至800Gbps,GPU互联网络带宽达到6.4Tbps,可支持单集群10万卡GPU高效互联,为万卡大集群提供高性能、确定性的云上基础网络,助力AI训推提效。
在存储层面,阿里云分布式存储面向AI需求全面升级。高性能并行文件存储CPFS单客户端吞吐提升至40GB/s, 可满足AI训练对快速读取数据的极致需求;表格存储Tablestore为Agent提供高性能记忆库和知识库;对象存储OSS推出 Vector Bucket,为向量数据提供高性价比的海量存储,相比自建开源向量数据库,成本骤降95%,结合OSS MetaQuery 语义检索和内容感知能力,可快速构建RAG等AI应用。
在AI智算集群层面,智能计算灵骏集群通过多级亲和性与拓扑感知调度设计,基于HPN 网络支持10万卡稳定互联,多级可扩展的架构让每张卡间互联路径更短、带宽更优。灵骏集群面向任务的稳定性设计、故障分钟级恢复能力,有效提高了模型训练任务的集群稳定性。
AI需求爆发也带动了通用算力需求上升,阿里云通用计算全面升级。依托自研的“飞天+CIPU”架构体系,阿里云第九代企业级实例采用英特尔、AMD的最新芯片,在大幅提升算力水平的同时,可为Agent提供稳定、安全、高性能的通用CPU算力。其中,九代AMD实例g9ae提供物理核的规格,性能最高提升67%,尤其适合企业离线数据分析处理、视频转码等高并发场景。
为AI负载提供弹性、调度优化和规模化运行的容器计算,也迎来重磅升级。容器服务ACK新增灵骏节点池,引入模型感知智能路由、多角色推理负载管理、故障自愈等核心功能,自动处理恢复时长缩短了 85% ,模型推理冷启动提速10倍。容器计算服务ACS强化网络拓扑感知调度,任务通信性能整体提升30%,并针对AI Agent场景深度优化,Serverless GPU算⼒开箱即用,支持每分钟15000沙箱的大规模并发弹性,结合安全沙箱、智能休眠与唤醒,实现Agent随需启用、高效响应。
阿里云人工智能平台PAI与通义大模型联合优化,印证了全栈AI的“1+1>2”的效果。在训练层,针对MoE模型,采用统一调度机制、自适应计算通信掩盖、EP计算负载均衡和计算显存分离式并行等优化手段,使得通义千问模型训练端到端加速比提升3倍以上;升级DiT模型训练引擎,通义万相单样本训练耗时降低28.1%;在推理层,通过大规模EP、PD/AF分离、权重优化、LLM智能路由在内的全链路优化,实现推理效率显著提升:推理吞吐TPS增加71%,时延TPOT降低70.6%,扩容时长降低97.6%。
“阿里云正在全力打造一台全新的AI超级计算机,它同时拥有最领先的AI基础设施和最领先的模型,两者可以在产品设计和运行架构上高度协同,从而确保在阿里云上调用和训练通义千问模型时,能达到最高效率。”吴泳铭表示。
截至目前,阿里云运营着中国第一、全球领先的AI基础设施和云计算网络,在全球29个地域设有90个可用区。三方机构Omdia2025年上半年数据显示,中国AI云市场阿里云占比35.8%,超过2到4名总和;在已采用生成式AI的财富中国500强中,超53%企业选择阿里云,渗透率位列第一。未来3年,阿里巴巴将投入3800亿用于建设云和AI基础设施,总额超过过去十年的总和。