闻乐鱼羊发自凹非寺
量子位 | 公众号 QbitAI
编程 Agent 王座,国产开源模型拿下了!
就在刚刚,阿里通义大模型团队开源 Qwen3-Coder,直接刷新 AI 编程 SOTA——
不仅在开源界超过 DeepSeek V3 和 Kimi K2,连业界标杆、闭源的 Claude Sonnet 4 都比下去了。
网友当即实测了一把小球弹跳,效果是酱婶的:
效果之强,甚至引来惊呼:简直改变游戏规则。
毕竟,这可是开源的!
现在大家不用再每月花 200 刀买 Claude Code 了!
Qwen3-Coder 包括多个尺寸,其中最强版本 Qwen3-Coder-480B-A35B-Instruct 是 450B 的 MoE 模型,激活参数为 35B
原生支持 256K 上下文,还可以通过 YaRN 扩展到 1M 长度。
命令行版 Qwen 也同步登场:
通义团队基于 Gemini Code,进行了 prompt 和工具调用协议适配,二次开发并开源命令行工具Qwen Code
嗯,这年头没个 CLI 都不好意思说自己是编程 Agent 了(doge)。
简单 prompt 直出酷炫效果
Qwen3-Coder 具体表现如何,还是直接眼见为实。
基本上是,使用简单的语言就能得到惊喜的体验:
比如一句话实现用 p5js 创建多彩的可交互动画。
3D 地球可视化,分分钟得到一个电子地球仪。
还能做出动态的天气卡片。
可交互的小游戏也能轻松拿捏。
我们也简单实测了一波,先来个最实用的功能——做简历。
提示词是:生成一个可编辑的简历模板。
写个扫雷游戏更是轻轻松松,即写即玩~
提示词:生成一个扫雷游戏。
效果之外,值得关注的是,这一次通义团队同样公布了从预训练到后训练的不少技术细节。
技术细节
预训练阶段,Qwen3-Coder 主要还是从不同角度进行 Scaling,以提升模型能力。
包括数据扩展、上下文扩展、合成数据扩展
其训练数据的规模达到7. 5Ttokens,其中70% 为代码数据,在保证通用与数学能力的同时提高了编程能力。
同时,原生支持256K 上下文长度,借助 YaRN 技术可以扩展至 1M,适配仓库级和动态数据处理。
在训练中还利用 Qwen2.5-Coder 对低质量数据进行了清洗与重写,显著提升了整体数据的质量。
与当前热衷于竞赛类编程的模型不同,Qwen 团队认为代码任务天然适合执行驱动的大规模强化学习。
因此在后训练阶段,他们一方面通过Scaling Code RL在丰富、真实的代码任务上扩展训练,自动生成多样化测试用例,提高了代码执行的成功率。
另一方面,引入了Scaling Long-Horizon RL,依托阿里云基础设施构建可以同时运行 20000 个独立环境的系统,让模型在多轮交互中表现优异,尤其是在 SWE-bench Verified 上实现了开源模型 SOTA 的效果。
开源 vs 闭源
看到这里,你是不是也摩拳擦掌想要一试 Qwen3-Coder 的真实实力了?
帮大家指个路:
- 最简单的,可以直接在 Qwen 官网体验;
- 命令行安装 Qwen Code,支持 OpenAI SDK 调用 LLM;
- 在阿里云百炼平台申请 API,Claude Code、Cline 等编程工具都能搭配起来用。
值得一提的是,Qwen3-Coder 依然遵循的是 Apache License Version 2.0,商用友好。
反正开源嘛,主动权已经交到了各位开发者手里~
而这也是 Qwen 此番发布,引得网友刷屏转发的关键所在:Qwen3-Coder 看起来是开源编程 Agent 的一次重大飞越。
现在是比肩,超越还会远吗?
而更令人兴奋的是,在开源这条路上,中国模型们当之无愧地正走在最前列。
官网:
项目地址:
https://github.com/QwenLM/qwen-code
https://mp.weixin.qq.com/s/CArpTOknOQC5O90Wgih3SA
— 完 —