阿里千问又发模型了。
Qwen3.6-35B-A3B,Qwen3.6-Plus,Qwen3.6-Max-Preview,现在是 Qwen3.6-27B,源神这模型没完没了地发。
仅仅拥有270亿参数的开源新星,在复杂的代码基准测试中击败了总参数量高达其15倍的前代旗舰模型。
27B 稠密模型,是社区呼声最高的模型,它摒弃了复杂的路由架构,以全参数计算的形态,在多模态理解与智能体编程领域交出了一份优秀的答卷。
开发者们,本地模型又该换了。
纯粹架构
开发者在实际应用中经常面临算力分配与部署环境的限制。
体量巨大的模型固然强大,运转起来却需要极高的显存带宽与复杂的工程调度。
Qwen3.6-27B 采用 Dense(稠密模型)架构。270亿个参数在每一次计算中都会全员参与运算。
不需要像 MoE(混合专家模型)那样进行路由分配计算,开发者可以直接将其部署在常规的硬件集群上,大幅降低了工程落地的门槛。
模型原生具备处理图像、视频与文本的能力。
系统内部支持视觉语言的思考模式与非思考模式平滑切换。
面对现实应用中的各类复杂场景,无论是细致的视觉推理任务,还是繁杂的文档理解工作,抑或是常规的视觉问答,系统都能轻松应对。
开发者获得的是一个能力全面且容易部署的实用工具。
编写代码并解决实际软件工程问题,是检验大语言模型逻辑思考能力的试金石。
Qwen3.6-27B 在 Agent(智能体)编程能力上实现了跨级别的超越。
对比对象是前代开源旗舰 Qwen3.5-397B-A17B,一个总参数3970亿、激活参数170亿的大型模型。270亿参数的小巧体型在所有主流编程基准测试中全面反超。
与比它大15倍的前代 397B 的混合专家模型相比,在代表真实世界软件工程问题解决能力的 SWE-bench Verified 测试中,Qwen3.6-27B 拿到了77.2分,超越前代的76.2分。
在难度更高的 SWE-bench Pro 测试里,它以53.5分胜出前代的50.9分。Terminal-Bench 2.0 测试中拿下了59.3分。SkillsBench 更是以48.2分对30.0分取得了显著领先。
在检验研究生级别科学推理能力的 GPQA Diamond 测试中,它斩获了87.8分,表现完全看齐数倍于自身体量的基准模型。
与谷歌刚刚开源的Gemma4-31B相比,全方位领先。
多模态数据透视
千问团队为研发体系注入了扎实的多模态基因。从基础的自然语言处理到复杂的长序列视频理解,模型在评测基准中展现出了非常均衡的综合素质。
在科学技术工程数学与解谜、通用视觉问答、文档理解以及空间智能等核心板块,270亿参数版本的数据均保持在高位水平。
与同等规模的其他开源稠密模型横向对比,它在多数细分指标上确立了明显的领先身位,为需要多任务处理能力的开发者提供了可靠的底座支持。
从开源的 Qwen3.6-35B-A3B,Qwen3.6-27B,到闭源的 Qwen3.6-Plus,Qwen3.6-Max-Preview,Qwen3.6 家族在智能体编程能力上完成了集体跃升。
27B 版本,精准填补了实用级规模下本地顶尖编程能力的空白。
赶紧本地跑起这个聪明的代码新搭档。
参考资料:
https://qwen.ai/blog?id=qwen3.6-27b