性能强劲的新一代小钢炮
2026年4月16日,阿里正式发布高效轻量级开源模型Qwen3.6-35B-A3B。该模型总参数量为350亿,采用稀疏MoE(混合专家)架构,凭借仅30亿激活参数, 便可与Qwen3.5-27B、Gemma4等稠密模型一较高下。
评测数据显示,Qwen3.6-35B-A3B在多项主流基准测试中与Qwen3.5-27B表现十分接近,并在中文语义理解(C-Eval)上显著优于Gemma4模型。
Ollama自v0.17版本起支持OpenClaw部署(实测仍需较多手动配置)。考虑到Qwen新模型的优异性能,以及本地低成本运行OpenClaw的需求,本文将对基于Ollama的本地化部署进行详细实测。
模型在Ollama上的显示大小为24GB(实际占用约23GB),处于消费级显卡的能力边界,非常适合本地部署尝鲜。
安装与环境配置
环境说明
系统:Windows 11
工具:WSL (Ubuntu)、Ollama
部署步骤
硬件检查:按
Win + R,输入dxdiag,确认内存与显卡配置满足运行要求。安装WSL:OpenClaw是Linux原生应用,建议先配置WSL环境。在PowerShell中执行:
wsl --install -d Ubuntu解释一下:
WSL 是“Windows Subsystem for Linux”的缩写,即Windows的Linux子系统,是一个由微软开发的兼容层,允许用户在Windows上原生运行Linux语句和文件,而无需传统虚拟机或双系统。
-d Ubuntu参数则指定在该子系统上安装Ubuntu发行版作为具体的Linux环境。安装依赖:由于Ollama的模型文件都使用zstd(Zstandard,Facebook开源的一种高速数据压缩算法工具)格式进行压缩。因此,需要在Linux终端模式下先安装zstd:
sudo apt-get install zstd安装 Ollama:
curl -fsSL https://ollama.ai/install.sh | sh注意:安装耗时较长,请确保设备不休眠(无断点续传功能)。
拉取模型:
ollama run qwen3.6:35b-a3b安装完成后会进入对话界面,输入
/?可查看操作帮助:
实测模型具备基础代码能力,但仍存在少量“幻觉”现象。
6. 安装 Node.js(通过NVM):
# 安装 NVM curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash # 刷新配置 source ~/.bashrc # 安装LTS版本Node.js nvm install --lts # 验证安装 node -v7. 部署 OpenClaw:
# 方式一:Ollama 启动 ollama launch openclaw # 方式二:官方脚本(推荐) curl -fsSL https://openclaw.ai/install.sh | bash安装过程中如有需要添加的依赖,跟着引导一直选择“Yes”即可。
最终会输出一个长串dashboard url,其中“token=”后面的内容为OpenClaw的token值,需要记下来。
如果没有出现token值,可运行以下命令,命令行窗口会打印出url值即可看到token:
openclaw dashboard9. 确认服务已启动:
在浏览器中打开dashboard url(若需要手动连接,将token值输入后点击连接即可)
进入“概览”面板,看到如下页面说明服务已正常启动。
创建飞书机器人
进入飞书开放平台(https://open.feishu.cn/?lang=zh-CN),执行以下步骤:
- 进入开发者后台,创建企业自建应用,填写应用名称和简介
- 添加应用能力:机器人
- 在权限管理页面,选择“批量导入/导出权限”,清空原代码并粘贴以下代码:
{ "scopes": { "tenant": [ "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] } }确认批量导入权限为聊天,若需要群聊、云文档等权限,后续可按需开通:
4. 进入“事件与回调”,“订阅方式”选择“使用长连接接收事件 (WebSocket)”,并添加事件,输入“im.message.receive_v1”(接收消息):
5. 创建并发布应用
6. 在飞书聊天界面可以搜索到刚才创建的机器人,但先别着急对话, 还需要在OpenClaw中将飞书机器人配置进来。
OpenClaw绑定飞书机器人
命令行窗口输入以下命令安装飞书官方插件,随后屏幕会出现一个二维码:
npx -y @larksuite/openclaw-lark install使用飞书扫码后,可以创建机器人或添加已有机器人,在这里选择我们刚才在飞书中配置好的机器人。
回到飞书聊天界面发送消息,目前 Qwen3.6-35B-A3B 在本地环境的响应速度不太理想。部署流程虽已打通,但从“能跑通”到“高效生产力”仍需一条漫长的养虾之路。
后续,我会针对模型调用稳定性、效率以及OpenClaw高效使用等实际痛点,持续分享调优思路与实践。
参考资料:Qwen3.6-35B-A3B:智能体编程利器,现已开源:https://qwen.ai/blog?id=qwen3.6-35b-a3b