news 2026/4/21 11:20:30

阿里最强小钢炮上线!Qwen3.6-35B-A3B+OpenClaw本地部署全记录

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
阿里最强小钢炮上线!Qwen3.6-35B-A3B+OpenClaw本地部署全记录

性能强劲的新一代小钢炮

2026年4月16日,阿里正式发布高效轻量级开源模型Qwen3.6-35B-A3B。该模型总参数量为350亿,采用稀疏MoE(混合专家)架构,凭借仅30亿激活参数, 便可与Qwen3.5-27B、Gemma4等稠密模型一较高下。

评测数据显示,Qwen3.6-35B-A3B在多项主流基准测试中与Qwen3.5-27B表现十分接近,并在中文语义理解(C-Eval)上显著优于Gemma4模型。

Ollama自v0.17版本起支持OpenClaw部署(实测仍需较多手动配置)。考虑到Qwen新模型的优异性能,以及本地低成本运行OpenClaw的需求,本文将对基于Ollama的本地化部署进行详细实测。

模型在Ollama上的显示大小为24GB(实际占用约23GB),处于消费级显卡的能力边界,非常适合本地部署尝鲜。

安装与环境配置

环境说明

  • 系统:Windows 11

  • 工具:WSL (Ubuntu)、Ollama

部署步骤

  1. 硬件检查:按Win + R,输入dxdiag,确认内存与显卡配置满足运行要求。

  2. 安装WSL:OpenClaw是Linux原生应用,建议先配置WSL环境。在PowerShell中执行:

    wsl --install -d Ubuntu

    解释一下:

    WSL 是“Windows Subsystem for Linux”的缩写,即Windows的Linux子系统,是一个由微软开发的兼容层,允许用户在Windows上原生运行Linux语句和文件,而无需传统虚拟机或双系统。-d Ubuntu参数则指定在该子系统上安装Ubuntu发行版​作为具体的Linux环境。

  3. 安装依赖:由于Ollama的模型文件都使用zstd(Zstandard,Facebook开源的一种高速数据压缩算法工具)格式进行压缩。因此,需要在Linux终端模式下先安装zstd:

    sudo apt-get install zstd
  4. 安装 Ollama

    curl -fsSL https://ollama.ai/install.sh | sh

    注意:安装耗时较长,请确保设备不休眠(无断点续传功能)。

  5. 拉取模型

    ollama run qwen3.6:35b-a3b

    安装完成后会进入对话界面,输入/?可查看操作帮助:

实测模型具备基础代码能力,但仍存在少量“幻觉”现象。

6. 安装 Node.js(通过NVM)

# 安装 NVM curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash # 刷新配置 source ~/.bashrc # 安装LTS版本Node.js nvm install --lts # 验证安装 node -v

7. 部署 OpenClaw

# 方式一:Ollama 启动 ollama launch openclaw # 方式二:官方脚本(推荐) curl -fsSL https://openclaw.ai/install.sh | bash

安装过程中如有需要添加的依赖,跟着引导一直选择“Yes”即可。

最终会输出一个长串dashboard url,其中“token=”后面的内容为OpenClaw的token值,需要记下来。

如果没有出现token值,可运行以下命令,命令行窗口会打印出url值即可看到token:

openclaw dashboard

9. 确认服务已启动:

在浏览器中打开dashboard url(若需要手动连接,将token值输入后点击连接即可)

进入“概览”面板,看到如下页面说明服务已正常启动。

创建飞书机器人

进入飞书开放平台(https://open.feishu.cn/?lang=zh-CN),执行以下步骤:

  1. 进入开发者后台,创建企业自建应用,填写应用名称和简介
  2. 添加应用能力:机器人
  3. 在权限管理页面,选择“批量导入/导出权限”,清空原代码并粘贴以下代码:
{ "scopes": { "tenant": [ "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] } }

确认批量导入权限为聊天,若需要群聊、云文档等权限,后续可按需开通:

4. 进入“事件与回调”,“订阅方式”选择“使用长连接接收事件 (WebSocket)”,并添加事件,输入“im.message.receive_v1”(接收消息):

5. 创建并发布应用

6. 在飞书聊天界面可以搜索到刚才创建的机器人,但先别着急对话, 还需要在OpenClaw中将飞书机器人配置进来。

OpenClaw绑定飞书机器人

命令行窗口输入以下命令安装飞书官方插件,随后屏幕会出现一个二维码:

npx -y @larksuite/openclaw-lark install

使用飞书扫码后,可以创建机器人或添加已有机器人,在这里选择我们刚才在飞书中配置好的机器人。

回到飞书聊天界面发送消息,目前 Qwen3.6-35B-A3B 在本地环境的响应速度不太理想。部署流程虽已打通,但从“能跑通”到“高效生产力”仍需一条漫长的养虾之路。

后续,我会针对模型调用稳定性、效率以及OpenClaw高效使用等实际痛点,持续分享调优思路与实践。

参考资料:Qwen3.6-35B-A3B:智能体编程利器,现已开源:https://qwen.ai/blog?id=qwen3.6-35b-a3b

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/21 11:20:16

告别码间串扰:用Python仿真升余弦滚降滤波器(附Matlab对比)

数字通信中的脉冲成形技术:从理论到Python/Matlab实战 在数字通信系统的设计中,脉冲成形滤波器扮演着至关重要的角色。当我们把离散的数字符号转换为连续的波形进行传输时,脉冲成形的质量直接决定了通信系统的性能上限。本文将带您深入理解码…

作者头像 李华
网站建设 2026/4/21 11:20:15

告别软解高CPU!手把手教你为RK3399的Qt播放器集成MPP硬解与RGA加速

RK3399 Qt播放器硬解优化实战:MPPRGA全链路加速方案解析 在嵌入式设备视频播放领域,CPU资源往往成为性能瓶颈。当我们在RK3399平台上开发Qt视频播放器时,经常会遇到软解方案导致的CPU占用率高、发热严重等问题。本文将深入探讨如何通过MPP硬…

作者头像 李华
网站建设 2026/4/21 11:17:21

忘记加密压缩包密码怎么办?3分钟快速找回的终极开源方案

忘记加密压缩包密码怎么办?3分钟快速找回的终极开源方案 【免费下载链接】ArchivePasswordTestTool 利用7zip测试压缩包的功能 对加密压缩包进行自动化测试密码 项目地址: https://gitcode.com/gh_mirrors/ar/ArchivePasswordTestTool 核心关键词&#xff1a…

作者头像 李华
网站建设 2026/4/21 11:16:18

如何用LaTeX模板快速完成《经济研究》投稿:5分钟终极指南

如何用LaTeX模板快速完成《经济研究》投稿:5分钟终极指南 【免费下载链接】Chinese-ERJ 《经济研究》杂志 LaTeX 论文模板 - LaTeX Template for Economic Research Journal 项目地址: https://gitcode.com/gh_mirrors/ch/Chinese-ERJ 你是否曾为了《经济研究…

作者头像 李华
网站建设 2026/4/21 11:14:39

女孩子能不能学无人机维修?

如果你要问女孩子能不能学无人机维修?我告诉你,当然可以,女孩完全适合学习无人机维修!这个行业看重的是细心、耐心和动手能力,而这些往往是很多女性的优势。以下是女孩学习无人机维修的几个优势点:细心与耐…

作者头像 李华