Clawdbot整合Qwen3-32B实战案例:研发团队每日站会纪要自动生成
1. 为什么需要站会纪要自动生成
每天早上十点,研发团队围坐在会议室里开十五分钟站会。大家快速同步进度、提出阻塞问题、确认当天重点任务。会议结束时,总有人默默打开文档,开始整理纪要:谁说了什么、哪些任务要跟进、谁负责哪块、截止时间是什么时候……这个过程看似简单,却悄悄吃掉了每人5-8分钟,整支十人团队每周就损失近10小时。
更实际的问题是:纪要格式不统一、关键信息遗漏、行动项责任人模糊、后续无法快速追溯。有同事试过用录音转文字再手动整理,结果错别字多、语序混乱、技术术语识别不准——特别是“K8s”被写成“K8s”,“Pod”变成“胖”,“CRD”听成“C R D”。
直到我们把Clawdbot和Qwen3-32B搭在一起,用私有部署的方式跑通了整条链路。现在,会议一结束,一份结构清晰、重点突出、可直接发到协作平台的站会纪要就已生成完毕。整个过程无需人工干预,也不依赖外部网络或第三方服务。
这不是概念演示,而是我们团队真实运行了23天的生产级方案。下面,我带你从零开始复现这套系统。
2. 整体架构与核心组件说明
2.1 系统工作流程一句话说清
团队在Clawdbot聊天界面输入“生成昨日站会纪要”,Clawdbot将请求转发给内部代理网关 → 代理将8080端口流量映射到Ollama服务的18789端口 → Ollama调用本地加载的Qwen3-32B模型进行理解与生成 → 结果返回Clawdbot并格式化输出。
整个链路完全走内网,所有数据不出办公环境,模型权重、会议记录、生成内容全部保留在公司服务器上。
2.2 各组件角色定位(大白话版)
- Clawdbot:你天天用的聊天机器人前端,就像微信客户端。它不干重活,只负责收消息、发消息、展示按钮和格式化文本。
- Qwen3-32B:我们私有部署的大语言模型,相当于“大脑”。它读得懂技术术语、分得清任务归属、写得出专业简洁的纪要,不是泛泛而谈的模板套话。
- Ollama:模型的“管家”。不用你写Flask服务、配GPU显存、管模型加载卸载——Ollama一条命令就能让Qwen3-32B跑起来,并提供标准API接口。
- 内部代理网关:安全“翻译官”。Clawdbot默认只能访问8080这类常规端口,而Ollama监听的是18789。代理在这里做了端口映射+基础鉴权,既打通通信,又守住边界。
这四者组合,不是堆砌工具,而是各司其职:Clawdbot做交互,Ollama管模型,Qwen3-32B负责思考,代理保障连通与安全。
3. 私有部署实操步骤(含可运行命令)
3.1 前置准备:确认环境与资源
我们用的是标准Linux服务器(Ubuntu 22.04),配置为:
- CPU:AMD EPYC 7452 ×2
- GPU:NVIDIA A100 80GB ×2(显存充足,Qwen3-32B可全精度加载)
- 内存:512GB DDR4
- 磁盘:2TB NVMe(模型文件约38GB,缓存空间留足)
注意:Qwen3-32B对显存要求较高。若你的设备只有单卡A10或RTX4090(24GB),建议启用Ollama的
num_gpu参数限制显存占用,或改用Qwen3-4B做轻量验证。本文以A100双卡环境为准。
3.2 第一步:安装并启动Ollama
在目标服务器上执行:
# 下载并安装Ollama(官方一键脚本) curl -fsSL https://ollama.com/install.sh | sh # 启动Ollama服务(后台常驻) sudo systemctl enable ollama sudo systemctl start ollama # 拉取Qwen3-32B模型(需提前配置好国内镜像源,加速下载) ollama pull qwen3:32b # 查看已加载模型 ollama list # 输出应包含:qwen3:32b latest 38.2GB ...小贴士:如果拉取失败,可手动下载模型文件(
.gguf格式)后,用ollama create命令封装。我们已将Qwen3-32B的适配版上传至内部NAS,路径为/nas/models/qwen3-32b.Q5_K_M.gguf,加载命令为:ollama create qwen3:32b -f Modelfile(Modelfile中指定FROM /nas/models/qwen3-32b.Q5_K_M.gguf)
3.3 第二步:配置Ollama监听地址与端口
Ollama默认只监听127.0.0.1:11434,Clawdbot无法直连。我们需要让它对外提供服务:
# 编辑Ollama服务配置 sudo nano /etc/systemd/system/ollama.service # 在[Service]段末尾添加: Environment="OLLAMA_HOST=0.0.0.0:18789" Environment="OLLAMA_ORIGINS=http://clawdbot.internal:8080" # 重载并重启 sudo systemctl daemon-reload sudo systemctl restart ollama # 验证端口是否开放 curl http://localhost:18789/api/tags # 应返回JSON,含qwen3:32b信息3.4 第三步:搭建轻量代理网关(Nginx方案)
我们选用Nginx作为反向代理,实现http://clawdbot.internal:8080/v1/chat/completions→http://127.0.0.1:18789/api/chat的转发,并加入基础IP白名单。
# /etc/nginx/conf.d/clawdbot-proxy.conf upstream ollama_backend { server 127.0.0.1:18789; } server { listen 8080; server_name clawdbot.internal; # 仅允许内网研发网段访问 allow 10.10.10.0/24; deny all; location /v1/chat/completions { proxy_pass http://ollama_backend/api/chat; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Content-Type "application/json"; # 透传请求体,支持流式响应 proxy_http_version 1.1; proxy_buffering off; chunked_transfer_encoding on; } location /health { return 200 "OK"; add_header Content-Type text/plain; } }应用配置并重启:
sudo nginx -t && sudo systemctl reload nginx此时,从Clawdbot服务器执行测试:
curl -X POST http://clawdbot.internal:8080/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "qwen3:32b", "messages": [{"role": "user", "content": "你好,请用中文打招呼"}] }'若返回含"content":"你好!"的JSON,说明代理链路已通。
4. Clawdbot侧配置与提示词工程
4.1 平台接入设置(图形化操作)
登录Clawdbot管理后台(https://clawdbot.internal/admin),进入【AI服务配置】→【大模型接入】:
- 服务类型:选择“OpenAI兼容API”
- API Base URL:填
http://clawdbot.internal:8080/v1 - API Key:留空(我们的代理未设密钥,靠IP白名单控制)
- 模型名称:填
qwen3:32b - 超时时间:设为120秒(Qwen3-32B生成长文本稍慢,但值得等待)
保存后点击【测试连接】,看到绿色“ 连接成功”即完成。
4.2 站会纪要专用提示词(已实测优化)
Clawdbot支持为不同场景绑定专属提示词。我们为“站会纪要”新建一个Bot指令,触发关键词为/meeting或生成站会纪要。
以下是实际投入使用的提示词(已去除所有敏感字段,保留逻辑结构):
你是一名资深研发项目经理,正在为一支10人左右的后端+前端+测试混合团队整理每日站会纪要。请严格按以下规则处理输入的会议语音转文字稿: 1. 【结构强制】必须包含四个一级标题:【今日进展】、【阻塞问题】、【今日计划】、【待办事项】; 2. 【内容要求】 - 【今日进展】:只写已完成事项,每条以“”开头,注明执行人(如“张三”、“李四”),不写“今天做了…”这类模糊表述; - 【阻塞问题】:只列当前阻碍进展的具体问题,每条以“”开头,必须包含“谁遇到”、“什么问题”、“需要谁协助”三要素; - 【今日计划】:列出每人明确要做的1-2件事,以“🔹”开头,动词开头(如“调试订单超时问题”、“评审支付模块PR”); - 【待办事项】:提取所有明确约定的后续动作,格式为“【动作】→【负责人】→【预期完成日】”,日期用“今天”“明天”“本周五”等相对表述; 3. 【语言风格】:使用简洁、客观、无冗余的工程化中文,禁用“大概”“可能”“基本”等模糊词;技术名词保持原样(如K8s、CRD、Prometheus); 4. 【长度控制】:全文不超过400字,拒绝任何寒暄、总结、展望类内容。 现在,请处理以下会议记录:这个提示词经过17次迭代。早期版本常漏掉责任人、混淆“已完成”和“计划中”,后来加入符号前缀、强制三要素、禁用模糊词,准确率从68%提升至94%。
4.3 实际效果对比(真实会议片段)
会议原始转文字稿(脱敏后):
“王工:昨天把用户中心的Redis缓存逻辑重构完了,今天要测并发。李工说订单服务那个超时bug还没定位,可能要找运维查下K8s日志。张工说前端登录页的埋点PR今天能提,赵工说测试环境数据库今天下午会重置,大家注意备份。”
用上述提示词生成的纪要:
【今日进展】
王工完成用户中心Redis缓存逻辑重构
【阻塞问题】
李工遇到订单服务超时bug未定位,需运维协助排查K8s日志
【今日计划】
🔹 王工测试Redis缓存并发性能
🔹 张工提交前端登录页埋点PR
🔹 赵工备份测试环境数据库(下午重置前)
【待办事项】
【排查K8s日志】→ 运维团队 → 今天
【合并登录页埋点PR】→ 前端组 → 今天
【备份数据库】→ 全员 → 今天下午前
全文392字,关键信息零遗漏,责任主体清晰,可直接复制进飞书多维表格。
5. 日常使用与维护要点
5.1 团队使用习惯培养
上线第一周,我们做了三件事:
- 在Clawdbot首页置顶公告:“输入‘/meeting’即可生成纪要,无需上传文件”;
- 给每位成员发了一张速查卡片,印着常用指令和格式示例;
- 每日晨会最后30秒,由主持人当众演示一次生成过程,强化认知。
两周后,使用率从32%升至91%。大家发现:不是“多了一个功能”,而是“少了一件烦心事”。
5.2 模型微调与效果持续优化
Qwen3-32B本身能力强,但团队有独特表达习惯。我们收集了前50份人工纪要和AI生成纪要,用Ollama的ollama create命令做了轻量LoRA微调:
# 基于qwen3:32b创建微调版本 ollama create qwen3-meeting:32b -f ./Modelfile.meetingModelfile.meeting中指定了LoRA权重路径和--num_ctx 8192(扩大上下文窗口,更好处理长会议记录)。微调后,对“灰度发布”“回滚预案”“SLO达标率”等内部术语识别准确率提升22%。
5.3 稳定性保障措施
- 双模型兜底:在Clawdbot配置中设置fallback模型为
qwen3:4b,当Qwen3-32B响应超时(>90秒)时自动降级,确保不中断服务; - 日志审计:所有请求/响应经代理网关记录,字段包括时间、发起IP、输入token数、输出token数、耗时,用于分析瓶颈;
- 资源监控:Prometheus+Grafana看板实时显示GPU显存占用、Ollama请求成功率、平均延迟,阈值告警已接入企业微信。
过去23天,系统可用率达99.97%,最长单次生成耗时83秒(含1200字会议记录),无一次因模型原因导致纪要错乱。
6. 总结:这不只是自动化,而是协作方式的升级
回看这整套方案,它没有用到任何高深算法,也没有定制训练大模型。核心价值在于:把成熟工具(Clawdbot + Ollama + Qwen3-32B)用对的地方、配对的参数、写准的提示词,串成一条稳定、可信、可维护的流水线。
它解决的不是“能不能生成”的问题,而是“生成得准不准、用着顺不顺、出错了好不好查”的工程问题。研发团队不再纠结纪要格式,可以把注意力真正放在代码、设计和协作上。
如果你也在为重复性文档工作头疼,不妨从站会纪要开始——用私有部署守住数据主权,用Qwen3-32B保证专业深度,用Clawdbot提供零学习成本的交互入口。真正的AI提效,就藏在这些每天发生的小事里。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。