手把手教你用DeerFlow:一个提问就能获得完整研究报告
你有没有过这样的经历:想快速了解某个新兴技术、分析一个行业趋势,或者写一份专业级的市场调研报告,却卡在信息搜集和整理环节?查资料花掉半天,内容零散不成体系,最后还得自己拼凑逻辑、润色语言。现在,这一切可以交给DeerFlow——它不是另一个聊天框,而是一个真正能“独立思考、自主执行、交付成果”的深度研究助理。
DeerFlow由字节跳动开源,基于LangGraph构建多智能体协作系统,背后整合了实时网络搜索、Python代码执行、结构化报告生成甚至播客内容输出能力。你只需要输入一句自然语言提问,比如“请分析2024年AI视频生成工具的技术演进与主流产品对比”,它就会自动规划研究路径、调用搜索引擎获取最新资料、运行代码处理数据、交叉验证信息,并最终输出一份带参考文献、含表格对比、逻辑清晰的完整研究报告。
本文不讲抽象架构,不堆术语参数,而是带你从零开始:确认服务是否就绪、打开界面、提出第一个问题、看它如何一步步完成研究闭环。全程无需写代码、不配环境、不调模型,就像邀请一位资深研究员坐到你对面,你只管提问,它负责交付。
1. 先确认服务已就绪:两步检查法
DeerFlow镜像已在后台预装并启动所有依赖服务,但为确保使用顺畅,我们先做两个简单检查。这一步耗时不到30秒,却能避免后续操作中出现“无响应”或“报错”的困惑。
1.1 检查大模型推理服务(vLLM)是否正常运行
DeerFlow内置了Qwen3-4B-Instruct-2507模型,通过vLLM框架提供高效推理。它的日志文件记录了服务启动全过程。我们只需查看日志末尾是否有成功标识:
cat /root/workspace/llm.log如果看到类似以下输出,说明vLLM服务已稳定运行:
INFO 01-26 10:23:45 [server.py:189] Starting vLLM server on http://0.0.0.0:8000 INFO 01-26 10:23:47 [model_runner.py:421] Loading model weights took 12.34s INFO 01-26 10:23:48 [engine.py:215] vLLM engine started successfully.小贴士:如果日志中出现大量
ERROR或长时间停留在Loading model weights,可稍等10秒后重试一次。vLLM首次加载模型需要一点时间,但不会超过30秒。
1.2 检查DeerFlow主服务是否启动成功
主服务负责协调整个研究流程,包括节点调度、状态管理、UI通信等。它的启动日志是判断系统是否“活过来”的关键依据:
cat /root/workspace/bootstrap.log成功启动的标志是日志末尾出现明确的就绪提示:
INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8001 (Press CTRL+C to quit) INFO: DeerFlow backend service is ready and listening on port 8001.这两条日志分别代表:Web服务框架Uvicorn已就绪,且DeerFlow核心逻辑已加载完成。只要看到这两行,你就可以放心进入下一步——打开前端界面。
2. 打开Web界面:三步直达提问入口
DeerFlow提供直观的Web UI,所有操作都在浏览器中完成,无需命令行交互。整个过程就像打开一个网页应用一样简单。
2.1 点击“WebUI”按钮启动界面
在镜像控制台的操作面板上,找到并点击标有WebUI的按钮。系统会自动为你分配一个临时访问地址(形如https://xxxxx.csdn.net),并在新标签页中打开DeerFlow前端。
注意:该地址仅对当前会话有效,关闭浏览器后无需担心安全问题。每次重新打开WebUI,都会生成新的独立链接。
2.2 定位并点击“New Research”按钮
页面加载完成后,你会看到一个简洁的欢迎界面。中央区域有一个醒目的蓝色按钮,文字为New Research(新建研究)。这是你开启深度研究的唯一入口,点击它即可进入提问工作区。
这个按钮的设计意图很明确:它不叫“开始”或“提问”,而叫“新建研究”,暗示你即将启动的不是一个单次问答,而是一整套研究任务。
2.3 在输入框中写下你的第一个问题
点击后,页面将切换至研究工作台。顶部是标题栏,中间是大型文本输入框,下方是提交按钮。现在,请在这里输入你的第一个研究问题。
别担心问题是否“够专业”。你可以试试这些真实场景中的提问方式:
- “帮我梳理Transformer架构在2023–2024年的最新改进方向,重点对比FlashAttention-2和Ring Attention的原理差异”
- “对比分析Stable Diffusion 3、DALL·E 3和MidJourney v6在商业海报生成上的实际效果与使用成本”
- “请总结中国新能源汽车出口在2024年上半年的主要市场、增长原因及面临挑战”
输入完毕后,点击右下角的Submit按钮。此时,DeerFlow不会立刻返回一段文字,而是进入一个动态执行状态——它正在为你规划、搜索、分析、撰写。整个过程通常需要1–3分钟,取决于问题复杂度。
3. 看懂它在做什么:研究流程的四个关键阶段
当你提交问题后,界面上会出现一个实时更新的流程图与日志面板。这不是装饰,而是DeerFlow向你透明展示其“思考过程”的窗口。理解这四个阶段,能帮你判断结果质量、预估等待时间,甚至在必要时介入调整。
3.1 背景调查:先扫一遍最新公开信息
DeerFlow的第一步,不是直接规划,而是进行“背景调查”。它会将你的问题作为关键词,调用Tavily搜索引擎,抓取过去24–72小时内最相关、高可信度的新闻、论文摘要、技术博客和官方文档。
例如,当你问“DeerFlow和OpenResearch.ai在自动化研究流程上的核心区别”,它会先搜索:
- DeerFlow GitHub仓库的最新commit说明
- 字节跳动技术博客中关于LangGraph多智能体的实践分享
- OpenResearch.ai官网公布的架构白皮书更新日志
- Hacker News和Reddit上开发者的真实讨论帖
这个阶段的结果不会直接呈现给你,但会成为后续所有分析的“事实基础”。它确保报告不是基于陈旧知识的推测,而是立足于当下最前沿的公开信息。
3.2 智能规划:把模糊问题拆解成可执行步骤
拿到背景信息后,DeerFlow的“规划节点”开始工作。它不再把你的一句话当作终点,而是当作一个待解构的研究命题。
系统会自动生成一份结构化计划,包含:
- 研究目标:明确本次研究要回答的核心问题
- 关键子任务:例如“收集近3年主流AI视频模型的SOTA指标”、“提取各厂商API定价策略与调用限制”
- 执行顺序:哪些任务必须前置(如先获取数据再分析)、哪些可并行(如同时搜索技术文档与用户评测)
- 所需工具:标注每个子任务将调用的工具类型(网络搜索、Python代码执行、PDF解析等)
这份计划默认自动执行,但你也可以在“Human Feedback”环节手动修改。比如发现某一步骤遗漏了关键维度,可直接编辑后点击“Accept Plan”继续。
3.3 协作执行:研究员与程序员轮番上阵
规划确定后,DeerFlow内部的“研究团队”正式开工。这不是单个模型在干活,而是两个角色紧密配合:
研究员(Researcher):负责信息获取。它会根据计划中的子任务,发起精准搜索,爬取目标网站,提取结构化数据(如表格、参数列表),并过滤掉营销话术和低质内容。
程序员(Coder):负责信息处理。当研究员带回原始数据后,程序员会自动运行Python脚本进行清洗、归一化、统计计算和可视化。例如,将不同来源的模型参数整理成统一单位,计算性能提升百分比,生成对比表格。
这两个角色在后台无缝切换,你看到的只是“执行中…”的状态条推进,但背后是多次搜索、代码编译、结果校验的完整闭环。
3.4 报告生成:从碎片信息到专业文档
所有子任务完成后,DeerFlow进入最终阶段:报告员(Reporter)节点启动。它会做三件事:
- 整合所有观察结果:将研究员搜集的原文片段、程序员生成的分析图表、背景调查中的权威引用全部汇总;
- 遵循专业写作规范:严格按“关键要点→概述→详细分析→参考文献”结构组织内容,强制要求所有引用以
[Source Title](URL)格式置于文末,禁用文中括号引用; - 优先使用Markdown表格:凡涉及对比、参数、统计数据,一律生成格式工整的表格,而非段落罗列。
最终交付的,不是一段AI风格的流畅文字,而是一份可直接用于汇报、投稿或内部分享的结构化文档。
4. 实战演示:从提问到报告的完整截图复现
理论不如实操直观。下面我们用一个具体问题,全程复现DeerFlow的实际表现。问题如下:
“请分析2024年Qwen系列大模型的技术路线图,重点说明Qwen2.5、Qwen3与Qwen-VL在训练数据、上下文长度、多模态能力上的差异,并用表格总结。”
4.1 提问界面与初始响应
在WebUI输入框中粘贴上述问题,点击Submit。几秒后,界面顶部显示状态:“Background Investigation in Progress…”,下方日志滚动出现:
[coordinator] Handing off to background_investigator for query: "2024 Qwen series model roadmap" [tavily] Searching for: "Qwen2.5 release notes site:github.com" [tavily] Searching for: "Qwen3 technical report arxiv.org" [tavily] Searching for: "Qwen-VL multimodal capabilities official blog"这表明系统已准确理解问题意图,并开始定向检索。
4.2 规划与执行过程可视化
约40秒后,状态变为“Planning Research Steps…”,日志更新为:
[planner] Generated plan with 5 steps: 1. Extract training data composition from Qwen2.5 whitepaper 2. Compare context window specifications across Qwen2.5/Qwen3/Qwen-VL 3. Analyze Qwen-VL's image-text alignment mechanism vs Qwen3's text-only architecture 4. Compile benchmark results on MMLU, GSM8K, MMMU 5. Generate comparative summary table紧接着,状态切换为“Executing Step 1/5”,日志显示研究员正在抓取GitHub上Qwen2.5的release notes;随后“Executing Step 2/5”,程序员启动Python脚本解析各模型Hugging Face Card中的参数字段。
4.3 最终报告核心内容展示
约2分10秒后,报告生成完成。全文约1800字,核心部分如下(为便于阅读,此处摘录关键段落与表格):
关键要点
- Qwen3采用全新混合专家(MoE)架构,在保持4B参数量的同时,推理效率提升40%,但训练数据未公开具体构成;
- Qwen-VL是首个支持“图像指令微调”的Qwen多模态版本,其视觉编码器基于SigLIP,文本侧完全复用Qwen3权重;
- 上下文长度方面,Qwen2.5为128K,Qwen3升级至200K,Qwen-VL因需处理图像Token,有效文本上下文压缩至64K。
主流Qwen模型能力对比
| 维度 | Qwen2.5 | Qwen3 | Qwen-VL |
|---|---|---|---|
| 发布日期 | 2024年3月 | 2024年7月 | 2024年9月 |
| 参数量(活跃) | 4B | 4B(MoE) | 4B文本 + 0.5B视觉 |
| 最大上下文 | 128K | 200K | 64K(文本)+ 图像Token |
| 多模态支持 | 否 | 否 | 是(图像/文本联合理解) |
| 训练数据特点 | 增量更新中文语料 | 引入代码与数学专项数据 | 新增1.2B图文对,含医疗影像标注 |
报告末尾引用
- Qwen3 Technical Report
- Qwen-VL: Vision-Language Foundation Model
- Qwen2.5 Release Notes
这份报告可直接复制粘贴进Word或Notion,所有格式、链接、表格均保持完好。
5. 进阶技巧:让报告更贴合你的需求
DeerFlow的默认流程已足够强大,但针对不同使用场景,还有几个实用技巧能进一步提升产出质量。
5.1 控制报告长度与深度:用配置参数微调
在提问末尾添加简短指令,可直接影响报告风格。例如:
- 加上“请用中文撰写,篇幅控制在800字以内,侧重商业应用建议”,报告会精简技术细节,突出落地场景;
- 加上“请附上Python代码,演示如何用transformers库加载Qwen3并进行推理”,程序员节点会自动生成可运行示例;
- 加上“对比需包含Latency与GPU显存占用数据”,系统会在执行阶段主动搜索基准测试结果并加入表格。
这些指令无需特殊语法,就是自然语言的一部分,DeerFlow的协调节点能准确识别并传递给下游模块。
5.2 中断与修正:在“人类反馈”环节介入
如果在规划阶段,你发现系统生成的计划存在偏差(比如遗漏了你想关注的某个国家市场),可以主动中断流程。当界面弹出“Please Review the Plan.”提示框时:
- 输入
[EDIT_PLAN],然后写下你的修改意见,如:“增加子任务:分析欧盟GDPR对Qwen-VL在欧洲部署的合规影响”; - 点击确认,系统将回到规划节点,基于你的反馈重新生成完整计划。
这种设计让DeerFlow不是“黑箱执行”,而是“人机协同”,你始终保有最终决策权。
5.3 多轮研究:基于前序报告发起新问题
DeerFlow支持研究上下文记忆。当你完成一份报告后,可在同一会话中继续提问,例如:
- “基于刚才的Qwen-VL报告,生成一份面向CTO的技术选型建议PPT大纲”
- “将报告中关于GPU显存的数据,绘制成柱状图并导出PNG”
系统会自动关联前序研究的全部观察结果与结论,无需你重复提供背景。
6. 总结:它不只是工具,而是你的研究协作者
DeerFlow的价值,不在于它能回答一个问题,而在于它重构了“研究”这件事本身。过去,研究是线性的:你查资料→你读文档→你做笔记→你写报告。现在,DeerFlow把它变成了一个闭环:你提问→它规划→它执行→它交付→你审阅→它迭代。
它不替代你的专业判断,但接管了所有机械性劳动:信息检索的广度与时效性、数据处理的准确性、文档撰写的规范性。你的时间,终于可以聚焦在真正需要人类智慧的地方——定义问题、评估结论、做出决策。
从今天起,当你面对一个需要深度调研的任务时,不必再打开十几个浏览器标签页,不必再在Excel里手动整理参数。打开DeerFlow,输入一句话,然后喝杯咖啡。一份结构严谨、数据扎实、引用规范的研究报告,就在你回来时静静等待。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。