news 2026/4/30 19:05:20

Windows Docker Desktop 部署 Deerflow2.0

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Windows Docker Desktop 部署 Deerflow2.0

一、部署准备

1、安装Docker desktop:官网自行下载,安装后启动
2、检查 WSL安装及版本情况

#检查wsl是否安装及对应版本,在 windows powershell 中执行 wsl -l -v 类似: NAME STATE VERSION * Ubuntu Stopped 2

3、WSL 启动及安装 make 工具

#win + r 打开运行,输入 wsl 启动,在 wsl 中执行如下命令 sudo apt update sudo apt install build-essential #验证 make --version

二、部署 Deerflow2.0

官方文档1:点击查看
官方文档 2:点击查看
1、 Windows powershell中克隆 DeerFlow 仓库

git clone https://github.com/bytedance/deer-flow.git 默认在 c 盘的 system32 文件夹中,建议迁移到 D 盘软件文件夹,D:\software\deer-flow

2、 WSL 执行部署命令:配置

# 进入 deer-flow 文件夹,按照 linux 格式改成如下 cd /mnt/d/software/deer-flow # 生成配置文件 make config 如果执行不成功,可以自己去 deer-flow 文件夹下,找到.env和 config的 example 文件, 复制并且分别命名为.env和 config.yaml # 如果需要 tavily 工具,那编辑.env文件,用命令打开并填写key sudo nano .env # 编辑 config 文件 sudo nano config.yaml 内容格式建议参考example 文件中的内容,每个模块配置都有示例。我自己是这么写的,但缺少参数导致最终前端页面只有 flash 模式 models: - name: lmstudio # 内部唯一标识,可自定义 display_name: qwen3.5-9b (lmstudio) # 在 UI 中显示的名称 use: langchain_openai:ChatOpenAI # 使用 LangChain 的 OpenAI 适配器 model: qwen/qwen3.5-9b # 这个字段对 LM Studio 通常不重要,可以任意填写或留空 api_key: lmstudio # 我是本地模型。如果是云端模型,则引用 .env 文件中的环境变量(推荐),此处改成$OPENAI_API_KEY; base_url: http://192.168.235.1:1212/v1 # 关键!指向 LM Studio 的 API 地址 max_tokens: 8192 # 根据你的模型能力调整 temperature: 0.7 # 建议检查下环境,如果有工具没有安装的,再找下相关命令安装 make check

3、WSL 执行部署命令:安装

# 初始化 Docker 环境 make docker-init #启动开发服务 make docker-start #官方建议:如果您的网络中 Docker 构建速度较慢,您可以在运行之前覆盖默认的软件包注册表make docker-init:make docker-start export UV_INDEX_URL=https://pypi.org/simple export NPM_REGISTRY=https://registry.npmjs.org 实际部署过程时间还是比较长,耐心等待 更多 docker 命令 # Build the custom k3s image (with pre-cached sandbox image) make docker-init # Start Docker services (mode-aware, localhost:2026) make docker-start # Stop Docker development services make docker-stop # View Docker development logs make docker-logs # View Docker frontend logs make docker-logs-frontend # View Docker gateway logs make docker-logs-gateway

部署完成后就在 docker 里面使用。虚拟机的 linux 系统部署因为资源占用问题会非常卡,建议使用 docker 部署使用起来更方便,而且也更稳定。不推荐使用本地模型,完全跑不起来。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/30 18:56:40

手把手教你:在Windows上用Node.js本地跑DrawDB,再一键穿透到公网(保姆级避坑指南)

零基础在Windows上部署DrawDB数据库设计工具全攻略 最近发现不少开发者都在寻找一款轻量级、高颜值的数据库设计工具。作为一个长期和数据打交道的程序员,我试用了市面上十几款工具后,最终被DrawDB的简洁设计和强大功能圈粉。今天就来分享如何在Windows上…

作者头像 李华
网站建设 2026/4/30 18:56:34

使用Nodejs快速为Web应用集成多模型对话能力

使用Nodejs快速为Web应用集成多模型对话能力 1. 准备工作 在开始集成前,请确保已具备以下条件:一个可用的Taotoken账户,并在控制台创建了API Key。登录Taotoken平台后,可以在模型广场查看支持的模型ID列表。对于Web应用开发&…

作者头像 李华
网站建设 2026/4/30 18:55:34

Unity面试官最爱问的C#内存管理:从IL到GC,一次讲透托管与非托管代码

Unity高级开发:C#内存管理深度解析与实战优化 1. 从IL到GC:理解Unity内存管理全链路 当Unity开发者面对中高级岗位面试时,内存管理是绕不开的核心话题。这不仅关系到代码效率,更直接影响游戏性能和稳定性。让我们从底层机制开始&a…

作者头像 李华
网站建设 2026/4/30 18:55:11

NLP 模型:教机器说“人话“的奇妙艺术 ✨

引言:一场跨越千年的对话梦想 公元前,古希腊神话里的赫菲斯托斯打造了会说话的金属女仆;中国的《列子》记载了偃师制作的能歌善舞的人偶;近代,图灵问出那个著名的问题:“机器能思考吗?” 几千年…

作者头像 李华