Nunchaku FLUX.1-dev保姆级教程:ComfyUI自定义节点开发入门
1. 前言:为什么选择Nunchaku FLUX.1-dev?
如果你正在ComfyUI里玩AI绘画,可能已经试过不少模型了。但最近有个新家伙特别火——Nunchaku FLUX.1-dev。这可不是普通的文生图模型,它是专门为ComfyUI优化的版本,生成质量高,而且支持LoRA等扩展,玩法更多样。
但说实话,第一次接触时我也踩了不少坑:插件怎么装?模型放哪里?工作流怎么用?参数怎么调?这些问题折腾了我好几天。
所以今天,我就把自己摸索出来的完整流程写成这篇教程。从零开始,手把手带你搞定Nunchaku FLUX.1-dev在ComfyUI里的部署和使用。不管你是刚接触ComfyUI的新手,还是想尝试新模型的老玩家,跟着步骤走,都能快速上手。
2. 环境准备:打好基础才能跑得稳
在开始安装之前,咱们得先把环境准备好。这就好比盖房子前要打好地基,环境没问题,后面才不会出各种奇怪的错误。
2.1 硬件要求
首先看你的显卡。Nunchaku FLUX.1-dev对显存要求不低,但别担心,它有不同版本可以选:
- 推荐配置:NVIDIA显卡,显存24GB或以上。这个配置可以跑完整的FP16版本,效果最好。
- 中等配置:显存12-16GB。可以跑FP8量化版,画质稍有损失但还能接受。
- 入门配置:显存8GB左右。只能跑INT4或FP4量化版,画质会明显下降,但至少能跑起来。
怎么知道自己的显卡显存?在Windows上可以按Ctrl+Shift+Esc打开任务管理器,在“性能”标签页里看GPU信息。
2.2 软件环境
软件方面需要准备这几样:
- Python 3.10+:这是必须的。建议用Python 3.10或3.11,太老的版本可能不兼容。
- Git:用来下载代码和插件。如果你还没装,去Git官网下载安装就行。
- PyTorch:深度学习框架。版本要和你的系统、显卡匹配。
怎么检查环境是否OK?打开命令行(Windows是CMD或PowerShell,Mac/Linux是终端),输入以下命令:
# 检查Python版本 python --version # 检查Git是否安装 git --version # 检查PyTorch(如果已安装) python -c "import torch; print(torch.__version__)"如果都正常显示版本号,说明基础环境没问题。
2.3 安装必要工具
还有一个工具需要提前装好——huggingface_hub。这是用来从Hugging Face下载模型的工具。
pip install --upgrade huggingface_hub如果你之前装过,用--upgrade可以更新到最新版。
环境检查清单:
- [ ] 显卡显存足够(至少8GB)
- [ ] Python 3.10+已安装
- [ ] Git已安装
- [ ] huggingface_hub已安装
都打勾了?那咱们可以进入下一步了。
3. 安装Nunchaku ComfyUI插件
环境准备好了,现在来安装插件。Nunchaku FLUX.1-dev需要两个部分:插件本体和后端。别被这些名词吓到,其实就是两个需要安装的软件包。
3.1 安装ComfyUI-nunchaku插件
这里给你两种方法,选一个你觉得顺手的就行。
3.1.1 方法A:用Comfy-CLI(最简单)
如果你喜欢命令行操作,这个方法最省事。Comfy-CLI是ComfyUI的官方命令行工具,能自动处理很多依赖问题。
# 第一步:安装ComfyUI CLI工具 pip install comfy-cli # 第二步:安装ComfyUI(如果已经装过可以跳过) comfy install # 第三步:安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 第四步:移动插件到正确目录 mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes这个方法的好处是自动处理依赖,不容易出错。但前提是你的网络能正常访问GitHub和相关的资源。
3.1.2 方法B:手动安装(更灵活)
如果你对ComfyUI的目录结构比较熟悉,或者想自己控制安装过程,可以用这个方法。
# 1. 先安装ComfyUI(如果还没装的话) git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt # 2. 克隆Nunchaku插件到custom_nodes目录 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes手动安装的好处是你可以看到每一步在做什么,有问题也容易排查。不过需要你自己确保依赖都装对了。
两种方法选哪个?
- 新手推荐方法A:简单省事,跟着命令敲就行。
- 老手可以用方法B:更透明,可以自定义安装路径。
3.2 安装Nunchaku后端
插件装好了,还需要后端支持。从v0.3.2版本开始,这个过程变得很简单。
安装完插件后,在ComfyUI的网页界面里,你会看到多了一个Nunchaku的节点组。第一次使用时,系统可能会提示你安装后端。如果没自动提示,也可以手动触发:
- 在ComfyUI界面找到Nunchaku相关的节点
- 右键点击节点,选择“安装依赖”或类似选项
- 等待安装完成
后端安装其实就是下载一些必要的模型文件和运行库,时间取决于你的网速,一般几分钟到十几分钟。
安装完成后,重启一下ComfyUI,让所有组件都加载到位。
4. 准备Nunchaku FLUX.1-dev模型
插件装好了,现在需要下载模型文件。Nunchaku FLUX.1-dev需要几个不同的模型文件,就像做菜需要不同的调料一样,缺一不可。
4.1 配置工作流文件
工作流就是ComfyUI里保存节点连接关系的文件。Nunchaku插件自带了一些示例工作流,我们需要把它们放到ComfyUI能识别的位置。
# 进入ComfyUI根目录 cd ComfyUI # 创建工作流目录(如果不存在的话) mkdir -p user/default/example_workflows # 复制Nunchaku示例工作流 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/这个步骤很简单,就是复制几个文件。完成后,你在ComfyUI的“加载”菜单里就能看到这些工作流了。
4.2 下载模型文件
重头戏来了——下载模型。Nunchaku FLUX.1-dev需要两类模型:基础FLUX模型和Nunchaku专属模型。
4.2.1 下载基础FLUX模型(必须的)
基础模型包括文本编码器和VAE(变分自编码器),它们负责理解你的文字描述和生成图片的细节。
# 下载文本编码器模型(放到models/text_encoders目录) hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE模型(放到models/vae目录) hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae如果你之前下载过这些模型,也可以直接创建软链接,避免重复下载:
# 检查模型是否已下载 ls -l ~/.cache/huggingface/hub/ # 如果已有,创建软链接 ln -s /path/to/your/cache/clip_l.safetensors ComfyUI/models/text_encoders/ ln -s /path/to/your/cache/t5xxl_fp16.safetensors ComfyUI/models/text_encoders/ ln -s /path/to/your/cache/ae.safetensors ComfyUI/models/vae/4.2.2 下载Nunchaku FLUX.1-dev主模型(核心)
这是最重要的部分——Nunchaku优化过的FLUX.1-dev模型。根据你的显卡类型,需要选择不同的版本:
- Blackwell显卡(如RTX 50系列):用FP4版本
- 其他NVIDIA显卡:用INT4版本(推荐)
- 显存不足:可以考虑FP8版本
# 下载INT4版本(适合大多数显卡) hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/下载完成后,检查一下文件大小。INT4版本大约8-10GB,FP16版本会更大。如果下载中断,可以用--resume参数继续下载。
4.2.3 可选:下载LoRA模型
LoRA是小模型,可以微调生成效果。比如让画风更动漫,或者生成特定主题的图片。
# 下载FLUX.1-Turbo-Alpha LoRA(加速生成) # 下载其他风格LoRA(根据需要)LoRA不是必须的,但有了它们,你的创作空间会大很多。可以先去Hugging Face或Civitai看看有哪些有趣的LoRA。
模型下载清单:
- [ ] 文本编码器:clip_l.safetensors
- [ ] 文本编码器:t5xxl_fp16.safetensors
- [ ] VAE:ae.safetensors
- [ ] 主模型:svdq-int4_r32-flux.1-dev.safetensors
- [ ] (可选)LoRA模型
都下载完了?恭喜你,最耗时的部分已经完成了!
5. 启动ComfyUI并开始创作
万事俱备,只欠东风。现在让我们启动ComfyUI,开始用Nunchaku FLUX.1-dev生成第一张图片。
5.1 启动ComfyUI
回到ComfyUI的根目录,用这个命令启动:
python main.py如果你用的是Anaconda或虚拟环境,记得先激活环境。启动成功后,命令行会显示一个本地地址,通常是http://127.0.0.1:8188。
打开浏览器,输入这个地址,就能看到ComfyUI的界面了。第一次加载可能需要一点时间,因为要初始化所有模型和插件。
5.2 加载Nunchaku工作流
ComfyUI启动后,界面是空白的。我们需要加载之前准备好的工作流。
- 点击右上角的“加载”按钮
- 选择
user/default/example_workflows目录 - 找到
nunchaku-flux.1-dev.json并打开
加载后,你会看到一堆节点自动连接好了。这就是Nunchaku FLUX.1-dev的完整工作流,支持多LoRA加载,是文生图效果最好的配置。
如果提示节点缺失,别慌。点击“管理器”按钮,在自定义节点里搜索缺失的节点名,安装即可。常见的缺失节点有ComfyUI-Manager、Impact Pack等。
5.3 设置参数并生成图片
现在到了最激动人心的环节——生成你的第一张Nunchaku FLUX.1-dev图片。
5.3.1 输入提示词
在工作流中找到“提示词”输入框(通常标着“Positive”或“Prompt”)。FLUX模型对英文提示词支持更好,所以建议用英文描述。
试试这个示例提示词:
A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K, masterpiece, detailed翻译过来就是:“美丽的山水风景,超高清,写实风格,8K分辨率,杰作,细节丰富”。
5.3.2 调整参数(可选)
如果你对默认效果不满意,可以调整这些参数:
- 推理步数(Steps):默认20-30步。步数越多,细节越丰富,但时间也越长。
- 分辨率(Resolution):默认1024x1024。显存不够可以降到768x768或512x512。
- CFG Scale:提示词相关性,默认7.5。值越大越贴近提示词,但可能失去创意。
- 采样器(Sampler):默认dpmpp_2m。可以试试其他采样器看效果差异。
- 种子(Seed):固定种子可以复现相同图片。设为-1则每次随机。
5.3.3 点击运行
一切就绪后,点击那个大大的“运行”按钮。第一次运行会比较慢,因为要加载模型到显存。后续生成就会快很多。
等待过程中,你可以看到进度条和预览图逐渐出现。生成完成后,图片会显示在右侧的预览区。
生成的第一张图可能不太完美,这很正常。多试几次,调整提示词和参数,你会慢慢找到感觉。
6. 常见问题与技巧
用了一段时间后,我总结了一些常见问题和实用技巧,希望能帮你少走弯路。
6.1 模型放错位置怎么办?
这是最容易出错的地方。记住这个目录结构:
ComfyUI/models/ ├── unet/ # 主模型放这里 │ └── svdq-int4_r32-flux.1-dev.safetensors ├── loras/ # LoRA模型放这里 │ └── 你的LoRA模型.safetensors ├── text_encoders/ # 文本编码器放这里 │ ├── clip_l.safetensors │ └── t5xxl_fp16.safetensors └── vae/ # VAE放这里 └── ae.safetensors如果放错了,ComfyUI会提示找不到模型。按照上面的结构调整就行。
6.2 显存不够怎么办?
Nunchaku FLUX.1-dev确实吃显存,但有几个办法可以缓解:
- 用量化版模型:INT4版本比FP16版本省很多显存
- 降低分辨率:从1024x1024降到768x768或512x512
- 减少批处理大小:一次只生成一张图
- 关闭其他程序:特别是游戏和视频编辑软件
- 使用--lowvram参数:启动ComfyUI时加上这个参数
6.3 生成速度太慢?
生成速度受多个因素影响:
- 显卡性能:RTX 4090肯定比RTX 3060快
- 推理步数:20步和50步时间差一倍多
- 分辨率:1024x1024比512x512慢很多
- LoRA数量:加载的LoRA越多越慢
如果追求速度,可以:
- 用
FLUX.1-Turbo-AlphaLoRA(能减少步数) - 降低分辨率
- 减少推理步数到15-20步
6.4 图片质量不满意?
图片质量不好可能有几个原因:
- 提示词不够详细:FLUX模型需要详细的描述
- 推理步数太少:尝试增加到30-50步
- CFG Scale不合适:试试6-9之间的值
- 需要负面提示词:在Negative Prompt里输入不想要的内容
好的提示词模板:
[主题], [风格], [细节描述], [画质要求], [艺术家风格], [光照效果], [构图]例如:
A cute cat sleeping on a windowsill, anime style, detailed fur, soft lighting, by Makoto Shinkai, 8K, masterpiece6.5 工作流节点缺失?
如果加载工作流时提示节点缺失:
- 点击ComfyUI右上角的“管理器”
- 在“自定义节点”里搜索缺失的节点名
- 点击安装,然后重启ComfyUI
常见的需要安装的节点:
- ComfyUI-Manager(管理其他节点)
- Impact Pack(一些工具节点)
- WAS Node Suite(扩展功能)
7. 总结与进阶建议
跟着教程走下来,你应该已经成功在ComfyUI里用上Nunchaku FLUX.1-dev了。从环境准备到生成第一张图,整个过程虽然步骤多,但每一步都有明确的目标。
7.1 核心要点回顾
让我帮你梳理一下最关键的几个点:
- 环境要匹配:Python版本、PyTorch版本、显卡驱动都要对得上
- 插件安装二选一:Comfy-CLI最简单,手动安装最灵活
- 模型别放错位置:记住unet、loras、text_encoders、vae这四个目录
- 工作流用对文件:
nunchaku-flux.1-dev.json支持多LoRA,效果最好 - 参数可以慢慢调:第一次用默认参数,熟悉后再微调
7.2 下一步可以尝试什么?
如果你已经能稳定生成图片了,可以试试这些进阶玩法:
- 混合多个LoRA:同时加载风格LoRA和主题LoRA,创造独特效果
- 尝试ControlNet:用线稿或深度图控制生成内容
- 批量生成:用同样的提示词生成多张图,选最好的
- 自定义工作流:在现有工作流基础上添加新节点,实现更复杂的功能
- 训练自己的LoRA:用特定图片训练专属风格
7.3 遇到问题怎么办?
AI绘画的路上总会遇到各种问题,这是正常的。几个解决问题的思路:
- 看错误信息:ComfyUI的控制台会输出详细错误,这是最重要的线索
- 检查模型路径:90%的问题都是模型放错了位置
- 更新插件和依赖:用ComfyUI-Manager更新所有节点到最新版
- 查GitHub Issues:别人可能已经遇到过同样的问题
- 降低复杂度:先用最简单的工作流测试,没问题再慢慢加功能
Nunchaku FLUX.1-dev在ComfyUI里的表现确实不错,生成质量高,扩展性强。虽然安装过程有点复杂,但一旦跑起来,你会发现这些努力都是值得的。
记住,AI绘画是个需要耐心和实践的过程。多试、多调、多学习,你会慢慢掌握其中的技巧。祝你在ComfyUI和Nunchaku FLUX.1-dev的世界里玩得开心,创作出更多精彩的作品!
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。