news 2026/5/2 21:46:05

Nunchaku FLUX.1-dev保姆级教程:ComfyUI自定义节点开发入门

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Nunchaku FLUX.1-dev保姆级教程:ComfyUI自定义节点开发入门

Nunchaku FLUX.1-dev保姆级教程:ComfyUI自定义节点开发入门

1. 前言:为什么选择Nunchaku FLUX.1-dev?

如果你正在ComfyUI里玩AI绘画,可能已经试过不少模型了。但最近有个新家伙特别火——Nunchaku FLUX.1-dev。这可不是普通的文生图模型,它是专门为ComfyUI优化的版本,生成质量高,而且支持LoRA等扩展,玩法更多样。

但说实话,第一次接触时我也踩了不少坑:插件怎么装?模型放哪里?工作流怎么用?参数怎么调?这些问题折腾了我好几天。

所以今天,我就把自己摸索出来的完整流程写成这篇教程。从零开始,手把手带你搞定Nunchaku FLUX.1-dev在ComfyUI里的部署和使用。不管你是刚接触ComfyUI的新手,还是想尝试新模型的老玩家,跟着步骤走,都能快速上手。

2. 环境准备:打好基础才能跑得稳

在开始安装之前,咱们得先把环境准备好。这就好比盖房子前要打好地基,环境没问题,后面才不会出各种奇怪的错误。

2.1 硬件要求

首先看你的显卡。Nunchaku FLUX.1-dev对显存要求不低,但别担心,它有不同版本可以选:

  • 推荐配置:NVIDIA显卡,显存24GB或以上。这个配置可以跑完整的FP16版本,效果最好。
  • 中等配置:显存12-16GB。可以跑FP8量化版,画质稍有损失但还能接受。
  • 入门配置:显存8GB左右。只能跑INT4或FP4量化版,画质会明显下降,但至少能跑起来。

怎么知道自己的显卡显存?在Windows上可以按Ctrl+Shift+Esc打开任务管理器,在“性能”标签页里看GPU信息。

2.2 软件环境

软件方面需要准备这几样:

  1. Python 3.10+:这是必须的。建议用Python 3.10或3.11,太老的版本可能不兼容。
  2. Git:用来下载代码和插件。如果你还没装,去Git官网下载安装就行。
  3. PyTorch:深度学习框架。版本要和你的系统、显卡匹配。

怎么检查环境是否OK?打开命令行(Windows是CMD或PowerShell,Mac/Linux是终端),输入以下命令:

# 检查Python版本 python --version # 检查Git是否安装 git --version # 检查PyTorch(如果已安装) python -c "import torch; print(torch.__version__)"

如果都正常显示版本号,说明基础环境没问题。

2.3 安装必要工具

还有一个工具需要提前装好——huggingface_hub。这是用来从Hugging Face下载模型的工具。

pip install --upgrade huggingface_hub

如果你之前装过,用--upgrade可以更新到最新版。

环境检查清单:

  • [ ] 显卡显存足够(至少8GB)
  • [ ] Python 3.10+已安装
  • [ ] Git已安装
  • [ ] huggingface_hub已安装

都打勾了?那咱们可以进入下一步了。

3. 安装Nunchaku ComfyUI插件

环境准备好了,现在来安装插件。Nunchaku FLUX.1-dev需要两个部分:插件本体和后端。别被这些名词吓到,其实就是两个需要安装的软件包。

3.1 安装ComfyUI-nunchaku插件

这里给你两种方法,选一个你觉得顺手的就行。

3.1.1 方法A:用Comfy-CLI(最简单)

如果你喜欢命令行操作,这个方法最省事。Comfy-CLI是ComfyUI的官方命令行工具,能自动处理很多依赖问题。

# 第一步:安装ComfyUI CLI工具 pip install comfy-cli # 第二步:安装ComfyUI(如果已经装过可以跳过) comfy install # 第三步:安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 第四步:移动插件到正确目录 mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes

这个方法的好处是自动处理依赖,不容易出错。但前提是你的网络能正常访问GitHub和相关的资源。

3.1.2 方法B:手动安装(更灵活)

如果你对ComfyUI的目录结构比较熟悉,或者想自己控制安装过程,可以用这个方法。

# 1. 先安装ComfyUI(如果还没装的话) git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt # 2. 克隆Nunchaku插件到custom_nodes目录 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes

手动安装的好处是你可以看到每一步在做什么,有问题也容易排查。不过需要你自己确保依赖都装对了。

两种方法选哪个?

  • 新手推荐方法A:简单省事,跟着命令敲就行。
  • 老手可以用方法B:更透明,可以自定义安装路径。

3.2 安装Nunchaku后端

插件装好了,还需要后端支持。从v0.3.2版本开始,这个过程变得很简单。

安装完插件后,在ComfyUI的网页界面里,你会看到多了一个Nunchaku的节点组。第一次使用时,系统可能会提示你安装后端。如果没自动提示,也可以手动触发:

  1. 在ComfyUI界面找到Nunchaku相关的节点
  2. 右键点击节点,选择“安装依赖”或类似选项
  3. 等待安装完成

后端安装其实就是下载一些必要的模型文件和运行库,时间取决于你的网速,一般几分钟到十几分钟。

安装完成后,重启一下ComfyUI,让所有组件都加载到位。

4. 准备Nunchaku FLUX.1-dev模型

插件装好了,现在需要下载模型文件。Nunchaku FLUX.1-dev需要几个不同的模型文件,就像做菜需要不同的调料一样,缺一不可。

4.1 配置工作流文件

工作流就是ComfyUI里保存节点连接关系的文件。Nunchaku插件自带了一些示例工作流,我们需要把它们放到ComfyUI能识别的位置。

# 进入ComfyUI根目录 cd ComfyUI # 创建工作流目录(如果不存在的话) mkdir -p user/default/example_workflows # 复制Nunchaku示例工作流 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/

这个步骤很简单,就是复制几个文件。完成后,你在ComfyUI的“加载”菜单里就能看到这些工作流了。

4.2 下载模型文件

重头戏来了——下载模型。Nunchaku FLUX.1-dev需要两类模型:基础FLUX模型和Nunchaku专属模型。

4.2.1 下载基础FLUX模型(必须的)

基础模型包括文本编码器和VAE(变分自编码器),它们负责理解你的文字描述和生成图片的细节。

# 下载文本编码器模型(放到models/text_encoders目录) hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE模型(放到models/vae目录) hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae

如果你之前下载过这些模型,也可以直接创建软链接,避免重复下载:

# 检查模型是否已下载 ls -l ~/.cache/huggingface/hub/ # 如果已有,创建软链接 ln -s /path/to/your/cache/clip_l.safetensors ComfyUI/models/text_encoders/ ln -s /path/to/your/cache/t5xxl_fp16.safetensors ComfyUI/models/text_encoders/ ln -s /path/to/your/cache/ae.safetensors ComfyUI/models/vae/
4.2.2 下载Nunchaku FLUX.1-dev主模型(核心)

这是最重要的部分——Nunchaku优化过的FLUX.1-dev模型。根据你的显卡类型,需要选择不同的版本:

  • Blackwell显卡(如RTX 50系列):用FP4版本
  • 其他NVIDIA显卡:用INT4版本(推荐)
  • 显存不足:可以考虑FP8版本
# 下载INT4版本(适合大多数显卡) hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/

下载完成后,检查一下文件大小。INT4版本大约8-10GB,FP16版本会更大。如果下载中断,可以用--resume参数继续下载。

4.2.3 可选:下载LoRA模型

LoRA是小模型,可以微调生成效果。比如让画风更动漫,或者生成特定主题的图片。

# 下载FLUX.1-Turbo-Alpha LoRA(加速生成) # 下载其他风格LoRA(根据需要)

LoRA不是必须的,但有了它们,你的创作空间会大很多。可以先去Hugging Face或Civitai看看有哪些有趣的LoRA。

模型下载清单:

  • [ ] 文本编码器:clip_l.safetensors
  • [ ] 文本编码器:t5xxl_fp16.safetensors
  • [ ] VAE:ae.safetensors
  • [ ] 主模型:svdq-int4_r32-flux.1-dev.safetensors
  • [ ] (可选)LoRA模型

都下载完了?恭喜你,最耗时的部分已经完成了!

5. 启动ComfyUI并开始创作

万事俱备,只欠东风。现在让我们启动ComfyUI,开始用Nunchaku FLUX.1-dev生成第一张图片。

5.1 启动ComfyUI

回到ComfyUI的根目录,用这个命令启动:

python main.py

如果你用的是Anaconda或虚拟环境,记得先激活环境。启动成功后,命令行会显示一个本地地址,通常是http://127.0.0.1:8188

打开浏览器,输入这个地址,就能看到ComfyUI的界面了。第一次加载可能需要一点时间,因为要初始化所有模型和插件。

5.2 加载Nunchaku工作流

ComfyUI启动后,界面是空白的。我们需要加载之前准备好的工作流。

  1. 点击右上角的“加载”按钮
  2. 选择user/default/example_workflows目录
  3. 找到nunchaku-flux.1-dev.json并打开

加载后,你会看到一堆节点自动连接好了。这就是Nunchaku FLUX.1-dev的完整工作流,支持多LoRA加载,是文生图效果最好的配置。

如果提示节点缺失,别慌。点击“管理器”按钮,在自定义节点里搜索缺失的节点名,安装即可。常见的缺失节点有ComfyUI-Manager、Impact Pack等。

5.3 设置参数并生成图片

现在到了最激动人心的环节——生成你的第一张Nunchaku FLUX.1-dev图片。

5.3.1 输入提示词

在工作流中找到“提示词”输入框(通常标着“Positive”或“Prompt”)。FLUX模型对英文提示词支持更好,所以建议用英文描述。

试试这个示例提示词:

A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K, masterpiece, detailed

翻译过来就是:“美丽的山水风景,超高清,写实风格,8K分辨率,杰作,细节丰富”。

5.3.2 调整参数(可选)

如果你对默认效果不满意,可以调整这些参数:

  • 推理步数(Steps):默认20-30步。步数越多,细节越丰富,但时间也越长。
  • 分辨率(Resolution):默认1024x1024。显存不够可以降到768x768或512x512。
  • CFG Scale:提示词相关性,默认7.5。值越大越贴近提示词,但可能失去创意。
  • 采样器(Sampler):默认dpmpp_2m。可以试试其他采样器看效果差异。
  • 种子(Seed):固定种子可以复现相同图片。设为-1则每次随机。
5.3.3 点击运行

一切就绪后,点击那个大大的“运行”按钮。第一次运行会比较慢,因为要加载模型到显存。后续生成就会快很多。

等待过程中,你可以看到进度条和预览图逐渐出现。生成完成后,图片会显示在右侧的预览区。

生成的第一张图可能不太完美,这很正常。多试几次,调整提示词和参数,你会慢慢找到感觉。

6. 常见问题与技巧

用了一段时间后,我总结了一些常见问题和实用技巧,希望能帮你少走弯路。

6.1 模型放错位置怎么办?

这是最容易出错的地方。记住这个目录结构:

ComfyUI/models/ ├── unet/ # 主模型放这里 │ └── svdq-int4_r32-flux.1-dev.safetensors ├── loras/ # LoRA模型放这里 │ └── 你的LoRA模型.safetensors ├── text_encoders/ # 文本编码器放这里 │ ├── clip_l.safetensors │ └── t5xxl_fp16.safetensors └── vae/ # VAE放这里 └── ae.safetensors

如果放错了,ComfyUI会提示找不到模型。按照上面的结构调整就行。

6.2 显存不够怎么办?

Nunchaku FLUX.1-dev确实吃显存,但有几个办法可以缓解:

  1. 用量化版模型:INT4版本比FP16版本省很多显存
  2. 降低分辨率:从1024x1024降到768x768或512x512
  3. 减少批处理大小:一次只生成一张图
  4. 关闭其他程序:特别是游戏和视频编辑软件
  5. 使用--lowvram参数:启动ComfyUI时加上这个参数

6.3 生成速度太慢?

生成速度受多个因素影响:

  • 显卡性能:RTX 4090肯定比RTX 3060快
  • 推理步数:20步和50步时间差一倍多
  • 分辨率:1024x1024比512x512慢很多
  • LoRA数量:加载的LoRA越多越慢

如果追求速度,可以:

  1. FLUX.1-Turbo-AlphaLoRA(能减少步数)
  2. 降低分辨率
  3. 减少推理步数到15-20步

6.4 图片质量不满意?

图片质量不好可能有几个原因:

  1. 提示词不够详细:FLUX模型需要详细的描述
  2. 推理步数太少:尝试增加到30-50步
  3. CFG Scale不合适:试试6-9之间的值
  4. 需要负面提示词:在Negative Prompt里输入不想要的内容

好的提示词模板:

[主题], [风格], [细节描述], [画质要求], [艺术家风格], [光照效果], [构图]

例如:

A cute cat sleeping on a windowsill, anime style, detailed fur, soft lighting, by Makoto Shinkai, 8K, masterpiece

6.5 工作流节点缺失?

如果加载工作流时提示节点缺失:

  1. 点击ComfyUI右上角的“管理器”
  2. 在“自定义节点”里搜索缺失的节点名
  3. 点击安装,然后重启ComfyUI

常见的需要安装的节点:

  • ComfyUI-Manager(管理其他节点)
  • Impact Pack(一些工具节点)
  • WAS Node Suite(扩展功能)

7. 总结与进阶建议

跟着教程走下来,你应该已经成功在ComfyUI里用上Nunchaku FLUX.1-dev了。从环境准备到生成第一张图,整个过程虽然步骤多,但每一步都有明确的目标。

7.1 核心要点回顾

让我帮你梳理一下最关键的几个点:

  1. 环境要匹配:Python版本、PyTorch版本、显卡驱动都要对得上
  2. 插件安装二选一:Comfy-CLI最简单,手动安装最灵活
  3. 模型别放错位置:记住unet、loras、text_encoders、vae这四个目录
  4. 工作流用对文件nunchaku-flux.1-dev.json支持多LoRA,效果最好
  5. 参数可以慢慢调:第一次用默认参数,熟悉后再微调

7.2 下一步可以尝试什么?

如果你已经能稳定生成图片了,可以试试这些进阶玩法:

  1. 混合多个LoRA:同时加载风格LoRA和主题LoRA,创造独特效果
  2. 尝试ControlNet:用线稿或深度图控制生成内容
  3. 批量生成:用同样的提示词生成多张图,选最好的
  4. 自定义工作流:在现有工作流基础上添加新节点,实现更复杂的功能
  5. 训练自己的LoRA:用特定图片训练专属风格

7.3 遇到问题怎么办?

AI绘画的路上总会遇到各种问题,这是正常的。几个解决问题的思路:

  1. 看错误信息:ComfyUI的控制台会输出详细错误,这是最重要的线索
  2. 检查模型路径:90%的问题都是模型放错了位置
  3. 更新插件和依赖:用ComfyUI-Manager更新所有节点到最新版
  4. 查GitHub Issues:别人可能已经遇到过同样的问题
  5. 降低复杂度:先用最简单的工作流测试,没问题再慢慢加功能

Nunchaku FLUX.1-dev在ComfyUI里的表现确实不错,生成质量高,扩展性强。虽然安装过程有点复杂,但一旦跑起来,你会发现这些努力都是值得的。

记住,AI绘画是个需要耐心和实践的过程。多试、多调、多学习,你会慢慢掌握其中的技巧。祝你在ComfyUI和Nunchaku FLUX.1-dev的世界里玩得开心,创作出更多精彩的作品!


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 6:16:36

在线图片处理工具 多功能图片编辑格式转换 pc+h5自适应

内容目录一、详细介绍二、效果展示1.部分代码2.效果图展示一、详细介绍 在线图片处理工具 多功能编辑格式转换HTML源码 实现了所有图片处理功能包括: 完整的图片处理功能集: 图片压缩(可调整质量) 图片编辑(亮度、对…

作者头像 李华
网站建设 2026/4/16 6:13:32

RAG——微软GraphRAG

一、前提 微软提出,在实际应用中,RAG 在使用向量检索时面临两个主要挑战。 信息片段之间的连接能力有限:RAG 在跨越多个信息片段以获取综合见解时表现不足。例如,当需要回答一个复杂的问题,必须通过共享属性在不同信息…

作者头像 李华
网站建设 2026/4/16 6:07:02

2026年4月亲测:宠物智能猫砂盆哪家强?

行业痛点分析在宠物智能猫砂盆领域,尽管市场上已有多种自动铲屎产品,但用户仍然面临一些核心问题。普通猫砂盆即便具备自动铲屎功能,底部仍会残留沾了尿液的结团猫砂,需要用户每周手动拆洗,实际上并未完全解放双手。数…

作者头像 李华