ComfyUI-LTXVideo 安装与配置完整指南
【免费下载链接】ComfyUI-LTXVideoLTX-Video Support for ComfyUI项目地址: https://gitcode.com/GitHub_Trending/co/ComfyUI-LTXVideo
项目概述
ComfyUI-LTXVideo 是一套专为 ComfyUI 设计的强大自定义节点集合,为 LTX-2 视频生成模型提供全面的工具支持。该项目扩展了 ComfyUI 在视频处理领域的能力,让用户能够轻松创建复杂的视频生成工作流。
核心功能特性
- 多模态工作流:支持文本到视频、图像到视频、视频到视频等多种生成模式
- 高级节点系统:提供注意力控制、潜在空间引导、采样优化等专业节点
- 模型优化支持:包含完整模型和蒸馏模型两种版本,满足不同性能需求
- 扩展性设计:模块化架构便于功能扩展和定制开发
系统要求
在开始安装前,请确保您的系统满足以下要求:
硬件要求:
- CUDA 兼容的 GPU,建议 32GB+ VRAM
- 100GB+ 可用磁盘空间用于存储模型和缓存
软件环境:
- Python 3.8+
- ComfyUI 基础平台
- pip 包管理工具
详细安装步骤
第一步:获取项目源码
将项目克隆到 ComfyUI 的自定义节点目录中:
git clone https://gitcode.com/GitHub_Trending/co/ComfyUI-LTXVideo.git custom-nodes/ComfyUI-LTXVideo第二步:安装项目依赖
进入项目目录并安装必要的 Python 依赖包:
cd custom-nodes/ComfyUI-LTXVideo pip install -r requirements.txt第三步:配置模型文件
下载以下必需的模型文件并放置到指定目录:
LTX-2 模型检查点- 选择并下载一个模型到COMFYUI_ROOT_FOLDER/models/checkpoints文件夹:
- ltx-2-19b-dev-fp8.safetensors
- ltx-2-19b-distilled-fp8.safetensors
- ltx-2-19b-dev.safetensors
- ltx-2-19b-distilled.safetensors
空间上采样器- 下载到COMFYUI_ROOT_FOLDER/models/latent_upscale_models文件夹:
- ltx-2-spatial-upscaler-x2-1.0.safetensors
时间上采样器- 下载到COMFYUI_ROOT_FOLDER/models/latent_upscale_models文件夹:
- ltx-2-temporal-upscaler-x2-1.0.safetensors
蒸馏 LoRA- 下载到COMFYUI_ROOT_FOLDER/models/loras文件夹:
- ltx-2-19b-distilled-lora-384.safetensors
Gemma 文本编码器- 下载所有文件到COMFYUI_ROOT_FOLDER/models/text_encoders/gemma-3-12b-it-qat-q4_0-unquantized文件夹
控制 LoRAs- 选择并下载到COMFYUI_ROOT_FOLDER/models/loras文件夹:
- ltx-2-19b-ic-lora-canny-control.safetensors(边缘检测控制)
- ltx-2-19b-ic-lora-depth-control.safetensors(深度控制)
- ltx-2-19b-ic-lora-detailer.safetensors(细节增强)
- ltx-2-19b-ic-lora-pose-control.safetensors(姿态控制)
- 多种相机运动控制 LoRA 模型
示例工作流程
项目提供了丰富的示例工作流程,位于example_workflows/目录中:
- 文本到视频完整模型:使用完整模型进行文本到视频生成
- 文本到视频蒸馏模型:使用轻量化的蒸馏模型,生成速度更快
- 图像到视频完整模型:基于输入图像生成视频内容
- 图像到视频蒸馏模型:轻量化版本的图像到视频生成
- 视频到视频细节增强:对现有视频进行细节优化和增强
- IC-LoRA 蒸馏模型:支持深度、人体姿态、边缘等多种控制条件
高级配置技巧
低 VRAM 优化
对于 VRAM 有限的系统,可以采用以下优化策略:
- 使用
low_vram_loaders.py中的模型加载器节点,这些节点确保正确的执行顺序并执行模型卸载,使生成过程适应 32GB VRAM - 使用 ComfyUI 的
--reserve-vram参数:python -m main --reserve-vram 5(或其他GB数值) - 合理配置模型加载策略,平衡性能与资源占用
节点类别说明
安装完成后,节点将出现在节点菜单的 "LTXVideo" 类别下,主要包括:
- 注意力控制节点:精确控制生成过程中的注意力机制
- 潜在空间引导节点:在潜在空间中引导视频生成方向
- 采样优化节点:提供多种采样策略以获得最佳生成效果
- 模型修改节点:动态调整模型参数和行为
故障排除
常见问题解决
- 节点未显示:确保已正确安装并重启 ComfyUI
- 模型加载失败:检查模型文件路径和完整性
- 内存不足:启用低 VRAM 模式或减少生成分辨率
依赖包管理
项目依赖的核心 Python 包包括:
- diffusers:扩散模型框架
- einops:张量操作库
- huggingface_hub:Hugging Face 模型仓库访问
- ninja:构建系统
- transformers:预训练模型加载和推理
使用建议
新手入门
建议从示例工作流程开始,逐步熟悉各个节点的功能和使用方法。先从简单的文本到视频任务入手,然后尝试更复杂的图像到视频和控制条件生成。
性能优化
根据硬件配置选择合适的模型版本:
- 高性能硬件:使用完整模型获得最佳质量
- 中等配置:使用蒸馏模型平衡质量与速度
- 有限资源:启用低 VRAM 模式并适当降低分辨率
总结
ComfyUI-LTXVideo 为视频生成任务提供了强大而灵活的工具集。通过正确的安装和配置,您可以充分利用 LTX-2 模型的先进特性,创建出令人印象深刻的视频内容。遵循本指南的步骤,您将能够快速上手并开始您的 AI 视频创作之旅。
【免费下载链接】ComfyUI-LTXVideoLTX-Video Support for ComfyUI项目地址: https://gitcode.com/GitHub_Trending/co/ComfyUI-LTXVideo
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考