一、ComfyUI官方版本
1.1 diffusion_models下载
模型名称 | 大小 | 下载地址 |
---|---|---|
qwen_image_fp8_e4m3fn.safetensors | 20.4G | 点击下载 |
qwen_image_bf16.safetensors | 40.9G | 点击下载 |
qwen_image_distill_full_bf16.safetensors | 40.9G | 点击下载 |
qwen_image_distill_full_fp8_e4m3fn.safetensors | 20.4G | 点击下载 |
以上模型选择一个下载放置到ComfyUI/models/diffusion_models文件夹。
- distill版本原始作者建议在 15 步 cfg 1.0(但实际上 10 步就行)
注:显卡没有24G以上的显存不要下载40G版本的模型,默认推荐下载qwen_image_fp8_e4m3fn.safetensors
1.2 Text encoder模型下载
模型名称 | 大小 | 下载地址 |
---|---|---|
qwen_2.5_vl_7b.safetensors | 16.6G | 点击下载 |
qwen_2.5_vl_7b_fp8_scaled.safetensors | 9.28G | 点击下载 |
以上模型选择一个下载放置到ComfyUI/models/text_encoders文件夹。
1.3 VAE模型下载
模型名称 | 大小 | 下载地址 |
---|---|---|
qwen_image_vae.safetensors | 254M | 点击下载 |
以上模型下载放置到ComfyUI/models/vae文件夹。
1.4 Qwen-image加速lora模型下载
仓库地址: https://huggingface.co/lightx2v/Qwen-Image-Lightning/tree/main
以下分别有4步和8步加速模型
1.5 用法示例
如果使用加速lora,速度会更快,但是cfg需要进行调整
测试示例 | steps | cfg |
---|---|---|
未加载lora | 20 | 2.5 |
8步lora | 8 | 2.5 |
4步lora | 4 | 1.0 |
以上都是首次运行的时间,第二次运行速度会更快。
二、nunchaku版本
2.1 前提
使用nunchaku版本首先需要把ComfyUI-nunchaku插件更新到最新版本,其次需要更新nunchaku的whl文件,仓库地址: https://github.com/nunchaku-tech/nunchaku/releases
如果是windows版本,下载相应的whl文件后放入ComfyUI/python文件夹,并且进行该文件夹,打开cmd,然后使用以下命令进行安装,我的torch版本是2.7,python版本为3.12
python -m pip install nunchaku-1.0.0.dev20250828+torch2.7-cp312-cp312-win_amd64.whl
如果是linux版本,则可以随意放置到一个文件夹,然后进入该文件夹进行安装
pip install nunchaku-1.0.0.dev20250828+torch2.7-cp312-cp312-win_amd64.whl
2.2 模型下载
除了diffusion_models,其余模型的下载和ComfyUI官方版本一样。仓库地址: https://huggingface.co/nunchaku-tech/nunchaku-qwen-image/tree/main
以上模型任意下载一个放入ComfyUI/models/diffusion_models文件夹,红框标记的则是融合了加速LoRA的模型,分别有4步和8步模型,大家可以按照自己的意愿下载。
这里和ComfyUI官方版本不同,如果下载了带有加速的模型,则在使用的时候不用另外加载lora模型。
2.3 用法示例
未加速模型
8步加速模型
4步加速模型
三、gguf版本
3.1 前提
使用该版本首先需要安装ComfyUI-GGUF插件,直接在ComfyUI Manager中安装即可。
3.2 模型下载
除了diffusion_models,其余模型的下载和ComfyUI官方版本一样。仓库地址: https://huggingface.co/city96/Qwen-Image-gguf/tree/main
以上模型选择一个下载放入ComfyUI/models/unet文件夹即可,文件越大,精度越高,占用的显存也越大。
3.3 用法示例
如果想要使用gguf模型进行加速,前面ComfyUI版本中介绍的加速lora模型可以适配这里使用。