Qwen-image模型安装与使用>Qwen-image模型安装

Qwen-image模型安装

Qwen-Image是阿里巴巴 Qwen 团队发布的首个图像生成基础模型。它是一个基于 Apache 2.0 许可证开源的 20B 参数 MMDiT(多模态扩散变换器)模型。该模型在复杂文本渲染和精准图像编辑方面取得了显著进展,实现了包括英语、中文在内的多种语言的高保真输出。

一、ComfyUI官方版本

1.1 diffusion_models下载

模型名称大小下载地址
qwen_image_fp8_e4m3fn.safetensors20.4G点击下载
qwen_image_bf16.safetensors40.9G点击下载
qwen_image_distill_full_bf16.safetensors40.9G点击下载
qwen_image_distill_full_fp8_e4m3fn.safetensors20.4G点击下载

以上模型选择一个下载放置到ComfyUI/models/diffusion_models文件夹。

  • distill版本原始作者建议在 15 步 cfg 1.0(但实际上 10 步就行)

注:显卡没有24G以上的显存不要下载40G版本的模型,默认推荐下载qwen_image_fp8_e4m3fn.safetensors

1.2 Text encoder模型下载

模型名称大小下载地址
qwen_2.5_vl_7b.safetensors16.6G点击下载
qwen_2.5_vl_7b_fp8_scaled.safetensors9.28G点击下载

以上模型选择一个下载放置到ComfyUI/models/text_encoders文件夹。

1.3 VAE模型下载

模型名称大小下载地址
qwen_image_vae.safetensors254M 点击下载

以上模型下载放置到ComfyUI/models/vae文件夹。

1.4 Qwen-image加速lora模型下载

仓库地址: https://huggingface.co/lightx2v/Qwen-Image-Lightning/tree/main

以下分别有4步和8步加速模型

1.5 用法示例


如果使用加速lora,速度会更快,但是cfg需要进行调整

测试示例stepscfg
未加载lora202.5
8步lora82.5
4步lora41.0

以上都是首次运行的时间,第二次运行速度会更快。


二、nunchaku版本

2.1 前提

使用nunchaku版本首先需要把ComfyUI-nunchaku插件更新到最新版本,其次需要更新nunchaku的whl文件,仓库地址: https://github.com/nunchaku-tech/nunchaku/releases

如果是windows版本,下载相应的whl文件后放入ComfyUI/python文件夹,并且进行该文件夹,打开cmd,然后使用以下命令进行安装,我的torch版本是2.7,python版本为3.12

python -m pip install nunchaku-1.0.0.dev20250828+torch2.7-cp312-cp312-win_amd64.whl

如果是linux版本,则可以随意放置到一个文件夹,然后进入该文件夹进行安装

pip install nunchaku-1.0.0.dev20250828+torch2.7-cp312-cp312-win_amd64.whl

2.2 模型下载

除了diffusion_models,其余模型的下载和ComfyUI官方版本一样。仓库地址: https://huggingface.co/nunchaku-tech/nunchaku-qwen-image/tree/main

以上模型任意下载一个放入ComfyUI/models/diffusion_models文件夹,红框标记的则是融合了加速LoRA的模型,分别有4步和8步模型,大家可以按照自己的意愿下载。

这里和ComfyUI官方版本不同,如果下载了带有加速的模型,则在使用的时候不用另外加载lora模型。

2.3 用法示例

未加速模型


8步加速模型


4步加速模型


三、gguf版本

3.1 前提

使用该版本首先需要安装ComfyUI-GGUF插件,直接在ComfyUI Manager中安装即可。

3.2 模型下载

除了diffusion_models,其余模型的下载和ComfyUI官方版本一样。仓库地址:  https://huggingface.co/city96/Qwen-Image-gguf/tree/main

以上模型选择一个下载放入ComfyUI/models/unet文件夹即可,文件越大,精度越高,占用的显存也越大。

3.3 用法示例

如果想要使用gguf模型进行加速,前面ComfyUI版本中介绍的加速lora模型可以适配这里使用。

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习