参数名称 | 说明 |
---|---|
MODEL | 加载并封装好的 FLUX 模型对象。 |
Nunchaku FLUX DiT Loader
节点功能:NunchakuFluxDiTLoader 是一个用来加载“FLUX.1”类型 AI 绘图模型的工具节点,它可以让这些模型在 ComfyUI 中运行得更快、更省显存。
输出参数
控件参数
参数名称 | 说明 |
---|---|
model_path | 选择 SVDQuant 量化后的 FLUX.1 模型目录。模型应放置在 ComfyUI/models/diffusion_models 目录下。 |
cache_threshold | 缓存容差阈值,类似 WaveSpeed 的 residual_diff_threshold。提升该值可提升推理速度但可能降低质量。典型值为 0.12。设置为 0 表示不使用缓存,加快速度可设置为 0.12 左右,需注意画面稳定性是否下降。 |
attention | 注意力实现方式。可选值: • nunchaku-fp16:使用 FP16 注意力,约有 1.2× 加速。 • flash-attention2:默认选项,速度更快但不兼容老显卡。 若使用 20 系显卡,请选择 nunchaku-fp16。其他情况推荐使用 flash-attention2,速度更佳。 |
cpu_offload | 是否启用 transformer CPU 侧卸载。可选值: • auto:默认自动判断是否启用(14GB 显存以下启用)。 • enable:强制启用。 • disable:禁用。 建议保持 auto,低显存下自动卸载减少显存压力。若模型较大可尝试手动启用。 |
device_id | 选择用于推理的 GPU ID,通常为 0。如果你拥有多块 GPU,可以选择指定哪一块 GPU 加载模型。 |
data_type | 模型数据精度类型。可选值: • bfloat16(推荐) • float16(适用于 20 系 GPU) 默认使用 bfloat16,在 20 系显卡中请使用 float16 以避免不支持错误。 |
i2f_mode | 仅适用于 20 系 GPU 的 GEMM 实现方式。可选值: • enabled:默认启用。 • always:始终启用。 |
该节点加载的模型索引路径为models\diffusion_models,必须下载整个项目文件夹才能完成加载。
下图为我的文件目录。
更改cache_threshold参数时,最好要清空模型缓存
cache_threshold=0
当设置cache_threshold=0.5时,生成速度比之前将近快一倍。
但带来的是画面细节减弱