如果使用4-bit量化T5,需下载int4_model,HuggingFace或者ModelScope,将里面 的文件全部下载下来,放到ComfyUI/models/text_encoders文件夹
启用use_4bit_t5,它会在后台对T5模型进行量化,以达到节省GPU内存的作用。
| 输出参数 | |
| CLIP | 返回已构建好的文本编码器对象 | 
| 控件参数 | |
| model_type | 文本编码器模型类型,目前仅支持 "flux"。 | 
| text_encoder1 | 第一个文本编码器的文件名,位于 ComfyUI/models/text_encoders 目录下。 | 
| text_encoder2 | 第二个文本编码器的文件名,用于配合第一编码器完成 Flux 文本向量构建。 | 
| t5_min_length | T5 编码器的最小长度(min_length)。默认值为 512,范围 256-1024。 | 
| use_4bit_t5 | 是否启用 4-bit T5 编码器。 可选值: • disable:不使用。 • enable:启用压缩模型。 若在内存紧张场景使用 Flux,可尝试开启节省显存。需要在下方提供 int4 模型路径。 | 
| int4_model | 指定用于加载的 4-bit T5 模型名称,位于 text_encoders 目录中。启用 use_4bit_t5 后必须填写。注意选择包含 4bit 权重的完整模型目录。 | 
如果使用4-bit量化T5,需下载int4_model,HuggingFace或者ModelScope,将里面 的文件全部下载下来,放到ComfyUI/models/text_encoders文件夹
启用use_4bit_t5,它会在后台对T5模型进行量化,以达到节省GPU内存的作用。

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习