ComfyUI_essentials>🔧 Flux Attention Seeker
ComfyUI_essentials
时间:2025/09/12

🔧 Flux Attention Seeker

主要用于动态调整CLIP模型中各层Attention权重(Query、Key、Value、Out),影响提示词的处理方式。从而实现对提示词对出图效果的微调。
🔧 Flux Attention Seeker-节点参数说明
输入参数
clip文本编码器模型
输出参数
CLIP注入了各CLIP层缩放系数的 CLIP 模型。
控件参数
apply_to_query默认开启,是否应用查询向量 Q 的缩放因子
apply_to_key默认开启,是否应用键向量 K 的缩放因子
apply_to_value默认开启,是否应用值向量 V 的缩放因子
apply_to_out默认开启,是否应用Attention 输出投影的缩放因子
clip_l_0默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_0层的系数
clip_l_1默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_1层的系数
clip_l_2默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_2层的系数
clip_l_3默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_3层的系数
clip_l_4默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_4层的系数
clip_l_5默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_5层的系数
clip_l_6默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_6层的系数
clip_l_7默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_7层的系数
clip_l_8默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_8层的系数
clip_l_9默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_9层的系数
clip_l_10默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_10层的系数
clip_l_11默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整clip_l_11层的系数
t5xxl_0默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_0层的系数
t5xxl_1默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_1层的系数
t5xxl_2默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_2层的系数
t5xxl_3默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_3层的系数
t5xxl_4默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_4层的系数
t5xxl_5默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_5层的系数
t5xxl_6默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_6层的系数
t5xxl_7默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_7层的系数
t5xxl_8默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_8层的系数
t5xxl_9默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_9层的系数
t5xxl_10默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_10层的系数
t5xxl_11默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_11层的系数
t5xxl_12默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_12层的系数
t5xxl_13默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_13层的系数
t5xxl_14默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_14层的系数
t5xxl_15默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_15层的系数
t5xxl_16默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_16层的系数
t5xxl_17默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_17层的系数
t5xxl_18默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_18层的系数
t5xxl_19默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_19层的系数
t5xxl_20默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_20层的系数
t5xxl_21默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_21层的系数
t5xxl_22默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_22层的系数
t5xxl_23默认值1,范围0~5。 小于1.0:减弱该层注意力 大于1.0:放大该层注意力 等于1.0:不改变 调整t5xxl_23层的系数
下图为测试用例,通过调高CLIP_l高层可以看到 对最终效果改变还比较大,具体大家可自行测试使用场景。

关于aplly_to_XXX参数测试

如果所有都改为FALSE则下面的值如何调整均不生效

层数含义--具体效果可自行测试

clip_l_0 ~ clip_l_11

控制 CLIP 模型的 12 层 Transformer 的每一层 注意力模块强度

主要影响:

低层(0~3 层):基础词法、局部关系(类似分词和短语层面)

中层(4~7 层):句法、上下文关联(句子级别)

高层(8~11 层):全局语义、风格、情感倾向

实际调节效果:

clip_l_0~3:调高 → 细节描述更强,调低 → 忽略部分词汇

clip_l_4~7:调高 → prompt 内一致性增强,调低 → prompt 容易碎片化

clip_l_8~11:调高 → 整体风格趋于主 prompt,调低 → 模型更易接受副 prompt 或负面提示


t5xxl_0 ~ t5xxl_23

控制 T5-XXL 模型的 24 层 Transformer 的每一层 注意力模块强度

主要影响:

低层(0~7 层):字符/词片段解析

中层(8~15 层):语法结构、句式转换

高层(16~23 层):长距离依赖、上下文一致性、全局概念

实际调节效果:

t5xxl_0~7:调高 → 对长 prompt 解析更细腻,调低 → 缩短上下文影响

t5xxl_8~15:调高 → 提示词逻辑关系增强,调低 → prompt 容易丢失部分逻辑

t5xxl_16~23:调高 → 整体主题更加稳定,调低 → 风格更加“自由”

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习