extra_nodes>Self-Attention Guidance
extra_nodes
时间:2025/06/28

Self-Attention Guidance

节点功能: SelfAttentionGuidance 是一个实验性/高级补丁节点,它为 UNet 推理过程注入一种称为 SAG(Self-Attention Guidance) 的技术——通过自注意力掩图引导 CFG 去噪过程,从而提升图像结构感、抗过拟合能力,或模糊→锐化的表达力。你可以把它理解为利用 UNet 自己的注意力结果来“对自己做校正”。
Self-Attention Guidance-节点参数说明
输入参数
model输入原始模型对象。
输出参数
MODEL注入了 Self-Attention Guidance(SAG)机制的模型。
控件参数
scale自引导调整强度系数,默认值为 0.5,范围为 -2.0 到 5.0。控制 SAG 的最终作用强度。值越高,CFG 后修正越强;过大可能导致反向崩坏。推荐值:0.3~1.0。
blur_sigma对注意力图进行高斯模糊的标准差,默认值为 2.0。控制模糊区域宽度。值越大,越模糊,适合扩散范围大、语义宽泛的情况。

下图为测试工作流,生成结果有微小区别。

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习