UNetSelfAttentionMultiply

节点功能:UNetSelfAttentionMultiply 是一个 实验性模型打补丁节点,用于修改 UNet 中 self-attention 层的 Q、K、V、Out 权重的缩放系数。它通过乘法因子调整注意力张量中的各阶段数值大小,从而影响注意力机制在图像生成中的表现。它的主要作用是:▶ 对 UNet 中 attn1(self-attention)模块进行干预式调节,改变注意力计算的感知范围、强度与特征保留能力,适用于风格偏移、特征强调、注意力放大等研究与创意生成。这个节点能让模型的注意力机制变得“更强”或“更弱”,通过对 Q、K、V 和输出值乘上你设定的比例,从而控制模型看图时“关注区域”的范围与强度。

输入参数

参数名称说明
model输入的扩散模型对象(通常为 UNet 类型),来自加载器或补丁节点。

输出参数

参数名称说明
MODEL已注入注意力缩放补丁的模型。

控件参数

参数名称说明
q查询矩阵 Q 的缩放系数,默认值 1.0。控制注意力权重中 Query 分支影响力。 >1 会放大注意区域,<1 会削弱关注。
k键矩阵 K 的缩放系数,默认值 1.0。控制模型“关注什么”内容的强度。对图像结构性理解尤为重要。
v值矩阵 V 的缩放系数,默认值 1.0。决定注意力输出内容的贡献权重。
outAttention 输出投影(out_proj)的缩放因子,默认 1.0。可理解为整个 self-attention 模块对 UNet 结果的总影响程度。

大家可以查看下图对比效果,感觉q,k似乎影响程度相同,v对画面影响较大。