extra_nodes>UNetTemporalAttentionMultiply
extra_nodes
时间:2025/06/28

UNetTemporalAttentionMultiply

节点功能: UNetTemporalAttentionMultiply 是一个用于 细粒度调控视频模型中注意力机制输出强度的实验性节点
UNetTemporalAttentionMultiply-节点参数说明
输入参数
modelUNet 类型扩散模型对象,包含结构和时间注意力模块。
输出参数
MODEL注入了结构/时序注意力调制的 UNet 模型。
控件参数
self_structuralSelf-attention 的结构分支(spatial)缩放系数,默认 1.0。控制帧内结构建模强度,决定图像空间细节建模能力。
self_temporalSelf-attention 的时序分支(temporal)缩放系数,默认 1.0。控制帧间一致性建模强度,影响视频流畅性与一致性。
cross_structuralCross-attention 的结构分支(spatial)缩放系数,默认 1.0。 控制文本提示等条件在帧内的注入强度。
cross_temporalCross-attention 的时序分支(temporal)缩放系数,默认 1.0。控制文本或条件信息在帧间传播的强度。
UNetTemporalAttentionMultiply 可分别调节 UNet 模型中四类注意力模块输出的权重乘法系数:
  • Self-Attention(结构)
  • Self-Attention(时间)
  • Cross-Attention(结构)
  • Cross-Attention(时间)

特别适用于 SVD / AnimateDiff / VideoComposer 等支持 .time_stack. 层结构的 UNet 模型,目的是控制生成视频帧时不同注意力通道对结构/时间信息的关注程度,从而实现时空解耦控制、风格强化、结构保留或干扰等效果。


这里以sdxl基础生图模型为例,测试了对比效果,跟默认参数相比变化相当的小。仅作为实验使用。

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习