UNetTemporalAttentionMultiply

节点功能: UNetTemporalAttentionMultiply 是一个用于 细粒度调控视频模型中注意力机制输出强度的实验性节点,可分别调节 UNet 模型中四类注意力模块输出的权重乘法系数:Self-Attention(结构)Self-Attention(时间)Cross-Attention(结构)Cross-Attention(时间)特别适用于 SVD / AnimateDiff / VideoComposer 等支持 .time_stack. 层结构的 UNet 模型,目的是控制生成视频帧时不同注意力通道对结构/时间信息的关注程度,从而实现时空解耦控制、风格强化、结构保留或干扰等效果。

输入参数

参数名称说明
modelUNet 类型扩散模型对象,包含结构和时间注意力模块。

输出参数

参数名称说明
MODEL注入了结构/时序注意力调制的 UNet 模型。

控件参数

参数名称说明
self_structuralSelf-attention 的结构分支(spatial)缩放系数,默认 1.0。控制帧内结构建模强度,决定图像空间细节建模能力。
self_temporalSelf-attention 的时序分支(temporal)缩放系数,默认 1.0。控制帧间一致性建模强度,影响视频流畅性与一致性。
cross_structuralCross-attention 的结构分支(spatial)缩放系数,默认 1.0。 控制文本提示等条件在帧内的注入强度。
cross_temporalCross-attention 的时序分支(temporal)缩放系数,默认 1.0。控制文本或条件信息在帧间传播的强度。

这里以sdxl基础生图模型为例,测试了对比效果,跟默认参数相比变化相当的小。仅作为实验使用。