Load FramePackModel

节点功能:用于加载本地已下载的模型,支持手动选择模型路径,适合离线或自定义模型的使用场景。

输入参数

参数名称说明
compile_args可选,来自 FramePackTorchCompileSettings 节点的配置参数。

输出参数

参数名称说明
model加载并初始化后的 FramePack 视频生成模型。

控件参数

参数名称说明
model选择要加载的 FramePack 模型。
base_precision模型基础精度类型,支持 fp32、bf16、fp16。默认 bf16。
quantization可选的量化方法,用于减少显存消耗。支持 disabled、fp8_e4m3fn、fp8_e4m3fn_fast、fp8_e5m2。默认 disabled。
attention_mode用于 transformer 的注意力计算方法。 sdpa 是 PyTorch 原生实现,兼容性最好但速度最慢,适合调试;flash_attn 是 NVIDIA 优化内核,速度最快且显存利用高,适合大批量推理;sageattn 是稀疏注意力机制,计算量少但精度略低,适合超长序列任务。

它有两个模型可供选择FramePackI2V_HY_fp8_e4m3fn.safetensorsFramePackI2V_HY_bf16.safetensors

FramePackI2V_HY_fp8_e4m3fn.safetensors视频生成时间

FramePackI2V_HY_bf16.safetensors视频生成时间

bf16比fp8的手部细节更好,且运行时间差不多,甚至更短

以下是三种不同的加速方式视频生成时间

sdpa

flash-attn

sageattn

可以看出sageattn的加速效果更明显一些。(这里只是5s视频,差距不是很大)左边sdpa,中间flash-attn,右边sageattn