Load FramePackModel
节点功能:用于加载本地已下载的模型,支持手动选择模型路径,适合离线或自定义模型的使用场景。
输入参数
参数名称 | 说明 |
---|---|
compile_args | 可选,来自 FramePackTorchCompileSettings 节点的配置参数。 |
输出参数
参数名称 | 说明 |
---|---|
model | 加载并初始化后的 FramePack 视频生成模型。 |
控件参数
参数名称 | 说明 |
---|---|
model | 选择要加载的 FramePack 模型。 |
base_precision | 模型基础精度类型,支持 fp32、bf16、fp16。默认 bf16。 |
quantization | 可选的量化方法,用于减少显存消耗。支持 disabled、fp8_e4m3fn、fp8_e4m3fn_fast、fp8_e5m2。默认 disabled。 |
attention_mode | 用于 transformer 的注意力计算方法。 sdpa 是 PyTorch 原生实现,兼容性最好但速度最慢,适合调试;flash_attn 是 NVIDIA 优化内核,速度最快且显存利用高,适合大批量推理;sageattn 是稀疏注意力机制,计算量少但精度略低,适合超长序列任务。 |
它有两个模型可供选择FramePackI2V_HY_fp8_e4m3fn.safetensors和FramePackI2V_HY_bf16.safetensors
FramePackI2V_HY_fp8_e4m3fn.safetensors视频生成时间
FramePackI2V_HY_bf16.safetensors视频生成时间
bf16比fp8的手部细节更好,且运行时间差不多,甚至更短
以下是三种不同的加速方式视频生成时间
sdpa
flash-attn
sageattn
可以看出sageattn的加速效果更明显一些。(这里只是5s视频,差距不是很大)左边sdpa,中间flash-attn,右边sageattn