Load FramePackModel
节点功能:用于加载本地已下载的模型,支持手动选择模型路径,适合离线或自定义模型的使用场景。Load
节点中英文对比
Load FramePackModel
model
base_precision
quantization
attention_mode
Load FramePackModel
model
base_precision
quantization
attention_mode
Load FramePackModel - 参数说明
输入参数
compile_args
可选,来自 FramePackTorchCompileSettings 节点的配置参数。
输出参数
model
加载并初始化后的 FramePack 视频生成模型。
控件参数
model
选择要加载的 FramePack 模型。
base_precision
模型基础精度类型,支持 fp32、bf16、fp16。默认 bf16。
quantization
可选的量化方法,用于减少显存消耗。支持 disabled、fp8_e4m3fn、fp8_e4m3fn_fast、fp8_e5m2。默认 disabled。
attention_mode
用于 transformer 的注意力计算方法。
sdpa 是 PyTorch 原生实现,兼容性最好但速度最慢,适合调试;flash_attn 是 NVIDIA 优化内核,速度最快且显存利用高,适合大批量推理;sageattn 是稀疏注意力机制,计算量少但精度略低,适合超长序列任务。
暂无节点说明