Load FramePackModel

节点功能:用于加载本地已下载的模型,支持手动选择模型路径,适合离线或自定义模型的使用场景。Load
节点中英文对比
Load FramePackModel
  • compile_args
  • 模型
  • model
    base_precision
    quantization
    attention_mode
    Load FramePackModel
  • compile_args
  • model
  • model
    base_precision
    quantization
    attention_mode
    Load FramePackModel - 参数说明
    输入参数
    compile_args
    可选,来自 FramePackTorchCompileSettings 节点的配置参数。
    输出参数
    model
    加载并初始化后的 FramePack 视频生成模型。
    控件参数
    model
    选择要加载的 FramePack 模型。
    base_precision
    模型基础精度类型,支持 fp32、bf16、fp16。默认 bf16。
    quantization
    可选的量化方法,用于减少显存消耗。支持 disabled、fp8_e4m3fn、fp8_e4m3fn_fast、fp8_e5m2。默认 disabled。
    attention_mode
    用于 transformer 的注意力计算方法。 sdpa 是 PyTorch 原生实现,兼容性最好但速度最慢,适合调试;flash_attn 是 NVIDIA 优化内核,速度最快且显存利用高,适合大批量推理;sageattn 是稀疏注意力机制,计算量少但精度略低,适合超长序列任务。
    暂无节点说明
    节点列表 首页