WanVideo Model Loader

节点功能:用于加载 WanVideo 系列的视频生成模型WanVideo Model
节点中英文对比
WanVideo Model Loader
  • compile_args
  • block_swap_args
  • lora
  • vram_management_args
  • vace_model
  • fantasytalking_model
  • 模型
  • model
    base_precision
    quantization
    load_device
    attention_mode
    WanVideo Model Loader
  • compile_args
  • block_swap_args
  • lora
  • vram_management_args
  • vace_model
  • fantasytalking_model
  • model
  • model
    base_precision
    quantization
    load_device
    attention_mode
    WanVideo Model Loader - 参数说明
    输入参数
    compile_args
    使用 torch.compile 加速推理,包含后端、模式、图编译范围等设置。
    block_swap_args
    控制 block 级卸载策略,来自 DiffSynth 系列。
    lora
    加载多个 LoRA 模型,附带路径和强度。
    vram_management_args
    来自 DiffSynth 的显存优化策略。更激进的卸载机制,适合显存极度不足的情况。与 block_swap 不可共存。
    vace_model
    外部指定的 VACE 模型路径。
    fantasytalking_model
    指定 FantasyTalking 项目的 Transformer 融合权重。
    输出参数
    model
    加载并融合配置完成的 WanVideo 模型对象。
    控件参数
    model
    从 ComfyUI/models/diffusion_models 目录中读取的模型文件名。
    base_precision
    加载时使用的基础精度(如 fp32, bf16, fp16, fp16_fast)。
    quantization
    可选的量化模式(如 fp8_e4m3fn, int8, torchao_int4 等)。
    load_device
    模型初始加载所使用的设备(main_device 或 offload_device)。若显存充足可选 main_device,否则建议 offload_device。
    attention_mode
    注意力机制类型,控制 Transformer 模块的注意力计算方式。 • sdpa:标准 PyTorch 实现,兼容性强但性能一般; • flash_attn_2:性能优越,推荐在大多数 GPU 上使用,需安装 FlashAttention 2; • flash_attn_3:更高级版本,未来替代方案,需手动安装; • sageattn:性能极优但需额外插件 sageattention,适合大模型环境。
    暂无节点说明
    节点列表 首页