WanVideo Model Loader
节点功能:用于加载 WanVideo 系列的视频生成模型WanVideo Model
节点中英文对比
WanVideo Model Loader
model
base_precision
quantization
load_device
attention_mode
WanVideo Model Loader
model
base_precision
quantization
load_device
attention_mode
WanVideo Model Loader - 参数说明
输入参数
compile_args
使用 torch.compile 加速推理,包含后端、模式、图编译范围等设置。
block_swap_args
控制 block 级卸载策略,来自 DiffSynth 系列。
lora
加载多个 LoRA 模型,附带路径和强度。
vram_management_args
来自 DiffSynth 的显存优化策略。更激进的卸载机制,适合显存极度不足的情况。与 block_swap 不可共存。
vace_model
外部指定的 VACE 模型路径。
fantasytalking_model
指定 FantasyTalking 项目的 Transformer 融合权重。
输出参数
model
加载并融合配置完成的 WanVideo 模型对象。
控件参数
model
从 ComfyUI/models/diffusion_models 目录中读取的模型文件名。
base_precision
加载时使用的基础精度(如 fp32, bf16, fp16, fp16_fast)。
quantization
可选的量化模式(如 fp8_e4m3fn, int8, torchao_int4 等)。
load_device
模型初始加载所使用的设备(main_device 或 offload_device)。若显存充足可选 main_device,否则建议 offload_device。
attention_mode
注意力机制类型,控制 Transformer 模块的注意力计算方式。
• sdpa:标准 PyTorch 实现,兼容性强但性能一般;
• flash_attn_2:性能优越,推荐在大多数 GPU 上使用,需安装 FlashAttention 2;
• flash_attn_3:更高级版本,未来替代方案,需手动安装;
• sageattn:性能极优但需额外插件 sageattention,适合大模型环境。
暂无节点说明