Nunchaku FLUX DiT Loader
节点功能:NunchakuFluxDiTLoader 是一个用来加载“FLUX.1”类型 AI 绘图模型的工具节点,它可以让这些模型在 ComfyUI 中运行得更快、更省显存。Nunchaku FLUX DiT
节点中英文对比
Nunchaku FLUX DiT Loader
model_path
cache_threshold
attention
cpu_offload
device_id
data_type
i2f_mode
Nunchaku FLUX DiT Loader
model_path
cache_threshold
attention
cpu_offload
device_id
data_type
i2f_mode
Nunchaku FLUX DiT Loader - 参数说明
输出参数
MODEL
加载并封装好的 FLUX 模型对象。
控件参数
model_path
选择 SVDQuant 量化后的 FLUX.1 模型目录。模型应放置在 ComfyUI/models/diffusion_models 目录下。
cache_threshold
缓存容差阈值,类似 WaveSpeed 的 residual_diff_threshold。提升该值可提升推理速度但可能降低质量。典型值为 0.12。设置为 0 表示不使用缓存,加快速度可设置为 0.12 左右,需注意画面稳定性是否下降。
attention
注意力实现方式。可选值:
• nunchaku-fp16:使用 FP16 注意力,约有 1.2× 加速。
• flash-attention2:默认选项,速度更快但不兼容老显卡。
若使用 20 系显卡,请选择 nunchaku-fp16。其他情况推荐使用 flash-attention2,速度更佳。
cpu_offload
是否启用 transformer CPU 侧卸载。可选值:
• auto:默认自动判断是否启用(14GB 显存以下启用)。
• enable:强制启用。
• disable:禁用。
建议保持 auto,低显存下自动卸载减少显存压力。若模型较大可尝试手动启用。
device_id
选择用于推理的 GPU ID,通常为 0。如果你拥有多块 GPU,可以选择指定哪一块 GPU 加载模型。
data_type
模型数据精度类型。可选值:
• bfloat16(推荐)
• float16(适用于 20 系 GPU)
默认使用 bfloat16,在 20 系显卡中请使用 float16 以避免不支持错误。
i2f_mode
仅适用于 20 系 GPU 的 GEMM 实现方式。可选值:
• enabled:默认启用。
• always:始终启用。
暂无节点说明