Nunchaku FLUX DiT Loader

节点功能:NunchakuFluxDiTLoader 是一个用来加载“FLUX.1”类型 AI 绘图模型的工具节点,它可以让这些模型在 ComfyUI 中运行得更快、更省显存。Nunchaku FLUX DiT
节点中英文对比
Nunchaku FLUX DiT Loader
  • 模型
  • model_path
    cache_threshold
    attention
    cpu_offload
    device_id
    data_type
    i2f_mode
    Nunchaku FLUX DiT Loader
  • MODEL
  • model_path
    cache_threshold
    attention
    cpu_offload
    device_id
    data_type
    i2f_mode
    Nunchaku FLUX DiT Loader - 参数说明
    输出参数
    MODEL
    加载并封装好的 FLUX 模型对象。
    控件参数
    model_path
    选择 SVDQuant 量化后的 FLUX.1 模型目录。模型应放置在 ComfyUI/models/diffusion_models 目录下。
    cache_threshold
    缓存容差阈值,类似 WaveSpeed 的 residual_diff_threshold。提升该值可提升推理速度但可能降低质量。典型值为 0.12。设置为 0 表示不使用缓存,加快速度可设置为 0.12 左右,需注意画面稳定性是否下降。
    attention
    注意力实现方式。可选值: • nunchaku-fp16:使用 FP16 注意力,约有 1.2× 加速。 • flash-attention2:默认选项,速度更快但不兼容老显卡。 若使用 20 系显卡,请选择 nunchaku-fp16。其他情况推荐使用 flash-attention2,速度更佳。
    cpu_offload
    是否启用 transformer CPU 侧卸载。可选值: • auto:默认自动判断是否启用(14GB 显存以下启用)。 • enable:强制启用。 • disable:禁用。 建议保持 auto,低显存下自动卸载减少显存压力。若模型较大可尝试手动启用。
    device_id
    选择用于推理的 GPU ID,通常为 0。如果你拥有多块 GPU,可以选择指定哪一块 GPU 加载模型。
    data_type
    模型数据精度类型。可选值: • bfloat16(推荐) • float16(适用于 20 系 GPU) 默认使用 bfloat16,在 20 系显卡中请使用 float16 以避免不支持错误。
    i2f_mode
    仅适用于 20 系 GPU 的 GEMM 实现方式。可选值: • enabled:默认启用。 • always:始终启用。
    暂无节点说明
    节点列表 首页