图层工具:SmolLM2(高级)

节点功能:调用 SmolLM2 模型 生成自然语言对话回复。LayerUtility: SmolLM2(Advance)-
节点中英文对比
图层工具:SmolLM2(高级)
  • smolLM2_model
  • text
  • max_new_tokens
    do_sample
    temperature
    top_p
    system_prompt
    user_prompt
    LayerUtility: SmolLM2(Advance)
  • smolLM2_model
  • text
  • max_new_tokens
    do_sample
    temperature
    top_p
    system_prompt
    user_prompt
    图层工具:SmolLM2(高级) - 参数说明
    输入参数
    smolLM2_model
    由 LS_Load_SmolLM2_Model 节点加载的模型对象。
    输出参数
    text
    模型返回的完整回答文本。
    控件参数
    max_new_tokens
    生成文本最大 token 数量。
    do_sample
    是否启用采样策略(如 Top-p)。开启时模型生成更具多样性;关闭则趋于确定性。
    temperature
    控制采样温度,值越大生成越随机。建议值在 0.5~1.0,过高会造成胡言乱语。
    top_p
    nucleus sampling 截断概率。越小越保守(高置信度),一般推荐 0.9。
    system_prompt
    设定 AI 助手行为的系统提示语。类似角色设定,可用于限制语气或用途(如“你是翻译助手”)。
    user_prompt
    用户提问内容。
    暂无节点说明
    节点列表 首页