图层工具:SmolLM2(高级)
节点功能:调用 SmolLM2 模型 生成自然语言对话回复。LayerUtility: SmolLM2(Advance)-
节点中英文对比
图层工具:SmolLM2(高级)
max_new_tokens
do_sample
temperature
top_p
system_prompt
user_prompt
LayerUtility: SmolLM2(Advance)
max_new_tokens
do_sample
temperature
top_p
system_prompt
user_prompt
图层工具:SmolLM2(高级) - 参数说明
输入参数
smolLM2_model
由 LS_Load_SmolLM2_Model 节点加载的模型对象。
输出参数
text
模型返回的完整回答文本。
控件参数
max_new_tokens
生成文本最大 token 数量。
do_sample
是否启用采样策略(如 Top-p)。开启时模型生成更具多样性;关闭则趋于确定性。
temperature
控制采样温度,值越大生成越随机。建议值在 0.5~1.0,过高会造成胡言乱语。
top_p
nucleus sampling 截断概率。越小越保守(高置信度),一般推荐 0.9。
system_prompt
设定 AI 助手行为的系统提示语。类似角色设定,可用于限制语气或用途(如“你是翻译助手”)。
user_prompt
用户提问内容。
暂无节点说明