本地LLM通用链路
节点中英文对比
本地LLM通用链路
system_prompt
user_prompt
model_type
temperature
max_length
is_memory
is_locked
main_brain
conversation_rounds
historical_record
is_enable
is_enable_system_role
本地LLM通用链路
system_prompt
user_prompt
model_type
temperature
max_length
is_memory
is_locked
main_brain
conversation_rounds
historical_record
is_enable
is_enable_system_role
本地LLM通用链路 - 参数说明
输入参数
model
模型对象,指定使用的本地模型实例。
tokenizer
分词器对象,用于输入输出的编码解码(可选)。
image
可选输入图像,用于多模态模型(VLM)识别或理解任务(可选)。
system_prompt_input
系统提示词,用于设定模型角色或行为(可选)。
user_prompt_input
用户输入文本,用于驱动对话或生成任务(可选)。
tools
工具对象集合,支持模型调用外部工具执行任务(可选)。
file_content
文件内容,可作为模型的外部知识输入(可选)。
extra_parameters
额外参数,传递给底层推理引擎(可选)。
user_history
历史对话,用于上下文延续(可选)。
输出参数
assistant_response
模型生成的回复或输出文本。
history
对话历史,包含用户输入与模型输出。
tool
在需要时返回调用的工具对象。
image
当执行图像生成或理解任务时的输出结果。
控件参数
system_prompt
系统提示词,用于设定模型角色或行为。
user_prompt
用户输入文本,用于驱动对话或生成任务。
model_type
模型类型,LLM(大语言模型)、VLM(多模态模型)。
temperature
控制输出随机性。取值范围 0–1,数值越大输出越多样化,越小则更稳定。
max_length
模型生成的最大 token 数,默认 512。
is_memory
是否启用长程记忆,记录并利用历史对话。
is_locked
锁定模型配置,避免运行时被修改。
main_brain
是否启用主脑模式,用于多代理协作时的主控逻辑。
conversation_rounds
最大对话轮次,超过后自动清理历史。
historical_record
是否保存对话的完整历史日志。
is_enable
控制节点是否启用,设为 False 时不会执行推理。
is_enable_system_role
是否启用系统提示词作为角色设定。
暂无节点说明