API LLM通用链路
节点中英文对比
API LLM通用链路
system_prompt
user_prompt
temperature
is_memory
is_tools_in_sys_prompt
is_locked
main_brain
max_length
imgbb_api_key
conversation_rounds
historical_record
is_enable
stream
API LLM通用链路
system_prompt
user_prompt
temperature
is_memory
is_tools_in_sys_prompt
is_locked
main_brain
max_length
imgbb_api_key
conversation_rounds
historical_record
is_enable
stream
API LLM通用链路 - 参数说明
输入参数
model
输入LLM大语言模型。
system_prompt_input
系统提示词输入,用于设定全局角色、背景或风格(可选)。
user_prompt_input
用户输入的核心问题或指令(可选)。
tools
工具调用接口,允许LLM在对话中使用外部工具(可选)。
file_content
文件输入内容,可让模型解析文档或代码(可选)。
images
图片输入,用于图像理解、多模态推理(可选)。
extra_parameters
附加参数,可传入自定义配置(可选)。
user_history
用户历史对话,用于保持上下文连贯性(可选)。
img_URL
图片URL输入,模型可直接处理远程图像(可选)。
输出参数
assistant_response
模型生成的文本回复。
history
包含上下文的对话历史。
tool
当LLM作为另一个LLM的工具时,启用这个输出。大部分情况下可以无视。
image
如果模型生成图片或返回图片数据,则从这里输出。
reasoning_content
推理过程内容(部分支持链路模型时可用)。
控件参数
system_prompt
静态设定的系统提示,和system_prompt_input可配合使用。
user_prompt
静态设定的用户提示,可和user_prompt_input动态输入结合。
temperature
温度参数控制模型输出的随机性。较高的温度将导致更随机和多样化的响应,而较低的温度将导致更集中和确定性的响应。
is_memory
是否启用记忆功能,用于跨对话的长期上下文管理。
is_tools_in_sys_prompt
决定了tools的信息是否会输入到系统提示词中。如果输入到系统提示词中可以让部分没有工具能力的模型解锁工具能力。
is_locked
当你没有更改任何参数时,直接返回上轮对话的结果,节省算力,稳定LLM的输出结果。
main_brain
决定了大模型是不是与用户对接的模型,禁用后,LLM节点可以作为另一个LLM节点的一个工具。
max_length
最大输出token数量,控制回复的长度上限。
imgbb_api_key
是可选的,如果你使用视觉功能时,不填这个key,就是base64编码传输到openai,如果加了一个key,就是图床生成URL后,将URL传入openai,不填也不影响使用,只是会影响对话记录的可读性。
conversation_rounds
决定了LLM的对话轮次,当超出对话轮次后,会只读取最近的对话轮次。
historical_record
可以将之前的对话记录加载到LLM中,继续上次的聊天。
is_enable
是否启用该节点。
stream
是否启用流式输出(逐字生成),可实现实时对话效果。
暂无节点说明