本地LLM通用链路

节点中英文对比
本地LLM通用链路
  • 模型
  • tokenizer
  • image
  • system_prompt_input
  • user_prompt_input
  • tools
  • file_content
  • extra_parameters
  • user_history
  • assistant_response
  • history
  • tool
  • image
  • system_prompt
    user_prompt
    model_type
    temperature
    max_length
    is_memory
    is_locked
    main_brain
    conversation_rounds
    historical_record
    is_enable
    is_enable_system_role
    本地LLM通用链路
  • model
  • tokenizer
  • image
  • system_prompt_input
  • user_prompt_input
  • tools
  • file_content
  • extra_parameters
  • user_history
  • assistant_response
  • history
  • tool
  • image
  • system_prompt
    user_prompt
    model_type
    temperature
    max_length
    is_memory
    is_locked
    main_brain
    conversation_rounds
    historical_record
    is_enable
    is_enable_system_role
    本地LLM通用链路 - 参数说明
    输入参数
    model
    模型对象,指定使用的本地模型实例。
    tokenizer
    分词器对象,用于输入输出的编码解码(可选)。
    image
    可选输入图像,用于多模态模型(VLM)识别或理解任务(可选)。
    system_prompt_input
    系统提示词,用于设定模型角色或行为(可选)。
    user_prompt_input
    用户输入文本,用于驱动对话或生成任务(可选)。
    tools
    工具对象集合,支持模型调用外部工具执行任务(可选)。
    file_content
    文件内容,可作为模型的外部知识输入(可选)。
    extra_parameters
    额外参数,传递给底层推理引擎(可选)。
    user_history
    历史对话,用于上下文延续(可选)。
    输出参数
    assistant_response
    模型生成的回复或输出文本。
    history
    对话历史,包含用户输入与模型输出。
    tool
    在需要时返回调用的工具对象。
    image
    当执行图像生成或理解任务时的输出结果。
    控件参数
    system_prompt
    系统提示词,用于设定模型角色或行为。
    user_prompt
    用户输入文本,用于驱动对话或生成任务。
    model_type
    模型类型,LLM(大语言模型)、VLM(多模态模型)。
    temperature
    控制输出随机性。取值范围 0–1,数值越大输出越多样化,越小则更稳定。
    max_length
    模型生成的最大 token 数,默认 512。
    is_memory
    是否启用长程记忆,记录并利用历史对话。
    is_locked
    锁定模型配置,避免运行时被修改。
    main_brain
    是否启用主脑模式,用于多代理协作时的主控逻辑。
    conversation_rounds
    最大对话轮次,超过后自动清理历史。
    historical_record
    是否保存对话的完整历史日志。
    is_enable
    控制节点是否启用,设为 False 时不会执行推理。
    is_enable_system_role
    是否启用系统提示词作为角色设定。
    暂无节点说明
    节点列表 首页