comfyui_llm_party>🖥️本地LLM通用链路
comfyui_llm_party
时间:2025/11/03

🖥️本地LLM通用链路

“本地LLM通用链路”节点用于调用本地部署的大语言模型(LLM)或多模态模型(VLM),支持文本生成、图像理解、上下文对话、工具调用等多种能力。该节点通过灵活的输入接口和参数控制,可以模拟 ChatGPT 类对话流程,并支持与文件内容、工具链和历史对话结合。
🖥️本地LLM通用链路-节点参数说明
输入参数
model模型对象,指定使用的本地模型实例。
tokenizer分词器对象,用于输入输出的编码解码(可选)。
image可选输入图像,用于多模态模型(VLM)识别或理解任务(可选)。
system_prompt_input系统提示词,用于设定模型角色或行为(可选)。
user_prompt_input用户输入文本,用于驱动对话或生成任务(可选)。
tools工具对象集合,支持模型调用外部工具执行任务(可选)。
file_content文件内容,可作为模型的外部知识输入(可选)。
extra_parameters额外参数,传递给底层推理引擎(可选)。
user_history历史对话,用于上下文延续(可选)。
输出参数
assistant_response模型生成的回复或输出文本。
history对话历史,包含用户输入与模型输出。
tool在需要时返回调用的工具对象。
image当执行图像生成或理解任务时的输出结果。
控件参数
system_prompt系统提示词,用于设定模型角色或行为。
user_prompt用户输入文本,用于驱动对话或生成任务。
model_type模型类型,LLM(大语言模型)、VLM(多模态模型)。
temperature控制输出随机性。取值范围 0–1,数值越大输出越多样化,越小则更稳定。
max_length模型生成的最大 token 数,默认 512。
is_memory是否启用长程记忆,记录并利用历史对话。
is_locked锁定模型配置,避免运行时被修改。
main_brain是否启用主脑模式,用于多代理协作时的主控逻辑。
conversation_rounds最大对话轮次,超过后自动清理历史。
historical_record是否保存对话的完整历史日志。
is_enable控制节点是否启用,设为 False 时不会执行推理。
is_enable_system_role是否启用系统提示词作为角色设定。

  • 加载VLM模型的工作流,可以识别传入的图片信息。


  • 给大模型加上人物设定之后的对话工作流。
广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习