示例工作流:
- 最基础的工作流,该示例中接入的是ollama模型,直接在API LLM general link节点的文本输入框中输入相应信息,大模型即会返回相对应的信息,由于这个工作流使用的是deepseek-r1模型,因此还会返回推理过程信息。
- 给大模型接入天气查询工具,查询指定地区天气预报。
| 输入参数 | |
| model | 输入LLM大语言模型。 |
| system_prompt_input | 系统提示词输入,用于设定全局角色、背景或风格(可选)。 |
| user_prompt_input | 用户输入的核心问题或指令(可选)。 |
| tools | 工具调用接口,允许LLM在对话中使用外部工具(可选)。 |
| file_content | 文件输入内容,可让模型解析文档或代码(可选)。 |
| images | 图片输入,用于图像理解、多模态推理(可选)。 |
| extra_parameters | 附加参数,可传入自定义配置(可选)。 |
| user_history | 用户历史对话,用于保持上下文连贯性(可选)。 |
| img_URL | 图片URL输入,模型可直接处理远程图像(可选)。 |
| 输出参数 | |
| assistant_response | 模型生成的文本回复。 |
| history | 包含上下文的对话历史。 |
| tool | 当LLM作为另一个LLM的工具时,启用这个输出。大部分情况下可以无视。 |
| image | 如果模型生成图片或返回图片数据,则从这里输出。 |
| reasoning_content | 推理过程内容(部分支持链路模型时可用)。 |
| 控件参数 | |
| system_prompt | 静态设定的系统提示,和system_prompt_input可配合使用。 |
| user_prompt | 静态设定的用户提示,可和user_prompt_input动态输入结合。 |
| temperature | 温度参数控制模型输出的随机性。较高的温度将导致更随机和多样化的响应,而较低的温度将导致更集中和确定性的响应。 |
| is_memory | 是否启用记忆功能,用于跨对话的长期上下文管理。 |
| is_tools_in_sys_prompt | 决定了tools的信息是否会输入到系统提示词中。如果输入到系统提示词中可以让部分没有工具能力的模型解锁工具能力。 |
| is_locked | 当你没有更改任何参数时,直接返回上轮对话的结果,节省算力,稳定LLM的输出结果。 |
| main_brain | 决定了大模型是不是与用户对接的模型,禁用后,LLM节点可以作为另一个LLM节点的一个工具。 |
| max_length | 最大输出token数量,控制回复的长度上限。 |
| imgbb_api_key | 是可选的,如果你使用视觉功能时,不填这个key,就是base64编码传输到openai,如果加了一个key,就是图床生成URL后,将URL传入openai,不填也不影响使用,只是会影响对话记录的可读性。 |
| conversation_rounds | 决定了LLM的对话轮次,当超出对话轮次后,会只读取最近的对话轮次。 |
| historical_record | 可以将之前的对话记录加载到LLM中,继续上次的聊天。 |
| is_enable | 是否启用该节点。 |
| stream | 是否启用流式输出(逐字生成),可实现实时对话效果。 |
示例工作流:

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习