示例工作流
llama模型在加载lora后,回答的信息都是定制化的信息。
| 输入参数 | |
| model | 上游已加载的 LLM 模型(如“本地LLM加载器”、“API LLM加载器”输出的模型)。 |
| 输出参数 | |
| model | 已应用 LoRA 的模型,可继续传递到后续推理、生成等节点中。 |
| 控件参数 | |
| is_enable | 是否启用 LoRA 加载功能。 |
| lora_path | LoRA 文件路径。 |
llama模型在加载lora后,回答的信息都是定制化的信息。

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习