示例工作流
LLM通过“🖥️词嵌入模型工具“检索”G:\向量数据库“中的与user_prompt相关的信息,并提取最相关的前5条,然后根据这5条信息对user_prompt做出相应回复。
| 输入参数 | |
| file_content | 输入待处理的文本内容或文档数据(可选,与base_path二选一,该节点会优先调用base_path传入的数据)。 |
| ebd_model | 使用的嵌入模型,可以是本地路径或远程模型名称(可选,与model_path二选一)。 |
| 输出参数 | |
| tool | 嵌入检索工具对象,后续LLM节点可以调用它执行语义检索。 |
| 控件参数 | |
| model_path | 嵌入模型的本地路径,若使用本地模型,需确保路径包含所有模型文件(如.bin、.config等)。 |
| is_enable | 启用/禁用节点。设为False时跳过本节点,直接传递输入。 |
| k | 在检索时可设定默认返回的相似结果数量,例如输入5,则返回5段相似结果。 |
| device | 指定计算设备(cpu或cuda)。GPU加速可显著提升长文本处理效率。 |
| chunk_size | 文本分块大小(默认 200),决定每个切片的最大长度。 |
| chunk_overlap | 分块时的重叠部分(默认 50),保证语义连续性。 |
| base_path | 输入数据库文件的根目录路径。 |
LLM通过“🖥️词嵌入模型工具“检索”G:\向量数据库“中的与user_prompt相关的信息,并提取最相关的前5条,然后根据这5条信息对user_prompt做出相应回复。

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习