示例工作流
需要将相关的LLM模型文件放置在“\ComfyUI\custom_nodes\comfyui_llm_party\model\LLM”目录下才能被该节点读取。
| 输出参数 | |
| model | 已加载的大语言模型对象。 |
| tokenizer | 模型对应的分词器对象。 |
| 控件参数 | |
| model_name_or_path | 本地模型名称或路径,例如 Llama-3.2-1B-Instruct。通常会从配置好的本地模型目录中读取。 |
| device | 模型运行设备。 |
| dtype | 模型加载精度。 |
| is_locked | 是否锁定模型。设置为true时,加载一次后保持不变。 |
需要将相关的LLM模型文件放置在“\ComfyUI\custom_nodes\comfyui_llm_party\model\LLM”目录下才能被该节点读取。

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习