comfyui_llm_party
时间:2025/11/03
🖥️本地LLM加载器
该节点用于加载本地的大语言模型(LLM),支持从硬盘目录或模型路径中直接加载模型和分词器(tokenizer)。它适合需要离线运行、私有化部署的场景,可以避免依赖外部API。
🖥️本地LLM加载器-节点参数说明
| 输出参数 | |
| model | 加载后的本地LLM模型对象。 |
| tokenizer | 与模型对应的分词器,用于文本分词和编码。 |
| 控件参数 | |
| model_name_or_path | 模型路径或名称。 |
| device | 运行设备。 |
| dtype | 数据类型,用于显存优化。 |
| is_locked | 是否锁定模型(true:加载后固定不再重新加载,节省运行时间。 false:每次运行可重新加载模型)。 |

