comfyui_llm_party>🖥️简易本地LLM加载器
comfyui_llm_party
时间:2025/11/03

🖥️简易本地LLM加载器

该节点用于加载本地存储的大语言模型(LLM),例如 Llama-3.2-1B-Instruct。它相比普通的本地LLM加载器,更简化了路径配置,只需选择模型名称即可快速加载。
🖥️简易本地LLM加载器-节点参数说明
输出参数
model已加载的大语言模型对象。
tokenizer模型对应的分词器对象。
控件参数
model_name_or_path本地模型名称或路径,例如 Llama-3.2-1B-Instruct。通常会从配置好的本地模型目录中读取。
device模型运行设备。
dtype模型加载精度。
is_locked是否锁定模型。设置为true时,加载一次后保持不变。

示例工作流

   需要将相关的LLM模型文件放置在“\ComfyUI\custom_nodes\comfyui_llm_party\model\LLM”目录下才能被该节点读取。

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习