comfyui_llm_party>🖥️本地LLM加载器
comfyui_llm_party
时间:2025/11/03

🖥️本地LLM加载器

该节点用于加载本地的大语言模型(LLM),支持从硬盘目录或模型路径中直接加载模型和分词器(tokenizer)。它适合需要离线运行、私有化部署的场景,可以避免依赖外部API。
🖥️本地LLM加载器-节点参数说明
输出参数
model加载后的本地LLM模型对象。
tokenizer与模型对应的分词器,用于文本分词和编码。
控件参数
model_name_or_path模型路径或名称。
device运行设备。
dtype数据类型,用于显存优化。
is_locked是否锁定模型(true:加载后固定不再重新加载,节省运行时间。 false:每次运行可重新加载模型)。

示例工作流

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习