comfyui_llm_party>🖥️简易VLM本地加载器
comfyui_llm_party
时间:2025/11/03

🖥️简易VLM本地加载器

该节点用于快速加载本地的多模态大模型(VLM),例如 Llama-3.2-11B-Vision-Instruct。相比VLM本地加载器,此节点在选择模型时支持下拉列表(无需手动输入路径),更适合常用模型快速切换。与标准版一样:此节点不会生成图片,它只能完成图文理解和多模态推理。
🖥️简易VLM本地加载器-节点参数说明
输出参数
model已加载的多模态模型对象。
tokenizer(processor)模型的处理器(如 tokenizer/processor),用于预处理文本和图像输入。
控件参数
model_name_or_path已放入模型目录下的 VLM 模型名,例如 Llama-3.2-11B-Vision-Instruct。
device推理设备:auto / cuda / cpu / mps,推荐 cuda(GPU)。
dtype精度控制:auto(自动)、float16(省显存)、float32(高精度)、bfloat16、int8 / int4(量化,节省显存)。
is_locked是否锁定模型,true 表示只加载一次,避免重复加载耗时。
type模型架构:llama-v、qwen-vl、deepseek-janus-pro,不同厂商需对应选择。

示例工作流

   相关模型文件需存放在”\ComfyUI\custom_nodes\comfyui_llm_party\model\VLM“目录下才能被该节点识别。

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习