示例工作流
相关模型文件需存放在”\ComfyUI\custom_nodes\comfyui_llm_party\model\VLM“目录下才能被该节点识别。
| 输出参数 | |
| model | 已加载的多模态模型对象。 |
| tokenizer(processor) | 模型的处理器(如 tokenizer/processor),用于预处理文本和图像输入。 |
| 控件参数 | |
| model_name_or_path | 已放入模型目录下的 VLM 模型名,例如 Llama-3.2-11B-Vision-Instruct。 |
| device | 推理设备:auto / cuda / cpu / mps,推荐 cuda(GPU)。 |
| dtype | 精度控制:auto(自动)、float16(省显存)、float32(高精度)、bfloat16、int8 / int4(量化,节省显存)。 |
| is_locked | 是否锁定模型,true 表示只加载一次,避免重复加载耗时。 |
| type | 模型架构:llama-v、qwen-vl、deepseek-janus-pro,不同厂商需对应选择。 |
相关模型文件需存放在”\ComfyUI\custom_nodes\comfyui_llm_party\model\VLM“目录下才能被该节点识别。

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习