示例工作流
需要将模型文件放置在“\ComfyUI\custom_nodes\comfyui_llm_party\model\VLM-GGUF”目录下,该节点才能检索到。
| 输出参数 | |
| model | 已加载的 GGUF 模型对象,可用于多模态推理。 |
| 控件参数 | |
| ckpt_path | 模型的主权重文件路径(.gguf 格式),如 ggml-model-Q3_M.gguf。 |
| clip_path | 投影模型文件路径(.gguf 格式),通常与视觉部分相关,例如 mmproj-model-f16.gguf。 |
| max_ctx | 最大上下文长度(即模型能处理的最大 token 数),如 512。值越大显存占用越高。 |
| gpu_layers | 设置多少层放在 GPU 上,其余在 CPU 上。数值越高 → 推理更快,但显存占用更多。 |
| n_threads | CPU 推理线程数,推荐与 CPU 核心数接近。 |
| is_locked | 是否锁定模型,true 表示加载一次后保持不变,避免重复加载。 |
需要将模型文件放置在“\ComfyUI\custom_nodes\comfyui_llm_party\model\VLM-GGUF”目录下,该节点才能检索到。

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习