需要下载模型到ComfyUI/models/LLM文件夹,到插件主页的网盘链接下载。
- Phi-3.5-mini-instruct:纯文本模型,适合文本对话、任务指令类生成。
- Phi-3.5-vision-instruct:多模态模型,支持图像+文本输入,适合图像描述、图文问答。
当选择auto时,节点会根据任务来选择调用哪个模型。
一定要特定的模型做特定的任务,如果让纯文本模型来分析图片,则不会得到相应的信息。
输入参数 | |
image | 可选图像输入,仅 Phi-3.5-vision-instruct 模型有效。 |
输出参数 | |
text | 生成的文本结果,可能为图像描述、问答结果或对话响应内容。 |
控件参数 | |
model | 选择使用的 Phi 模型。 auto:自动判断模型。自动选择文本模型或视觉模型。推荐用于通用流程中自动适配不同任务。 - Phi-3.5-mini-instruct:纯文本语言模型。用于纯文本 prompt 生成或对话场景,适合生成描述性文本或编程语句等。 - Phi-3.5-vision-instruct:多模态图文模型。可输入图像,生成与图像相关的描述、分析、问答等结果,适合图像分析类任务。 |
device | 推理设备选择。可选项:cuda, cpu。 |
dtype | 模型加载精度。可选项:fp16, bf16, fp32。 |
cache_model | 是否缓存加载后的模型以提升下次调用速度。默认关闭。 |
system_prompt | 系统提示词,为 AI 设置角色或行为。 |
user_prompt | 用户输入提示内容。支持多行。 |
do_sample | 是否启用采样生成。启用时结果更随机,关闭时更确定。 |
temperature | 控制生成随机性。值越高越随机,范围 0.01~1。 |
max_new_tokens | 控制最多生成的新 token 数量。范围 8~4096。 |
需要下载模型到ComfyUI/models/LLM文件夹,到插件主页的网盘链接下载。
当选择auto时,节点会根据任务来选择调用哪个模型。
一定要特定的模型做特定的任务,如果让纯文本模型来分析图片,则不会得到相应的信息。
可加入知识星球获取所有示例工作流
微信扫码入群,加入AIGC大家庭,与大家一起交流学习