ComfyUI_LayerStyle_Advance>LayerUtility: Phi Prompt(Advance)
ComfyUI_LayerStyle_Advance
时间:2025/06/28

LayerUtility: Phi Prompt(Advance)

节点功能:调用 Phi-3.5 模型(支持文本生成和视觉问答)根据用户输入文本(可选图像)生成 AI 助手式的回复。
LayerUtility: Phi Prompt(Advance)-节点参数说明
输入参数
image可选图像输入,仅 Phi-3.5-vision-instruct 模型有效。
输出参数
text生成的文本结果,可能为图像描述、问答结果或对话响应内容。
控件参数
model选择使用的 Phi 模型。 auto:自动判断模型。自动选择文本模型或视觉模型。推荐用于通用流程中自动适配不同任务。 - Phi-3.5-mini-instruct:纯文本语言模型。用于纯文本 prompt 生成或对话场景,适合生成描述性文本或编程语句等。 - Phi-3.5-vision-instruct:多模态图文模型。可输入图像,生成与图像相关的描述、分析、问答等结果,适合图像分析类任务。
device推理设备选择。可选项:cuda, cpu。
dtype模型加载精度。可选项:fp16, bf16, fp32。
cache_model是否缓存加载后的模型以提升下次调用速度。默认关闭。
system_prompt系统提示词,为 AI 设置角色或行为。
user_prompt用户输入提示内容。支持多行。
do_sample是否启用采样生成。启用时结果更随机,关闭时更确定。
temperature控制生成随机性。值越高越随机,范围 0.01~1。
max_new_tokens控制最多生成的新 token 数量。范围 8~4096。

需要下载模型到ComfyUI/models/LLM文件夹,到插件主页的网盘链接下载。

  1. Phi-3.5-mini-instruct:纯文本模型,适合文本对话、任务指令类生成。
  2. Phi-3.5-vision-instruct:多模态模型,支持图像+文本输入,适合图像描述、图文问答。

当选择auto时,节点会根据任务来选择调用哪个模型。

一定要特定的模型做特定的任务,如果让纯文本模型来分析图片,则不会得到相应的信息。

广告

可加入知识星球获取所有示例工作流

广告

微信扫码入群,加入AIGC大家庭,与大家一起交流学习