ComfyUI_LayerStyle_Advance

LayerUtility: DeepSeek API V2

节点功能:一个与 DeepSeek 大模型 API 交互的节点,能够实现基于 DeepSeek 模型的智能对话、文本生成等功能,支持对话历史管理(V2增加支持阿里云和火山引擎的deepseek api,并且还增加了超时时间)。


LayerUtility: DeepSeek API V2-节点参数说明
输入参数
history上下文对话历史结构,保持多轮连续对话状态。
输出参数
text本轮生成的回答内容。
history包含当前所有消息结构的历史内容。
控件参数
model选择 DeepSeek 支持的模型名称。
time_out请求超时时间(秒),默认 300 秒。
max_tokens最大生成 token 数量。
temperature控制生成的随机性。
top_pnucleus sampling 的阈值。
presence_penalty控制话题重复度惩罚(是否鼓励引入新主题)。
frequency_penalty控制高频词惩罚(是否减少重复用词)。
history_length历史保留轮数,决定上下文维持程度。
system_prompt系统角色设定提示,影响助手行为风格。
user_prompt当前用户输入内容。

关于api的设置大家可到DeepSeek API节点文章查看。

上一个节点的输出和对话历史可以作为下一个节点的输入,从而实现基于上一个问题的回答继续提问

temperature(温度参数)

作用:控制输出的多样性和随机性

  • 数值越低(接近0),输出越确定、保守、客观(倾向于选择概率最高的词)。

   适用场景:需要精确回答(如事实查询、代码生成)、减少胡言乱语。

  • 数值越高(接近1或更高),输出越有创意、多样性、随机性强。

   适用场景:创意写作、故事生成、发散性回答

temperature=0.9时,还会对“简称”进行扩展。 如下

top_p(核采样)

作用:控制生成词的候选范围(仅考虑累积概率达到 top_p 的词)。

  • top_p=0.9:仅从概率和占前90%的词中选择,模型会从更广泛的词汇中采样,生成的内容更具多样性,但可能会偏离主题或变得不够精准
  • top_p=0.1:仅从最可能的10%数词中选择,这会显著减少随机性,生成结果更集中

temperature 的关系:两者常结合使用,top_p 控制候选词集合,temperature 再决定从集合中选择哪个词。

一般先调top_p ,再调temperature

presence_penalty(存在惩罚):

  • 作用:降低模型重复生成 已在上下文中出现过 的词的概率。
  • 影响:避免整个对话或回答不断重复某个 已经提到的词

就以文中“的、与”字出现的次数作为对比,可以看出,值越大,已经出现的词再出现的次数越来越少。

frequency_penalty(频率惩罚):

  • 作用:降低模型 重复生成同一个词(不论是否已经在上下文中)的概率。
  • 影响:避免模型连续多次使用某个词(即使这个词之前没有出现过)。

以“AI"出现的次数为例,值越大,词重复出现的次数越少

当你将助手设定为 ‘You are a helpful and professional physician's assistant.’ 时,它就会以专业医生助理的语气来回答你的问题。