节点功能:一个与 DeepSeek 大模型 API 交互的节点,能够实现基于 DeepSeek 模型的智能对话、文本生成等功能,支持对话历史管理(V2增加支持阿里云和火山引擎的deepseek api,并且还增加了超时时间)。
关于api的设置大家可到DeepSeek API节点文章查看。
上一个节点的输出和对话历史可以作为下一个节点的输入,从而实现基于上一个问题的回答继续提问
temperature(温度参数)
作用:控制输出的多样性和随机性。
- 数值越低(接近0),输出越确定、保守、客观(倾向于选择概率最高的词)。
适用场景:需要精确回答(如事实查询、代码生成)、减少胡言乱语。
- 数值越高(接近1或更高),输出越有创意、多样性、随机性强。
适用场景:创意写作、故事生成、发散性回答
temperature=0.9时,还会对“简称”进行扩展。 如下
top_p(核采样)
作用:控制生成词的候选范围(仅考虑累积概率达到 top_p 的词)。
- top_p=0.9:仅从概率和占前90%的词中选择,模型会从更广泛的词汇中采样,生成的内容更具多样性,但可能会偏离主题或变得不够精准。
- top_p=0.1:仅从最可能的10%数词中选择,这会显著减少随机性,生成结果更集中。
与 temperature 的关系:两者常结合使用,top_p 控制候选词集合,temperature 再决定从集合中选择哪个词。
一般先调top_p ,再调temperature
presence_penalty(存在惩罚):
- 作用:降低模型重复生成 已在上下文中出现过 的词的概率。
- 影响:避免整个对话或回答不断重复某个 已经提到的词。
就以文中“的、与”字出现的次数作为对比,可以看出,值越大,已经出现的词再出现的次数越来越少。
frequency_penalty(频率惩罚):
- 作用:降低模型 重复生成同一个词(不论是否已经在上下文中)的概率。
- 影响:避免模型连续多次使用某个词(即使这个词之前没有出现过)。
以“AI"出现的次数为例,值越大,词重复出现的次数越少
当你将助手设定为 ‘You are a helpful and professional physician's assistant.’ 时,它就会以专业医生助理的语气来回答你的问题。