comfyui_llm_party
时间:2025/11/03
额外模型参数
“额外模型参数”节点用于细粒度控制 LLM 的生成行为。通过该节点,你可以调整输出格式、采样策略、重复惩罚、随机性等,从而在创造性与稳定性之间找到平衡。它常用于微调回答风格、减少重复、强制 JSON 输出、控制随机性等场景。
额外模型参数-节点参数说明
| 输出参数 | |
| extra_parameters | 包含所有设置的额外参数,传递给下游 LLM加载器 或 LLM推理 节点,用于改变模型的输出行为。 |
| 控件参数 | |
| json_out | 布尔值。设为 True 时,模型会尽量输出符合 JSON 格式的结果,便于下游解析。 |
| n | 生成的候选回答数量。默认 1。 |
| stop | 指定停止符(字符串或列表),模型在遇到时会停止生成。 |
| presence_penalty | 出现惩罚。值越大,越不容易重复已有主题。 |
| frequency_penalty | 频率惩罚。值越大,越不容易重复相同的词。 |
| repetition_penalty | 重复惩罚系数,默认 1.0。 |
| min_length | 生成文本的最小长度。 |
| logprobs | 是否返回 token 概率。用于调试或研究。 |
| echo | 是否返回输入和输出合并结果。 |
| best_of | 生成多个候选并返回其中最优的一个。 |
| user | 用户标识,可用于多用户追踪或审计。 |
| top_p | 核采样阈值(0~1)。越小输出越集中,越大越多样化。 |
| top_k | 限定采样时考虑的候选词个数。 |
| seed | 随机种子。相同 seed 下结果可复现。 |

