核心模型参数(Model Parameters)
这些是直接与 AI 模型交互的底层设置,对输出质量影响最大。

-
温度 (Temperature)
- 作用:控制输出的随机性(创意性)。
- 范围:通常为 0.0 ~ 2.0。
- 如何设置:
- 低 (0.1-0.5):输出更确定、更聚焦、更一致,适用于代码生成、事实性问答、逻辑分析、翻译等需要准确性的任务,回答重复性高。
- 中 (0.6-0.9):良好的平衡点,既有创意又不失连贯性,适用于创意写作、头脑风暴、邮件草拟等大多数通用场景。
- 高 (1.0-1.5+):输出非常多样化、有创意,甚至可能天马行空,适用于诗歌创作、故事构思、生成意想不到的点子,但可能偏离主题或逻辑不清。
-
最大生成长度 (Max New Tokens / Max Length)
- 作用:限制单次回复的最大长度(以 Token 计,约等于 0.75 个英文单词或 0.5 个汉字)。
- 如何设置:
- 根据需求调整,写短文可设为 500-1000,长文或分析报告可设为 2000-4000。
- 设置过短会导致回答被截断,过长可能浪费资源,如果对话很长,也可以适当调高。
-
Top-p (核采样)
- 作用:与温度协同工作,从概率质量最高的词汇中进行采样,直到累积概率超过
p。 - 范围:0.0 ~ 1.0。
- 如何设置:
- 常用值 0.9-0.95:在保持多样性的同时有效减少无关或低概率的废话,是大多数场景的推荐值。
- 与温度的配合:通常优先调整 Temperature,如果发现输出虽然创意但包含太多奇怪用词,再尝试调低 Top-p (如到 0.85)。
- 作用:与温度协同工作,从概率质量最高的词汇中进行采样,直到累积概率超过
-
重复惩罚 (Repetition Penalty / Frequency Penalty)
- 作用:降低已出现过的 Token 的概率,防止 AI 陷入重复循环。
- 范围:1.0 ~ 2.0 (1.0 表示无惩罚)。
- 如何设置:
- 如果发现 AI 总在重复相同的短语或段落,可以逐步调高此值 (如 1.1 ~ 1.3)。
- 设置过高可能导致输出不自然或回避使用必要的常用词。
高级功能与设置
这些设置帮助你更好地管理上下文和优化工作流。
-
上下文长度 (Context Window)
- 作用:决定模型一次性能“多少 tokens(包括你的输入和它的输出)。
- 注意:OpenClaw 使用的模型有固定的最大上下文长度(如 4K, 8K, 16K, 32K, 128K 等),你需要确保“对话历史 + 新问题”不超过这个限制。
- 策略:对于超长对话或文档分析,选择支持更长上下文的模型(如 GPT-4 128K, Claude 200K,或特定的开源长上下文模型)。
-
系统提示词 (System Prompt)
- 这是最重要的进阶设置!
- 作用:在对话开始前,隐性地指导 AI 的角色、行为和回复格式,它比在用户消息中说明更有效。
- 高级用法示例:
- 角色扮演:“你是一位经验丰富的软件架构师,擅长用比喻向非技术人员解释复杂概念。”
- 输出格式化:“请始终以以下 Markdown 表格格式总结要点:| 项目 | 说明 |\n|---|---|”
- 思维链引导:“请分三步思考:1. 理解问题核心;2. 拆解关键要素;3. 给出结构化建议,在最终答案前,先输出‘思考过程:’。”
- 限制行为:“你只回答与技术相关的问题,对于其他问题,礼貌地拒绝。”
-
停止序列 (Stop Sequences)
- 作用:定义一些字符串,当 AI 生成到这些字符串时,立即停止生成。
- 应用场景:
- 在 API 调用或需要严格结构时,设置
“\\n###”,, 或“<|endoftext|>”。 - 防止 AI 在完成回答后继续漫无目的地“说下去”。
- 在 API 调用或需要严格结构时,设置
-
注入开始/结束文本
- 作用:在 AI 回复的开头或结尾自动添加固定文本。
- 应用场景:自动化某些格式,例如总是在回复开头加
【助理】,或在结尾加---\\n*以上信息由 AI 生成,请谨慎核对。*
针对不同场景的配置模板
你可以将以下组合保存为“预设”(OpenClaw 支持),以便快速切换。
-
代码编程模式
- 温度: 0.2
- Top-p: 0.95
- 重复惩罚: 1.1
- 系统提示词: “你是一个顶尖的程序员助手,只返回代码和必要的、简洁的解释,代码必须高效、健壮,并包含关键注释。”
- 停止序列: (防止它跳出代码块)
-
创意写作模式
- 温度: 0.85
- Top-p: 0.9
- 重复惩罚: 1.05
- 系统提示词: “你是一位充满想象力的小说家,你的语言生动、富有画面感和感染力,请专注于构建场景、人物和情感。”
- 最大长度: 1500
-
学术分析/报告模式
- 温度: 0.3
- Top-p: 0.95
- 重复惩罚: 1.15 (避免重复论点)
- 系统提示词: “你是一个严谨的学术研究员,你的分析必须结构清晰、论据充分、逻辑严密,优先使用分点、列表和标题来组织内容,并在适当时引用数据或概念。”
- 最大长度: 3000
-
快速摘要模式
- 温度: 0.1
- Top-p: 1.0
- 重复惩罚: 1.2 (强制精简)
- 系统提示词: “请用最精炼的语言总结以下内容的核心要点,不超过 3 个 bullet points。”
最佳实践与提醒
- 实验与迭代:没有放之四海而皆准的配置,针对你的具体任务,从推荐值开始,小步调整(尤其是温度),观察效果。
- 参数优先级:系统提示词 > 温度 > Top-p > 其他,花时间优化系统提示词往往比调整参数收益更大。
- 成本与效率:更高的温度、更长的输出和更大的上下文窗口会消耗更多 Tokens(对于按量付费的 API 来说就是更高的成本),在效果和效率间找到平衡。
- 记录成功配置:当你为某个特定任务(如“写周报”、“ debug Python 错误”)找到一组完美的参数和提示词时,把它记录下来或保存为模板。
- 理解模型差异:不同的模型(如 GPT-4, Claude, Gemini, 本地 Llama)对参数的敏感度不同,为每个主要使用的模型建立独立的参数基线。
通过熟练运用这些进阶设置,你可以将 OpenClaw 从一个通用的聊天工具,转变为高度定制化、高效的专业助手,真正适应你独特的工作流和需求。