OpenClaw 模型选择和成本优化指南
比较 OpenClaw 的 AI 模型,了解定价,学习在保持高质量响应的同时优化成本的策略。
OpenClaw Guides
Tutorial Authors
了解 AI 模型定价
AI 模型按 token 计费 - token 是大约 4 个字符或 0.75 个单词的文本块。你需要为以下两项付费:
- 输入 token:你发送的文本(你的消息 + 对话历史)
- 输出 token:模型生成的文本(回复)
OpenClaw 中可用的模型
OpenClaw 支持 Anthropic 的 Claude 模型,并通过 OpenRouter 支持其他提供商。以下是最常用的模型:
Claude 模型(Anthropic)
| 模型 | 输入价格 | 输出价格 | 最适合 |
|---|---|---|---|
| Claude Haiku 4.5 | $1.00/1M | $5.00/1M | 快速任务、大量消息 |
| Claude Sonnet 4 | $3.00/1M | $15.00/1M | 均衡性能 |
| Claude Sonnet 4.5 | $3.00/1M | $15.00/1M | 增强推理 |
| Claude Opus 4.6 | $5.00/1M | $25.00/1M | 最强大、研究用 |
价格截至 2026 年初。请查看 Anthropic 定价页面 获取最新价格。
成本对比示例
一次典型对话(1,000 输入 token 和 500 输出 token)的费用:
| 模型 | 输入成本 | 输出成本 | 总计 |
|---|---|---|---|
| Claude Haiku 4.5 | $0.001 | $0.0025 | $0.0035 |
| Claude Sonnet 4 | $0.003 | $0.0075 | $0.0105 |
| Claude Opus 4.6 | $0.005 | $0.0125 | $0.0175 |
Haiku 比 Sonnet 便宜 3 倍,比 Opus 便宜 5 倍!
选择合适的模型
在以下情况使用 Claude Haiku 4.5:
- 回答简单问题
- 快速查询和事实查找
- 高频消息场景(WhatsApp、Telegram)
- 成本是主要考虑因素
- 速度比深度更重要
在 ~/.openclaw/openclaw.json 中设置为默认模型:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-haiku-4-5"
}
}
}
}
在以下情况使用 Claude Sonnet 4 / 4.5:
- 需要写作辅助
- 代码生成或审查
- 中等复杂度任务
- 质量与成本的平衡
- 大多数日常使用场景
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4"
}
}
}
}
在以下情况使用 Claude Opus 4.6:
- 需要复杂分析
- 研究和深度推理
- 关键业务决策
- 质量至上
- 不计较成本
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-6"
}
}
}
}
按渠道路由模型
OpenClaw 允许你使用 modelByChannel 为不同渠道分配不同模型。这是最有效的成本优化方式 —— 在休闲渠道使用更便宜的模型,在工作渠道使用更强大的模型:
// ~/.openclaw/openclaw.json
{
"channels": {
"modelByChannel": {
"whatsapp": {
"default": "anthropic/claude-haiku-4-5"
},
"telegram": {
"default": "anthropic/claude-haiku-4-5"
},
"discord": {
"default": "anthropic/claude-sonnet-4"
},
"slack": {
"default": "anthropic/claude-sonnet-4"
}
}
}
}
你还可以设置模型故障转移 —— 当主模型不可用时,OpenClaw 会按顺序尝试备用模型:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4",
"fallbacks": [
"anthropic/claude-haiku-4-5"
]
}
}
}
}
社区自动路由器
如需基于消息复杂度的更智能路由,社区项目如 iblai-openclaw-router 和 ClawRoute 可以自动将简单查询路由到 Haiku,将复杂查询路由到 Sonnet 或 Opus。
成本优化策略
1. 限制对话历史
对话历史会快速累积 token。使用 historyLimit 来限制发送的历史消息数量:
// ~/.openclaw/openclaw.json
{
"messages": {
"groupChat": {
"historyLimit": 10
}
},
"channels": {
"whatsapp": {
"dmHistoryLimit": 8
},
"telegram": {
"dmHistoryLimit": 8
},
"discord": {
"historyLimit": 15
}
}
}
休闲渠道(WhatsApp、Telegram)保持 8-10 条消息,工作渠道(Discord、Slack)保持 15-20 条。这会显著减少每次请求的输入 token。
2. 使用 Anthropic 的 Prompt 缓存
Anthropic 提供 Prompt 缓存,可以大幅降低重复上下文(系统提示词、对话前缀)的成本:
| 操作 | 成本倍数 |
|---|---|
| 缓存写入(首次请求) | 1.25x 基础输入价格 |
| 缓存读取(后续请求) | 0.1x 基础输入价格 |
首次请求后,缓存内容享受 90% 折扣。如果你的系统提示词有 1,000 个 token,发送 50 条消息,你只需为第一条支付全价,其余 49 条只需 10%。
当你的 API 提供商启用了缓存时,OpenClaw 会自动支持此功能。检查你的 Anthropic 面板中的 "Cache Read Tokens" 使用量。
3. 选择更便宜的默认模型
最简单的优化:将默认模型从 Sonnet 切换到 Haiku。对于 80% 的日常交互(快速问答、查询、提醒、闲聊),Haiku 表现同样出色,而成本只是 Sonnet 的一小部分。
使用 modelByChannel 在特定工作渠道保留 Sonnet 或 Opus。
4. 使用模型目录和别名
定义模型目录以便于管理多个模型并跟踪成本:
{
"agents": {
"defaults": {
"models": {
"anthropic/claude-haiku-4-5": {
"alias": "fast",
"cost": { "input": 1.0, "output": 5.0 }
},
"anthropic/claude-sonnet-4": {
"alias": "balanced",
"cost": { "input": 3.0, "output": 15.0 }
},
"anthropic/claude-opus-4-6": {
"alias": "powerful",
"cost": { "input": 5.0, "output": 25.0 }
}
}
}
}
}
5. 对非紧急任务使用 Batch API
如果你有不紧急的工作负载,Anthropic 的 Batch API 提供输入和输出 token 50% 折扣:
| 模型 | 标准输出 | Batch 输出 |
|---|---|---|
| Claude Haiku 4.5 | $5.00/1M | $2.50/1M |
| Claude Sonnet 4 | $15.00/1M | $7.50/1M |
| Claude Opus 4.6 | $25.00/1M | $12.50/1M |
监控成本
实时使用量
# 查看当前使用量 openclaw stats # 输出: # Today's Usage: # Input tokens: 45,230 # Output tokens: 12,450 # Estimated cost: $0.23 # # This month: # Total tokens: 1,234,567 # Estimated cost: $8.45
详细报告
# 生成成本报告 openclaw stats --report monthly # 导出为 CSV openclaw stats --export costs.csv --period 30d
Anthropic Console 限额
在 Anthropic Console 中直接设置月度消费上限,以防意外账单。这是最可靠的预算控制方式 —— 达到上限后,API 将停止接受请求。
省钱配置模板
节省型配置
// 最小化成本优化
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-haiku-4-5"
}
}
},
"messages": {
"groupChat": {
"historyLimit": 5
}
}
}
预估成本:中等使用量约 $5-10/月
均衡型配置
// 质量与成本的良好平衡
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4",
"fallbacks": ["anthropic/claude-haiku-4-5"]
}
}
},
"channels": {
"modelByChannel": {
"whatsapp": { "default": "anthropic/claude-haiku-4-5" },
"telegram": { "default": "anthropic/claude-haiku-4-5" }
}
},
"messages": {
"groupChat": {
"historyLimit": 15
}
}
}
预估成本:中等使用量约 $15-25/月
质量优先型配置
// 最大化质量,成本次要
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4",
"fallbacks": ["anthropic/claude-opus-4-6"]
}
}
},
"channels": {
"modelByChannel": {
"discord": { "default": "anthropic/claude-opus-4-6" },
"slack": { "default": "anthropic/claude-opus-4-6" }
}
},
"messages": {
"groupChat": {
"historyLimit": 25
}
}
}
预估成本:中等使用量约 $30-50/月
多提供商配置(进阶)
通过 OpenRouter 使用多个提供商来优化成本:
// ~/.openclaw/openclaw.json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4",
"fallbacks": [
"openrouter/google/gemini-2.5-flash",
"anthropic/claude-haiku-4-5"
]
}
}
}
}
OpenClaw 使用 provider/model 格式来指定模型 ID。对于 OpenRouter 模型,使用 openrouter/author/slug 格式。
降低成本的技巧
- 提示词要具体 - 模糊的提示词会导致更长的回复
- 合理使用系统提示词 - 保持简洁
- 按渠道限制历史消息 - 休闲渠道不需要 20 条消息的上下文
- 启用 Prompt 缓存 - 重复上下文节省 90%
- 每周监控使用量 - 使用
openclaw stats及早发现意外峰值 - 测试时使用 Haiku - 生产环境再切换到 Sonnet
计算预期成本
使用以下公式:
月度成本 = (每日消息数 × 平均输入 Token × 输入价格) +
(每日消息数 × 平均输出 Token × 输出价格) × 30
以 Claude Sonnet 4 每天 50 条消息为例:
- 平均输入:800 token
- 平均输出:400 token
输入:50 × 800 × ($3/1M) × 30 = $3.60 输出:50 × 400 × ($15/1M) × 30 = $9.00 总计:~$12.60/月
如果将一半消息路由到 Haiku 4.5:
Haiku 部分:25 × 800 × ($1/1M) × 30 + 25 × 400 × ($5/1M) × 30 = $0.60 + $1.50 = $2.10 Sonnet 部分:25 × 800 × ($3/1M) × 30 + 25 × 400 × ($15/1M) × 30 = $1.80 + $4.50 = $6.30 总计:~$8.40/月
仅通过模型路由就节省了 33% —— 加上 Prompt 缓存后节省更多。