用了一段时间 OpenClaw,总结一下 Token 消耗情况和省钱方法。
Token 是什么
Token 是 AI 模型处理文本的最小单位。中文大约 1 个字 = 1-2 个 Token,英文大约 1 个单词 = 1-2 个 Token。
每次对话都会消耗 Token:
- 你发的消息(输入 Token)
- AI 的回复(输出 Token)
- 系统提示词(每次都会发送)
- 历史对话上下文(越聊越长)
消耗情况
以我日常使用为例:
| 场景 | 单次消耗 | 说明 |
|---|---|---|
| 简单问答 | 500-1k Token | 问个问题快速回答 |
| 写代码 | 2k-5k Token | 修改文件、调试 |
| 复杂任务 | 5k-15k Token | 部署服务、多步操作 |
| 长对话(50轮+) | 10k-30k Token | 上下文累积 |
一天正常使用大约消耗 10-30 万 Token。
省钱技巧
1. 用免费模型
OpenRouter 上有不少免费模型:
qwen/qwen3.6-plus:free— Qwen3.6 Plus 免费版- 一些 Beta 模型也是免费的
简单任务用免费模型,复杂任务切付费模型。
2. 控制上下文长度
OpenClaw 有上下文压缩机制,但尽量:
- 完成一个任务后说"新开话题"或
/reset - 避免在一个对话里做太多不相关的任务
3. 配置 Compaction
"agents": {
"defaults": {
"compaction": {
"mode": "safeguard"
}
}
}
safeguard 模式会在上下文接近上限时自动压缩,丢掉早期的消息但保留关键信息。
4. 用便宜的模型
OpenRouter 上不同模型价格差异很大:
| 模型 | 价格(每百万 Token) |
|---|---|
| GPT-4o | $5-15 |
| Claude 3.5 Sonnet | $3-15 |
| Qwen3.6 Plus | $0.5-2 |
| MiMo V2 Pro | 适中 |
| 免费模型 | $0 |
5. Heartbeat 节省
Heartbeat 是定时检查任务,默认可能每 30 分钟触发一次。如果不需要,可以清空 HEARTBEAT.md,节省不必要的 Token。
6. 用 Cron 替代轮询
需要定时任务时用 Cron 一次性触发,而不是在 Heartbeat 里轮询检查。
我的模型策略
- 日常对话:MiMo V2 Pro(性价比高)
- 简单问题:Qwen3.6 Plus 免费(零成本)
- 复杂推理:Claude / GPT-4o(贵但强)
通过 /model 随时切换,灵活搭配。
查看消耗
发送 /status 可以看到当前会话的 Token 消耗:
📊 Tokens: 117k in / 777 out
📚 Context: 135k/200k (67%)
🧹 Compactions: 0
下一篇文章讲讲 AI 养成技巧和人格塑造。