写在前面
你有没有过这样的经历?
半夜睡一觉,醒来收到一封API账单邮件——1100美元。
不是段子,这是真实发生在OpenClaw社区的事。
还有人晒出月度账单:180万Token,折合3600美元。财务部门看完直接血压拉满。
但同一款工具,有人每月运行成本接近于零。
差距在哪?不是使用频率,而是你到底在用什么模型干什么样的活。
80%的AI任务,根本不需要昂贵模型。
读个文件、查个状态、整理个输出格式,你用GPT-5或Claude Opus去跑?那就像雇一个年薪百万的律师帮你复印文件。
openclaw-cost-optimizer,就是来解决这个问题的。
一、它到底是个什么?
openclaw-cost-optimizer(也叫model-hierarchy-skill)是一个模型分级路由技能。
说人话:它能让你的AI Agent自己判断任务难度,然后自动分配最合适的模型去执行。
简单任务用便宜模型,复杂任务才调用贵模型。
就这么一个逻辑,但效果炸裂。
它的核心理念只有三条:
- 先分类:判断任务属于哪种复杂度级别
- 再路由:把工作分发到性价比最高的模型
- 优先省钱:除非任务真需要高阶模型,否则绝不调用昂贵模型
最终目标:在保证结果质量的前提下,最大化性能/成本比。
二、为什么你需要它?
先看一组数据。
OpenClaw每次调用LLM的Token构成大概是这样的:
| 组成部分 | 典型Token量 | 占比 |
|---|---|---|
| System Prompt | 3,000-5,000 | 固定开销 |
| 配置文件注入(SOUL/AGENTS/USER/TOOLS) | 3,000-14,000 | 可优化 |
| 历史对话上下文 | 随轮次指数增长 | 最大杀手 |
| 工具调用结果 | 可达数万 | 可优化 |
| 你的输入+AI输出 | 通常几百 | 占比极小 |
GitHub Issue #21999有人拆解了一份150K+ Token的系统提示,结论一针见血:“浪费了93.5%的Token预算”。
大部分钱花在上下文注入和历史积累上,不在实际工作上。
更要命的是,很多场景你根本不需要强模型:
- 查个时间?用DeepSeek就够了,0.14美元/百万Token
- 格式化个文件