Token 使用与成本

OpenClaw 追踪的是 Token,而不是字符数。Token 因模型而异,但大多数 OpenAI 风格的模型对于英文文本平均每个 Token 约 4 个字符。

System Prompt 是如何构建的

OpenClaw 在每次运行时都会组装自己的 System Prompt。它包括:

  • 工具列表 + 简短描述
  • Skill 列表(仅元数据;指令按需通过 read 加载)
  • 自我更新指令
  • Workspace + Bootstrap 文件(AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md 当它们是新文件时)。大文件会被 agents.defaults.bootstrapMaxChars 截断(默认: 20000)。
  • 时间(UTC + 用户时区)
  • 回复标签 + Heartbeat 行为
  • Runtime 元数据(主机/操作系统/模型/思考)

完整细节请参阅 System Prompt

Context 窗口中计入什么

模型接收到的所有内容都会计入 Context 限制:

  • System Prompt(上面列出的所有部分)
  • 对话历史(用户 + 助手消息)
  • 工具调用和工具结果
  • 附件/转录(图片、音频、文件)
  • Compaction 摘要和修剪产物
  • Provider 包装器或安全头(不可见,但仍会计数)

要查看实际细分(每个注入的文件、工具、Skill 和 System Prompt 大小),使用 /context list/context detail。参阅 Context

如何查看当前 Token 使用量

在聊天中使用这些命令:

  • /status表情符号丰富的状态卡片,显示 Session 模型、Context 使用情况、上次响应的输入/输出 Token,以及估算成本(仅限 API 密钥)。
  • /usage off|tokens|full → 在每次回复后附加每次响应的使用量页脚
    • 按 Session 持久化(存储为 responseUsage)。
    • OAuth 认证隐藏成本(仅显示 Token)。
  • /usage cost → 显示来自 OpenClaw Session 日志的本地成本摘要。

其他界面:

  • TUI/Web TUI: 支持 /status + /usage
  • CLI: openclaw status --usageopenclaw channels list 显示 Provider 配额窗口(不显示每次响应的成本)。

成本估算(何时显示)

成本是根据你的模型定价配置估算的:

models.providers.<provider>.models[].cost

这些是 inputoutputcacheReadcacheWrite每百万 Token 的美元价格。如果缺少定价信息,OpenClaw 只显示 Token。OAuth Token 永远不显示美元成本。

Cache TTL 和修剪影响

Provider Prompt 缓存仅在 Cache TTL 窗口内适用。OpenClaw 可以选择运行 cache-ttl 修剪:它在 Cache TTL 过期后修剪 Session,然后重置缓存窗口,以便后续请求可以重用新缓存的 Context,而不是重新缓存完整历史。这在 Session 空闲超过 TTL 时可以降低缓存写入成本。

Gateway 配置 中配置它,并在 Session 修剪 中查看行为细节。

Heartbeat 可以在空闲间隙保持缓存温暖。如果你的模型 Cache TTL 是 1h,将 Heartbeat 间隔设置为略低于此(例如 55m)可以避免重新缓存完整 Prompt,从而降低缓存写入成本。

对于 Anthropic API 定价,缓存读取比输入 Token 便宜得多,而缓存写入则以更高的倍数计费。查看 Anthropic 的 Prompt 缓存定价以获取最新费率和 TTL 倍数: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

示例:用 Heartbeat 保持 1 小时缓存温暖

agents:
  defaults:
    model:
      primary: "anthropic/claude-opus-4-5"
    models:
      "anthropic/claude-opus-4-5":
        params:
          cacheRetention: "long"
    heartbeat:
      every: "55m"

减少 Token 压力的技巧

  • 使用 /compact 来总结长 Session。
  • 在工作流中修剪大型工具输出。
  • 保持 Skill 描述简短(Skill 列表会注入到 Prompt 中)。
  • 对于冗长的探索性工作,优先使用较小的模型。

查看 Skill 了解确切的 Skill 列表开销公式。