模型 Provider
OpenClaw 可以使用多种 LLM Provider。选择一个 Provider,完成认证,然后把默认模型设置为 provider/model 格式。
想找聊天 Channel 的文档(WhatsApp/Telegram/Discord/Slack/Mattermost (plugin) 等)?看这里:Channel。
推荐:Venice (Venice AI)
Venice 是我们推荐的 Venice AI 配置,注重隐私保护,同时可以在困难任务时使用 Opus。
- 默认:
venice/llama-3.3-70b - 综合最佳:
venice/claude-opus-45(Opus 依然是最强的)
详见 Venice AI。
快速开始
- 向 Provider 认证(通常用
openclaw onboard命令)。 - 设置默认模型:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
Provider 文档
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, privacy-focused)
- Ollama (local models)
转录 Provider
社区工具
- Claude Max API Proxy - 把 Claude Max/Pro 订阅当作 OpenAI 兼容的 API 端点使用
想了解完整的 Provider 目录(xAI、Groq、Mistral 等)和高级配置,看这里:模型 Provider。