Model Providers
OpenClaw có thể dùng nhiều LLM provider khác nhau. Các bạn chỉ cần chọn một provider, xác thực, rồi đặt model mặc định theo định dạng provider/model.
Nổi bật: Venice (Venice AI)
Venice là setup Venice AI mà mình khuyên dùng cho inference ưu tiên quyền riêng tư, với tùy chọn dùng Opus cho các tác vụ khó nhất.
- Mặc định:
venice/llama-3.3-70b - Tốt nhất tổng thể:
venice/claude-opus-45(Opus vẫn là mạnh nhất)
Xem thêm tại Venice AI.
Bắt đầu nhanh (hai bước)
- Xác thực với provider (thường qua lệnh
openclaw onboard). - Đặt model mặc định:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
Các provider được hỗ trợ (bộ khởi đầu)
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
Để xem danh sách đầy đủ các provider (xAI, Groq, Mistral, v.v.) và cấu hình nâng cao, các bạn xem tại Model providers.