Model Providers

Trang này giới thiệu về các nhà cung cấp LLM/model (không phải các channel chat như WhatsApp/Telegram). Để tìm hiểu về quy tắc chọn model, các bạn xem /concepts/models.

Quy tắc nhanh

  • Model refs dùng định dạng provider/model (ví dụ: opencode/claude-opus-4-5).
  • Nếu các bạn set agents.defaults.models, nó sẽ trở thành allowlist.
  • Các lệnh CLI hỗ trợ: openclaw onboard, openclaw models list, openclaw models set <provider/model>.

Built-in providers (pi-ai catalog)

OpenClaw đi kèm với pi‑ai catalog. Các provider này không cần cấu hình models.providers; chỉ cần set auth + chọn model là xong.

OpenAI

  • Provider: openai
  • Auth: OPENAI_API_KEY
  • Model ví dụ: openai/gpt-5.2
  • CLI: openclaw onboard --auth-choice openai-api-key
{
  agents: { defaults: { model: { primary: "openai/gpt-5.2" } } },
}

Anthropic

  • Provider: anthropic
  • Auth: ANTHROPIC_API_KEY hoặc claude setup-token
  • Model ví dụ: anthropic/claude-opus-4-5
  • CLI: openclaw onboard --auth-choice token (paste setup-token) hoặc openclaw models auth paste-token --provider anthropic
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}

OpenAI Code (Codex)

  • Provider: openai-codex
  • Auth: OAuth (ChatGPT)
  • Model ví dụ: openai-codex/gpt-5.2
  • CLI: openclaw onboard --auth-choice openai-codex hoặc openclaw models auth login --provider openai-codex
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.2" } } },
}

OpenCode Zen

  • Provider: opencode
  • Auth: OPENCODE_API_KEY (hoặc OPENCODE_ZEN_API_KEY)
  • Model ví dụ: opencode/claude-opus-4-5
  • CLI: openclaw onboard --auth-choice opencode-zen
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-5" } } },
}

Google Gemini (API key)

  • Provider: google
  • Auth: GEMINI_API_KEY
  • Model ví dụ: google/gemini-3-pro-preview
  • CLI: openclaw onboard --auth-choice gemini-api-key

Google Vertex, Antigravity, và Gemini CLI

  • Providers: google-vertex, google-antigravity, google-gemini-cli
  • Auth: Vertex dùng gcloud ADC; Antigravity/Gemini CLI dùng auth flow riêng của chúng
  • Antigravity OAuth được tích hợp sẵn dưới dạng bundled plugin (google-antigravity-auth, mặc định tắt).
    • Bật: openclaw plugins enable google-antigravity-auth
    • Đăng nhập: openclaw models auth login --provider google-antigravity --set-default
  • Gemini CLI OAuth được tích hợp sẵn dưới dạng bundled plugin (google-gemini-cli-auth, mặc định tắt).
    • Bật: openclaw plugins enable google-gemini-cli-auth
    • Đăng nhập: openclaw models auth login --provider google-gemini-cli --set-default
    • Lưu ý: các bạn không cần paste client id hoặc secret vào openclaw.json. Quy trình đăng nhập CLI sẽ lưu token trong auth profiles trên gateway host.

Z.AI (GLM)

  • Provider: zai
  • Auth: ZAI_API_KEY
  • Model ví dụ: zai/glm-4.7
  • CLI: openclaw onboard --auth-choice zai-api-key
    • Aliases: z.ai/*z-ai/* sẽ được chuẩn hóa thành zai/*

Vercel AI Gateway

  • Provider: vercel-ai-gateway
  • Auth: AI_GATEWAY_API_KEY
  • Model ví dụ: vercel-ai-gateway/anthropic/claude-opus-4.5
  • CLI: openclaw onboard --auth-choice ai-gateway-api-key

Các built-in provider khác

  • OpenRouter: openrouter (OPENROUTER_API_KEY)
  • Model ví dụ: openrouter/anthropic/claude-sonnet-4-5
  • xAI: xai (XAI_API_KEY)
  • Groq: groq (GROQ_API_KEY)
  • Cerebras: cerebras (CEREBRAS_API_KEY)
    • Các model GLM trên Cerebras dùng id zai-glm-4.7zai-glm-4.6.
    • Base URL tương thích OpenAI: https://api.cerebras.ai/v1.
  • Mistral: mistral (MISTRAL_API_KEY)
  • GitHub Copilot: github-copilot (COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN)

Providers qua models.providers (custom/base URL)

Dùng models.providers (hoặc models.json) để thêm các provider tùy chỉnh hoặc proxy tương thích OpenAI/Anthropic.

Moonshot AI (Kimi)

Moonshot dùng endpoint tương thích OpenAI, nên cấu hình nó như một custom provider:

  • Provider: moonshot
  • Auth: MOONSHOT_API_KEY
  • Model ví dụ: moonshot/kimi-k2.5

Các ID model Kimi K2:

{/_ moonshot-kimi-k2-model-refs:start _/ && null}

  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-0905-preview
  • moonshot/kimi-k2-turbo-preview
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo {/_ moonshot-kimi-k2-model-refs:end _/ && null}
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi Coding dùng endpoint tương thích Anthropic của Moonshot AI:

  • Provider: kimi-coding
  • Auth: KIMI_API_KEY
  • Model ví dụ: kimi-coding/k2p5
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi-coding/k2p5" } },
  },
}

Qwen OAuth (free tier)

Qwen cung cấp OAuth access cho Qwen Coder + Vision qua device-code flow. Bật bundled plugin, sau đó đăng nhập:

openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default

Model refs:

  • qwen-portal/coder-model
  • qwen-portal/vision-model

Xem /providers/qwen để biết chi tiết thiết lập và ghi chú.

Synthetic

Synthetic cung cấp các model tương thích Anthropic qua provider synthetic:

  • Provider: synthetic
  • Auth: SYNTHETIC_API_KEY
  • Model ví dụ: synthetic/hf:MiniMaxAI/MiniMax-M2.1
  • CLI: openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.1" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.1", name: "MiniMax M2.1" }],
      },
    },
  },
}

MiniMax

MiniMax được cấu hình qua models.providers vì nó dùng custom endpoint:

  • MiniMax (tương thích Anthropic): --auth-choice minimax-api
  • Auth: MINIMAX_API_KEY

Xem /providers/minimax để biết chi tiết thiết lập, tùy chọn model, và đoạn config mẫu.

Ollama

Ollama là một local LLM runtime cung cấp API tương thích OpenAI:

  • Provider: ollama
  • Auth: Không cần (local server)
  • Model ví dụ: ollama/llama3.3
  • Cài đặt: https://ollama.ai
# Cài Ollama, sau đó pull model:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}

Ollama được tự động phát hiện khi chạy local tại http://127.0.0.1:11434/v1. Xem /providers/ollama để biết các model được khuyên dùng và cấu hình tùy chỉnh.

Local proxies (LM Studio, vLLM, LiteLLM, v.v.)

Ví dụ (tương thích OpenAI):

{
  agents: {
    defaults: {
      model: { primary: "lmstudio/minimax-m2.1-gs32" },
      models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [
          {
            id: "minimax-m2.1-gs32",
            name: "MiniMax M2.1",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Lưu ý:

  • Với custom provider, reasoning, input, cost, contextWindow, và maxTokens là tùy chọn. Khi bỏ qua, OpenClaw sẽ dùng giá trị mặc định:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • Mình khuyên: nên set giá trị rõ ràng phù hợp với giới hạn proxy/model của các bạn.

Ví dụ CLI

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-5
openclaw models list

Xem thêm: /gateway/configuration để biết các ví dụ cấu hình đầy đủ.