Model Provider
OpenClaw kann viele LLM-Provider nutzen. Wähle einen Provider aus, authentifiziere dich und setze dann das Standardmodell als provider/model.
Suchst du nach Chat-Channel-Dokumentation (WhatsApp/Telegram/Discord/Slack/Mattermost (Plugin)/etc.)? Siehe Channels.
Highlight: Venice (Venice AI)
Venice ist unser empfohlenes Venice AI Setup für datenschutzorientierte Inferenz mit der Option, Opus für anspruchsvolle Aufgaben zu nutzen.
- Standard:
venice/llama-3.3-70b - Insgesamt am besten:
venice/claude-opus-45(Opus bleibt das stärkste Modell)
Siehe Venice AI.
Schnellstart
- Authentifiziere dich beim Provider (normalerweise über
openclaw onboard). - Setze das Standardmodell:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
Provider-Dokumentation
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, datenschutzorientiert)
- Ollama (lokale Modelle)
Transcription Provider
Community-Tools
- Claude Max API Proxy - Nutze dein Claude Max/Pro Abo als OpenAI-kompatiblen API-Endpunkt
Den vollständigen Provider-Katalog (xAI, Groq, Mistral, etc.) und erweiterte Konfiguration findest du unter Model Provider.