MiniMax
MiniMax ist ein KI-Unternehmen, das die M2/M2.1-Modellfamilie entwickelt. Das aktuelle Release mit Fokus auf Coding ist MiniMax M2.1 (23.12.2025), entwickelt für komplexe Aufgaben aus der Praxis.
Quelle: MiniMax M2.1 Release Note
Modell-Übersicht (M2.1)
MiniMax hebt diese Verbesserungen in M2.1 hervor:
- Stärkeres Multi-Language-Coding (Rust, Java, Go, C++, Kotlin, Objective-C, TS/JS).
- Bessere Web-/App-Entwicklung und ästhetische Output-Qualität (inklusive native Mobile-Apps).
- Verbesserte Verarbeitung von zusammengesetzten Anweisungen für Office-Workflows, basierend auf verschachteltem Denken und integrierter Constraint-Ausführung.
- Präzisere Antworten mit geringerem Token-Verbrauch und schnelleren Iterationszyklen.
- Stärkere Kompatibilität mit Tool/Agent-Frameworks und Context-Management (Claude Code, Droid/Factory AI, Cline, Kilo Code, Roo Code, BlackBox).
- Höhere Qualität bei Dialog- und technischen Texten.
MiniMax M2.1 vs MiniMax M2.1 Lightning
- Geschwindigkeit: Lightning ist die “schnelle” Variante laut MiniMax-Preisdokumentation.
- Kosten: Die Preise zeigen gleiche Input-Kosten, aber Lightning hat höhere Output-Kosten.
- Coding-Plan-Routing: Das Lightning-Backend ist nicht direkt im MiniMax Coding Plan verfügbar. MiniMax routet die meisten Anfragen automatisch zu Lightning, fällt aber bei Traffic-Spitzen auf das reguläre M2.1-Backend zurück.
Setup wählen
MiniMax OAuth (Coding Plan) — empfohlen
Ideal für: schnelles Setup mit MiniMax Coding Plan via OAuth, kein API-Key nötig.
Aktiviere das mitgelieferte OAuth-Plugin und authentifiziere dich:
openclaw plugins enable minimax-portal-auth # überspringe dies, falls bereits geladen
openclaw gateway restart # starte neu, falls Gateway bereits läuft
openclaw onboard --auth-choice minimax-portal
Du wirst aufgefordert, einen Endpoint auszuwählen:
- Global - Internationale Nutzer (
api.minimax.io) - CN - Nutzer in China (
api.minimaxi.com)
Details findest du in der MiniMax OAuth Plugin README.
MiniMax M2.1 (API-Key)
Ideal für: gehostetes MiniMax mit Anthropic-kompatibler API.
Konfiguration via CLI:
- Führe
openclaw configureaus - Wähle Model/auth
- Wähle MiniMax M2.1
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "minimax/MiniMax-M2.1" } } },
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "MiniMax-M2.1",
name: "MiniMax M2.1",
reasoning: false,
input: ["text"],
cost: { input: 15, output: 60, cacheRead: 2, cacheWrite: 10 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
MiniMax M2.1 als Fallback (Opus primär)
Ideal für: Opus 4.5 als primäres Modell behalten, bei Bedarf auf MiniMax M2.1 ausweichen.
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-5": { alias: "opus" },
"minimax/MiniMax-M2.1": { alias: "minimax" },
},
model: {
primary: "anthropic/claude-opus-4-5",
fallbacks: ["minimax/MiniMax-M2.1"],
},
},
},
}
Optional: Lokal via LM Studio (manuell)
Ideal für: lokale Inferenz mit LM Studio. Wir haben gute Ergebnisse mit MiniMax M2.1 auf leistungsstarker Hardware (z. B. Desktop/Server) mit LM Studios lokalem Server gesehen.
Manuelle Konfiguration via openclaw.json:
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.1-gs32" },
models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } },
},
},
models: {
mode: "merge",
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
apiKey: "lmstudio",
api: "openai-responses",
models: [
{
id: "minimax-m2.1-gs32",
name: "MiniMax M2.1 GS32",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 196608,
maxTokens: 8192,
},
],
},
},
},
}
Konfiguration via openclaw configure
Nutze den interaktiven Konfigurations-Wizard, um MiniMax ohne JSON-Bearbeitung einzurichten:
- Führe
openclaw configureaus. - Wähle Model/auth.
- Wähle MiniMax M2.1.
- Wähle dein Standard-Modell, wenn du dazu aufgefordert wirst.
Konfigurationsoptionen
models.providers.minimax.baseUrl: bevorzugehttps://api.minimax.io/anthropic(Anthropic-kompatibel);https://api.minimax.io/v1ist optional für OpenAI-kompatible Payloads.models.providers.minimax.api: bevorzugeanthropic-messages;openai-completionsist optional für OpenAI-kompatible Payloads.models.providers.minimax.apiKey: MiniMax API-Key (MINIMAX_API_KEY).models.providers.minimax.models: definiereid,name,reasoning,contextWindow,maxTokens,cost.agents.defaults.models: setze Aliase für Modelle, die du in der Allowlist haben willst.models.mode: behaltemerge, wenn du MiniMax zusätzlich zu den eingebauten Modellen hinzufügen willst.
Hinweise
- Modell-Referenzen haben das Format
minimax/<model>. - Coding Plan Usage API:
https://api.minimaxi.com/v1/api/openplatform/coding_plan/remains(benötigt einen Coding-Plan-Key). - Aktualisiere die Preiswerte in
models.json, wenn du exaktes Cost-Tracking brauchst. - Referral-Link für MiniMax Coding Plan (10 % Rabatt): https://platform.minimax.io/subscribe/coding-plan?code=DbXJTRClnb&source=link
- Siehe /concepts/model-providers für Provider-Regeln.
- Nutze
openclaw models listundopenclaw models set minimax/MiniMax-M2.1zum Wechseln.
Troubleshooting
”Unknown model: minimax/MiniMax-M2.1”
Das bedeutet normalerweise, dass der MiniMax Provider nicht konfiguriert ist (kein Provider-Eintrag und kein MiniMax Auth-Profil/Env-Key gefunden). Ein Fix für diese Erkennung ist in 2026.1.12 enthalten (zum Zeitpunkt des Schreibens noch nicht veröffentlicht). Behebe das Problem durch:
- Upgrade auf 2026.1.12 (oder führe aus dem Source
mainaus), dann starte das Gateway neu. - Führe
openclaw configureaus und wähle MiniMax M2.1, oder - Füge den
models.providers.minimax-Block manuell hinzu, oder - Setze
MINIMAX_API_KEY(oder ein MiniMax Auth-Profil), damit der Provider injiziert werden kann.
Stelle sicher, dass die Modell-ID case-sensitive ist:
minimax/MiniMax-M2.1minimax/MiniMax-M2.1-lightning
Dann prüfe erneut mit:
openclaw models list