FAQ

Schnelle Antworten plus tiefere Fehlerbehebung für reale Setups (lokale Entwicklung, VPS, Multi-Agent, OAuth/API-Keys, Model-Failover). Für Laufzeit-Diagnosen siehe Troubleshooting. Für die vollständige Config-Referenz siehe Configuration.

Inhaltsverzeichnis

Erste 60 Sekunden, wenn etwas kaputt ist

  1. Quick Status (erste Prüfung)

    openclaw status

    Schnelle lokale Zusammenfassung: OS + Update, Gateway/Service-Erreichbarkeit, Agents/Sessions, Provider-Config + Runtime-Probleme (wenn Gateway erreichbar ist).

  2. Teilbarer Report (sicher zum Teilen)

    openclaw status --all

    Read-only-Diagnose mit Log-Tail (Tokens geschwärzt).

  3. Daemon + Port-Status

    openclaw gateway status

    Zeigt Supervisor-Runtime vs. RPC-Erreichbarkeit, die Probe-Ziel-URL und welche Config der Service wahrscheinlich genutzt hat.

  4. Deep Probes

    openclaw status --deep

    Führt Gateway-Health-Checks + Provider-Probes aus (benötigt ein erreichbares Gateway). Siehe Health.

  5. Tail des neuesten Logs

    openclaw logs --follow

    Wenn RPC down ist, Fallback auf:

    tail -f "$(ls -t /tmp/openclaw/openclaw-*.log | head -1)"

    File-Logs sind getrennt von Service-Logs; siehe Logging und Troubleshooting.

  6. Doctor ausführen (Reparaturen)

    openclaw doctor

    Repariert/migriert Config/State + führt Health-Checks aus. Siehe Doctor.

  7. Gateway-Snapshot

    openclaw health --json
    openclaw health --verbose   # zeigt die Ziel-URL + Config-Pfad bei Fehlern

    Fragt das laufende Gateway nach einem vollständigen Snapshot (nur WS). Siehe Health.

Schnellstart und Ersteinrichtung

Ich stecke fest – was ist der schnellste Weg, um wieder rauszukommen?

Nutze einen lokalen KI-Agent, der deine Maschine sehen kann. Das ist viel effektiver als in Discord zu fragen, weil die meisten “Ich stecke fest”-Fälle lokale Config- oder Umgebungsprobleme sind, die Remote-Helfer nicht inspizieren können.

Diese Tools können das Repo lesen, Befehle ausführen, Logs inspizieren und helfen, dein Machine-Level-Setup zu fixen (PATH, Services, Permissions, Auth-Files). Gib ihnen den vollständigen Source-Checkout via hackbare (git) Installation:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Das installiert OpenClaw aus einem git-Checkout, sodass der Agent den Code + Docs lesen und über die exakte Version, die du nutzt, nachdenken kann. Du kannst später jederzeit zurück zu stable wechseln, indem du den Installer ohne --install-method git erneut ausführst.

Tipp: Bitte den Agent, den Fix zu planen und zu überwachen (Schritt für Schritt), dann nur die notwendigen Befehle auszuführen. Das hält Änderungen klein und leichter zu prüfen.

Wenn du einen echten Bug oder Fix entdeckst, erstelle bitte ein GitHub-Issue oder sende einen PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls

Starte mit diesen Befehlen (teile Outputs, wenn du um Hilfe bittest):

openclaw status
openclaw models status
openclaw doctor

Was sie tun:

  • openclaw status: schneller Snapshot von Gateway/Agent-Health + Basic-Config.
  • openclaw models status: prüft Provider-Auth + Model-Verfügbarkeit.
  • openclaw doctor: validiert und repariert häufige Config/State-Probleme.

Andere nützliche CLI-Checks: openclaw status --all, openclaw logs --follow, openclaw gateway status, openclaw health --verbose.

Quick-Debug-Loop: Erste 60 Sekunden, wenn etwas kaputt ist. Install-Docs: Install, Installer-Flags, Updating.

Was ist der empfohlene Weg, um OpenClaw zu installieren und einzurichten?

Das Repo empfiehlt, von Source zu laufen und den Onboarding-Wizard zu nutzen:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon

Der Wizard kann auch UI-Assets automatisch bauen. Nach dem Onboarding läuft das Gateway typischerweise auf Port 18789.

Von Source (Contributors/Dev):

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build # installiert UI-Deps automatisch beim ersten Lauf
openclaw onboard

Wenn du noch keine globale Installation hast, führe es via pnpm openclaw onboard aus.

Wie öffne ich das Dashboard nach dem Onboarding?

Der Wizard öffnet jetzt deinen Browser mit einer tokenisierten Dashboard-URL direkt nach dem Onboarding und druckt auch den vollständigen Link (mit Token) in der Zusammenfassung. Lass diesen Tab offen; wenn er nicht gestartet wurde, kopiere/füge die gedruckte URL auf derselben Maschine ein. Tokens bleiben lokal auf deinem Host – nichts wird vom Browser abgerufen.

Wie authentifiziere ich das Dashboard (Token) auf localhost vs. remote?

Localhost (gleiche Maschine):

  • Öffne http://127.0.0.1:18789/.
  • Wenn es nach Auth fragt, führe openclaw dashboard aus und nutze den tokenisierten Link (?token=...).
  • Das Token ist derselbe Wert wie gateway.auth.token (oder OPENCLAW_GATEWAY_TOKEN) und wird von der UI nach dem ersten Laden gespeichert.

Nicht auf localhost:

  • Tailscale Serve (empfohlen): behalte Bind Loopback, führe openclaw gateway --tailscale serve aus, öffne https://<magicdns>/. Wenn gateway.auth.allowTailscale true ist, erfüllen Identity-Header die Auth (kein Token).
  • Tailnet Bind: führe openclaw gateway --bind tailnet --token "<token>" aus, öffne http://<tailscale-ip>:18789/, füge Token in Dashboard-Einstellungen ein.
  • SSH-Tunnel: ssh -N -L 18789:127.0.0.1:18789 user@host dann öffne http://127.0.0.1:18789/?token=... von openclaw dashboard.

Siehe Dashboard und Web surfaces für Bind-Modi und Auth-Details.

Welche Runtime brauche ich?

Node >= 22 ist erforderlich. pnpm wird empfohlen. Bun ist nicht empfohlen für das Gateway.

Läuft es auf Raspberry Pi?

Ja. Das Gateway ist leichtgewichtig – die Docs listen 512MB-1GB RAM, 1 Core und etwa 500MB Disk als ausreichend für persönliche Nutzung auf und bemerken, dass ein Raspberry Pi 4 es ausführen kann.

Wenn du extra Headroom willst (Logs, Media, andere Services), werden 2GB empfohlen, aber das ist kein hartes Minimum.

Tipp: Ein kleiner Pi/VPS kann das Gateway hosten, und du kannst Nodes auf deinem Laptop/Phone pairen für lokalen Screen/Camera/Canvas oder Command-Execution. Siehe Nodes.

Irgendwelche Tipps für Raspberry Pi Installationen?

Kurzversion: es funktioniert, aber erwarte raue Kanten.

  • Nutze ein 64-bit OS und halte Node >= 22.
  • Bevorzuge die hackbare (git) Installation, damit du Logs sehen und schnell updaten kannst.
  • Starte ohne Channels/Skills, dann füge sie einzeln hinzu.
  • Wenn du seltsame Binary-Probleme triffst, ist es normalerweise ein ARM-Kompatibilitäts-Problem.

Docs: Linux, Install.

Es hängt bei “wake up my friend” / Onboarding will nicht schlüpfen. Was nun?

Dieser Screen hängt davon ab, dass das Gateway erreichbar und authentifiziert ist. Die TUI sendet “Wake up, my friend!” automatisch beim ersten Hatch. Wenn du diese Zeile mit keiner Antwort siehst und Tokens bei 0 bleiben, lief der Agent nie.

  1. Starte das Gateway neu:
openclaw gateway restart
  1. Prüfe Status + Auth:
openclaw status
openclaw models status
openclaw logs --follow
  1. Wenn es immer noch hängt, führe aus:
openclaw doctor

Wenn das Gateway remote ist, stelle sicher, dass die Tunnel/Tailscale-Verbindung steht und dass die UI auf das richtige Gateway zeigt. Siehe Remote access.

Kann ich mein Setup auf eine neue Maschine (Mac mini) migrieren, ohne Onboarding neu zu machen?

Ja. Kopiere das State-Verzeichnis und den Workspace, dann führe Doctor einmal aus. Das hält deinen Bot “genau gleich” (Memory, Session-History, Auth und Channel- State), solange du beide Orte kopierst:

  1. Installiere OpenClaw auf der neuen Maschine.
  2. Kopiere $OPENCLAW_STATE_DIR (default: ~/.openclaw) von der alten Maschine.
  3. Kopiere deinen Workspace (default: ~/.openclaw/workspace).
  4. Führe openclaw doctor aus und starte den Gateway-Service neu.

Das bewahrt Config, Auth-Profile, WhatsApp-Creds, Sessions und Memory. Wenn du im Remote-Modus bist, denk dran, dass der Gateway-Host den Session-Store und Workspace besitzt.

Wichtig: Wenn du nur deinen Workspace zu GitHub commit/pushst, sicherst du Memory + Bootstrap-Files, aber nicht Session-History oder Auth. Die liegen unter ~/.openclaw/ (zum Beispiel ~/.openclaw/agents/<agentId>/sessions/).

Related: Migrating, Where things live on disk, Agent workspace, Doctor, Remote mode.

Wo sehe ich, was in der neuesten Version neu ist?

Prüfe das GitHub-Changelog: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

Neueste Einträge sind oben. Wenn der oberste Abschnitt als Unreleased markiert ist, ist der nächste datierte Abschnitt die neueste ausgelieferte Version. Einträge sind gruppiert nach Highlights, Changes und Fixes (plus Docs/andere Abschnitte bei Bedarf).

Ich kann nicht auf docs.openclaw.ai zugreifen (SSL-Fehler). Was nun?

Einige Comcast/Xfinity-Verbindungen blockieren docs.openclaw.ai fälschlicherweise via Xfinity Advanced Security. Deaktiviere es oder setze docs.openclaw.ai auf die Allowlist, dann versuche es erneut. Mehr Details: Troubleshooting. Bitte hilf uns, es zu entsperren, indem du hier meldest: https://spa.xfinity.com/check_url_status.

Wenn du die Site immer noch nicht erreichen kannst, sind die Docs auf GitHub gespiegelt: https://github.com/openclaw/openclaw/tree/main/docs

Was ist der Unterschied zwischen stable und beta?

Stable und beta sind npm dist-tags, keine separaten Code-Linien:

  • latest = stable
  • beta = early build zum Testen

Wir shippen Builds zu beta, testen sie, und sobald ein Build solide ist, promoten wir dieselbe Version zu latest. Deshalb können beta und stable auf die gleiche Version zeigen.

Siehe was sich geändert hat: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

Wie installiere ich die Beta-Version, und was ist der Unterschied zwischen beta und dev?

Beta ist der npm dist-tag beta (kann mit latest übereinstimmen). Dev ist der bewegliche Head von main (git); wenn publiziert, nutzt es den npm dist-tag dev.

One-Liner (macOS/Linux):

curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git

Windows-Installer (PowerShell): https://openclaw.ai/install.ps1

Mehr Details: Development channels und Installer flags.

Wie lange dauern Installation und Onboarding normalerweise?

Grobe Richtlinie:

  • Installation: 2-5 Minuten
  • Onboarding: 5-15 Minuten, abhängig davon, wie viele Channels/Models du konfigurierst

Wenn es hängt, nutze Installer stuck und die schnelle Debug-Loop in Im stuck.

Wie probiere ich die neuesten Bits aus?

Zwei Optionen:

  1. Dev Channel (git checkout):
openclaw update --channel dev

Das wechselt zum main Branch und updated von Source.

  1. Hackbare Installation (von der Installer-Site):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Das gibt dir ein lokales Repo, das du bearbeiten kannst, dann via git updaten.

Wenn du lieber manuell einen sauberen Clone willst, nutze:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build

Docs: Update, Development channels, Install.

Installer hängt? Wie bekomme ich mehr Feedback?

Führe den Installer mit verbose output erneut aus:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose

Beta-Installation mit verbose:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose

Für eine hackbare (git) Installation:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose

Mehr Optionen: Installer flags.

Windows-Installation sagt git not found oder openclaw not recognized

Zwei häufige Windows-Probleme:

1) npm error spawn git / git not found

  • Installiere Git for Windows und stelle sicher, dass git auf deinem PATH ist.
  • Schließe und öffne PowerShell erneut, dann führe den Installer erneut aus.

2) openclaw is not recognized nach Installation

  • Dein npm global bin Ordner ist nicht auf PATH.
  • Prüfe den Pfad:
    npm config get prefix
  • Stelle sicher, dass <prefix>\\bin auf PATH ist (auf den meisten Systemen ist es %AppData%\\npm).
  • Schließe und öffne PowerShell nach dem Aktualisieren von PATH erneut.

Wenn du das glatteste Windows-Setup willst, nutze WSL2 statt nativem Windows. Docs: Windows.

Die Docs haben meine Frage nicht beantwortet – wie bekomme ich eine bessere Antwort?

Nutze die hackbare (git) Installation, damit du die vollständigen Source und Docs lokal hast, dann frage deinen Bot (oder Claude/Codex) von diesem Ordner aus, damit er das Repo lesen und präzise antworten kann.

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Mehr Details: Install und Installer flags.

Wie installiere ich OpenClaw auf Linux?

Kurzantwort: folge dem Linux-Guide, dann führe den Onboarding-Wizard aus.

Wie installiere ich OpenClaw auf einem VPS?

Jeder Linux-VPS funktioniert. Installiere auf dem Server, dann nutze SSH/Tailscale, um das Gateway zu erreichen.

Guides: exe.dev, Hetzner, Fly.io. Remote-Zugriff: Gateway remote.

Wo sind die Cloud/VPS-Installationsanleitungen?

Wir haben einen Hosting-Hub mit den gängigen Providern. Wähle einen und folge dem Guide:

Wie es in der Cloud funktioniert: Das Gateway läuft auf dem Server, und du greifst darauf von deinem Laptop/Phone via Control UI (oder Tailscale/SSH) zu. Dein State + Workspace leben auf dem Server, also behandle den Host als Source of Truth und sichere ihn.

Du kannst Nodes (Mac/iOS/Android/headless) zu diesem Cloud-Gateway pairen, um auf lokalen Screen/Camera/Canvas zuzugreifen oder Befehle auf deinem Laptop auszuführen, während das Gateway in der Cloud bleibt.

Hub: Platforms. Remote-Zugriff: Gateway remote. Nodes: Nodes, Nodes CLI.

Kann ich OpenClaw bitten, sich selbst zu aktualisieren

Kurze Antwort: möglich, aber nicht empfohlen. Der Update-Flow kann das Gateway neu starten (was die aktive Session beendet), benötigt möglicherweise einen sauberen git checkout und kann nach Bestätigung fragen. Sicherer: führe Updates aus einer Shell als Operator aus.

Nutze die CLI:

openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart

Falls du vom Agent aus automatisieren musst:

openclaw update --yes --no-restart
openclaw gateway restart

Docs: Update, Updating.

Was macht der Onboarding Wizard eigentlich

openclaw onboard ist der empfohlene Setup-Pfad. Im Local Mode führt er dich durch:

  • Model/Auth Setup (Anthropic setup-token empfohlen für Claude Subscriptions, OpenAI Codex OAuth unterstützt, API Keys optional, LM Studio Local Models unterstützt)
  • Workspace Location + Bootstrap Files
  • Gateway Settings (bind/port/auth/tailscale)
  • Providers (WhatsApp, Telegram, Discord, Mattermost (Plugin), Signal, iMessage)
  • Daemon Install (LaunchAgent auf macOS; systemd user unit auf Linux/WSL2)
  • Health Checks und Skills Auswahl

Er warnt auch, falls dein konfiguriertes Model unbekannt ist oder Auth fehlt.

Brauche ich eine Claude oder OpenAI Subscription, um das zu nutzen

Nein. Du kannst OpenClaw mit API Keys (Anthropic/OpenAI/andere) oder mit Local-only Models betreiben, sodass deine Daten auf deinem Gerät bleiben. Subscriptions (Claude Pro/Max oder OpenAI Codex) sind optionale Wege, um diese Provider zu authentifizieren.

Docs: Anthropic, OpenAI, Local models, Models.

Kann ich Claude Max Subscription ohne API Key nutzen

Ja. Du kannst dich mit einem setup-token authentifizieren anstelle eines API Keys. Das ist der Subscription-Pfad.

Claude Pro/Max Subscriptions enthalten keinen API Key, daher ist das der korrekte Ansatz für Subscription Accounts. Wichtig: du musst bei Anthropic verifizieren, dass diese Nutzung unter ihrer Subscription Policy und den Terms erlaubt ist. Falls du den explizitesten, unterstützten Pfad willst, nutze einen Anthropic API Key.

Wie funktioniert Anthropic setuptoken Auth

claude setup-token generiert einen Token String via Claude Code CLI (er ist nicht in der Web Console verfügbar). Du kannst es auf jedem Rechner ausführen. Wähle Anthropic token (paste setup-token) im Wizard oder füge ihn mit openclaw models auth paste-token --provider anthropic ein. Der Token wird als Auth Profile für den anthropic Provider gespeichert und wie ein API Key genutzt (kein Auto-Refresh). Mehr Details: OAuth.

Wo finde ich einen Anthropic setuptoken

Er ist nicht in der Anthropic Console. Der setup-token wird von der Claude Code CLI auf jedem Rechner generiert:

claude setup-token

Kopiere den Token, den er ausgibt, und wähle dann Anthropic token (paste setup-token) im Wizard. Falls du es auf dem Gateway Host ausführen willst, nutze openclaw models auth setup-token --provider anthropic. Falls du claude setup-token woanders ausgeführt hast, füge ihn auf dem Gateway Host mit openclaw models auth paste-token --provider anthropic ein. Siehe Anthropic.

Unterstützt ihr Claude Subscription Auth (Claude Pro/Max)

Ja — via setup-token. OpenClaw nutzt nicht mehr die Claude Code CLI OAuth Tokens; verwende einen setup-token oder einen Anthropic API Key. Generiere den Token irgendwo und füge ihn auf dem Gateway Host ein. Siehe Anthropic und OAuth.

Hinweis: Claude Subscription Zugriff unterliegt Anthropics Terms. Für Production oder Multi-User Workloads sind API Keys meist die sicherere Wahl.

Warum sehe ich HTTP 429 ratelimiterror von Anthropic

Das bedeutet, dass dein Anthropic Quota/Rate Limit für das aktuelle Zeitfenster erschöpft ist. Falls du eine Claude Subscription nutzt (setup-token oder Claude Code OAuth), warte bis das Fenster zurückgesetzt wird oder upgrade deinen Plan. Falls du einen Anthropic API Key nutzt, prüfe die Anthropic Console für Usage/Billing und erhöhe die Limits bei Bedarf.

Tipp: setze ein Fallback Model, damit OpenClaw weiter antworten kann, während ein Provider rate-limited ist. Siehe Models und OAuth.

Wird AWS Bedrock unterstützt

Ja - via pi-ai’s Amazon Bedrock (Converse) Provider mit manueller Config. Du musst AWS Credentials/Region auf dem Gateway Host bereitstellen und einen Bedrock Provider Entry in deiner Models Config hinzufügen. Siehe Amazon Bedrock und Model providers. Falls du einen Managed Key Flow bevorzugst, ist ein OpenAI-kompatibler Proxy vor Bedrock weiterhin eine valide Option.

Wie funktioniert Codex Auth

OpenClaw unterstützt OpenAI Code (Codex) via OAuth (ChatGPT Sign-in). Der Wizard kann den OAuth Flow ausführen und setzt das Default Model auf openai-codex/gpt-5.2, wenn angemessen. Siehe Model providers und Wizard.

Unterstützt ihr OpenAI Subscription Auth Codex OAuth

Ja. OpenClaw unterstützt vollständig OpenAI Code (Codex) Subscription OAuth. Der Onboarding Wizard kann den OAuth Flow für dich ausführen.

Siehe OAuth, Model providers, und Wizard.

Wie richte ich Gemini CLI OAuth ein

Gemini CLI nutzt einen Plugin Auth Flow, keinen Client ID oder Secret in openclaw.json.

Schritte:

  1. Aktiviere das Plugin: openclaw plugins enable google-gemini-cli-auth
  2. Login: openclaw models auth login --provider google-gemini-cli --set-default

Das speichert OAuth Tokens in Auth Profiles auf dem Gateway Host. Details: Model providers.

Ist ein Local Model OK für Casual Chats

Normalerweise nein. OpenClaw braucht großen Context + starke Safety; kleine Karten kürzen ab und leaken. Falls du musst, führe den größten MiniMax M2.1 Build aus, den du lokal kannst (LM Studio) und siehe /gateway/local-models. Kleinere/quantisierte Models erhöhen das Prompt-Injection Risiko - siehe Security.

Wie halte ich Hosted Model Traffic in einer bestimmten Region

Wähle region-gepinnte Endpoints. OpenRouter bietet US-gehostete Optionen für MiniMax, Kimi und GLM; wähle die US-gehostete Variante, um Daten in-region zu halten. Du kannst trotzdem Anthropic/OpenAI daneben listen, indem du models.mode: "merge" nutzt, sodass Fallbacks verfügbar bleiben, während du den regionierten Provider respektierst, den du auswählst.

Muss ich einen Mac Mini kaufen, um das zu installieren

Nein. OpenClaw läuft auf macOS oder Linux (Windows via WSL2). Ein Mac mini ist optional - manche Leute kaufen einen als Always-on Host, aber ein kleiner VPS, Home Server oder Raspberry Pi-Klasse Box funktioniert auch.

Du brauchst nur einen Mac für macOS-only Tools. Für iMessage kannst du das Gateway auf Linux lassen und imsg auf jedem Mac über SSH ausführen, indem du channels.imessage.cliPath auf einen SSH Wrapper zeigst. Falls du andere macOS-only Tools willst, führe das Gateway auf einem Mac aus oder paire einen macOS Node.

Docs: iMessage, Nodes, Mac remote mode.

Brauche ich einen Mac mini für iMessage Support

Du brauchst irgendein macOS Device, das in Messages eingeloggt ist. Es muss kein Mac mini sein - jeder Mac funktioniert. OpenClaws iMessage Integrationen laufen auf macOS (BlueBubbles oder imsg), während das Gateway woanders laufen kann.

Übliche Setups:

  • Führe das Gateway auf Linux/VPS aus und zeige channels.imessage.cliPath auf einen SSH Wrapper, der imsg auf dem Mac ausführt.
  • Führe alles auf dem Mac aus, falls du das einfachste Single-Machine Setup willst.

Docs: iMessage, BlueBubbles, Mac remote mode.

Falls ich einen Mac mini kaufe, um OpenClaw zu betreiben, kann ich ihn mit meinem MacBook Pro verbinden

Ja. Der Mac mini kann das Gateway ausführen, und dein MacBook Pro kann sich als Node (Companion Device) verbinden. Nodes führen nicht das Gateway aus - sie bieten zusätzliche Capabilities wie Screen/Camera/Canvas und system.run auf diesem Device.

Übliches Pattern:

  • Gateway auf dem Mac mini (Always-on).
  • MacBook Pro führt die macOS App oder einen Node Host aus und pairt sich mit dem Gateway.
  • Nutze openclaw nodes status / openclaw nodes list, um es zu sehen.

Docs: Nodes, Nodes CLI.

Kann ich Bun nutzen

Bun ist nicht empfohlen. Wir sehen Runtime Bugs, besonders mit WhatsApp und Telegram. Nutze Node für stabile Gateways.

Falls du trotzdem mit Bun experimentieren willst, mach es auf einem Non-Production Gateway ohne WhatsApp/Telegram.

Telegram was kommt in allowFrom

channels.telegram.allowFrom ist die Telegram User ID des menschlichen Senders (numerisch, empfohlen) oder @username. Es ist nicht der Bot Username.

Sicherer (kein Third-Party Bot):

  • Schreib deinem Bot eine DM, dann führe openclaw logs --follow aus und lies from.id.

Official Bot API:

  • Schreib deinem Bot eine DM, dann rufe https://api.telegram.org/bot<bot_token>/getUpdates auf und lies message.from.id.

Third-Party (weniger privat):

  • Schreib @userinfobot oder @getidsbot eine DM.

Siehe /channels/telegram.

Können mehrere Leute eine WhatsApp Nummer mit verschiedenen OpenClaw Instanzen nutzen

Ja, via Multi-Agent Routing. Binde die WhatsApp DM jedes Senders (peer kind: "dm", Sender E.164 wie +15551234567) an eine andere agentId, sodass jede Person ihren eigenen Workspace und Session Store bekommt. Antworten kommen trotzdem vom selben WhatsApp Account, und DM Access Control (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) ist global pro WhatsApp Account. Siehe Multi-Agent Routing und WhatsApp.

Kann ich einen schnellen Chat Agent und einen Opus für Coding Agent betreiben

Ja. Nutze Multi-Agent Routing: gib jedem Agent sein eigenes Default Model, dann binde Inbound Routes (Provider Account oder spezifische Peers) an jeden Agent. Beispiel Config findest du in Multi-Agent Routing. Siehe auch Models und Configuration.

Funktioniert Homebrew auf Linux

Ja. Homebrew unterstützt Linux (Linuxbrew). Quick Setup:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>

Falls du OpenClaw via systemd ausführst, stelle sicher, dass der Service PATH /home/linuxbrew/.linuxbrew/bin (oder dein brew prefix) enthält, damit brew-installierte Tools in Non-Login Shells auflösen. Neuere Builds fügen auch übliche User Bin Dirs auf Linux systemd Services hinzu (zum Beispiel ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) und respektieren PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR und FNM_DIR, wenn gesetzt.

Was ist der Unterschied zwischen der Hackable Git Install und npm Install

  • Hackable (git) Install: vollständiger Source Checkout, editierbar, am besten für Contributors. Du führst Builds lokal aus und kannst Code/Docs patchen.
  • npm Install: globale CLI Install, kein Repo, am besten für “einfach ausführen”. Updates kommen von npm dist-tags.

Docs: Getting started, Updating.

Kann ich später zwischen npm und git Installs wechseln

Ja. Installiere die andere Variante, dann führe Doctor aus, damit der Gateway Service auf den neuen Entrypoint zeigt. Das löscht deine Daten nicht - es ändert nur die OpenClaw Code Install. Dein State (~/.openclaw) und Workspace (~/.openclaw/workspace) bleiben unberührt.

Von npm → git:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
openclaw doctor
openclaw gateway restart

Von git → npm:

npm install -g openclaw@latest
openclaw doctor
openclaw gateway restart

Doctor erkennt einen Gateway Service Entrypoint Mismatch und bietet an, die Service Config umzuschreiben, um zur aktuellen Install zu passen (nutze --repair in Automation).

Backup Tipps: siehe Backup strategy.

Soll ich das Gateway auf meinem Laptop oder einem VPS betreiben

Kurze Antwort: falls du 24/7 Zuverlässigkeit willst, nutze einen VPS. Falls du die geringste Reibung willst und mit Sleep/Restarts klarkommst, führe es lokal aus.

Laptop (Local Gateway)

  • Pros: keine Server Kosten, direkter Zugriff auf lokale Files, Live Browser Window.
  • Cons: Sleep/Network Drops = Disconnects, OS Updates/Reboots unterbrechen, muss wach bleiben.

VPS / Cloud

  • Pros: Always-on, stabiles Netzwerk, keine Laptop Sleep Issues, einfacher am Laufen zu halten.
  • Cons: oft Headless (nutze Screenshots), Remote File Access nur, du musst SSH für Updates nutzen.

OpenClaw-spezifischer Hinweis: WhatsApp/Telegram/Slack/Mattermost (Plugin)/Discord funktionieren alle gut von einem VPS. Der einzige echte Trade-off ist Headless Browser vs ein sichtbares Fenster. Siehe Browser.

Empfohlener Default: VPS, falls du vorher Gateway Disconnects hattest. Local ist großartig, wenn du den Mac aktiv nutzt und lokalen File Access oder UI Automation mit einem sichtbaren Browser willst.

Wie wichtig ist es, OpenClaw auf einer dedizierten Maschine zu betreiben

Nicht erforderlich, aber empfohlen für Zuverlässigkeit und Isolation.

  • Dedicated Host (VPS/Mac mini/Pi): Always-on, weniger Sleep/Reboot Unterbrechungen, sauberere Permissions, einfacher am Laufen zu halten.
  • Shared Laptop/Desktop: völlig in Ordnung für Testing und aktive Nutzung, aber erwarte Pausen, wenn die Maschine schläft oder Updates macht.

Falls du das Beste aus beiden Welten willst, halte das Gateway auf einem Dedicated Host und paire deinen Laptop als Node für lokale Screen/Camera/Exec Tools. Siehe Nodes. Für Security Guidance lies Security.

Was sind die minimalen VPS Anforderungen und empfohlenes OS

OpenClaw ist leichtgewichtig. Für ein Basic Gateway + einen Chat Channel:

  • Absolutes Minimum: 1 vCPU, 1GB RAM, ~500MB Disk.
  • Empfohlen: 1-2 vCPU, 2GB RAM oder mehr für Headroom (Logs, Media, mehrere Channels). Node Tools und Browser Automation können ressourcenhungrig sein.

OS: nutze Ubuntu LTS (oder jedes moderne Debian/Ubuntu). Der Linux Install Path ist dort am besten getestet.

Docs: Linux, VPS hosting.

Kann ich OpenClaw in einer VM betreiben und was sind die Anforderungen

Ja. Behandle eine VM wie einen VPS: sie muss Always-on, erreichbar sein und genug RAM für das Gateway und alle Channels haben, die du aktivierst.

Baseline Guidance:

  • Absolutes Minimum: 1 vCPU, 1GB RAM.
  • Empfohlen: 2GB RAM oder mehr, falls du mehrere Channels, Browser Automation oder Media Tools ausführst.
  • OS: Ubuntu LTS oder ein anderes modernes Debian/Ubuntu.

Falls du auf Windows bist, ist WSL2 das einfachste VM-Style Setup und hat die beste Tooling Kompatibilität. Siehe Windows, VPS hosting. Falls du macOS in einer VM ausführst, siehe macOS VM.

Was ist OpenClaw?

Was ist OpenClaw in einem Absatz

OpenClaw ist ein persönlicher AI Assistant, den du auf deinen eigenen Geräten ausführst. Er antwortet auf den Messaging Surfaces, die du bereits nutzt (WhatsApp, Telegram, Slack, Mattermost (Plugin), Discord, Google Chat, Signal, iMessage, WebChat) und kann auch Voice + ein Live Canvas auf unterstützten Plattformen. Das Gateway ist die Always-on Control Plane; der Assistant ist das Produkt.

Was ist die Value Proposition

OpenClaw ist nicht “nur ein Claude Wrapper”. Es ist eine Local-first Control Plane, die dir erlaubt, einen fähigen Assistant auf deiner eigenen Hardware zu betreiben, erreichbar von den Chat Apps, die du bereits nutzt, mit Stateful Sessions, Memory und Tools - ohne die Kontrolle über deine Workflows an ein gehostetes SaaS abzugeben.

Highlights:

  • Deine Geräte, deine Daten: führe das Gateway aus, wo du willst (Mac, Linux, VPS) und halte den Workspace + Session History lokal.
  • Echte Channels, keine Web Sandbox: WhatsApp/Telegram/Slack/Discord/Signal/iMessage/etc, plus Mobile Voice und Canvas auf unterstützten Plattformen.
  • Model-agnostisch: nutze Anthropic, OpenAI, MiniMax, OpenRouter, etc., mit Per-Agent Routing und Failover.
  • Local-only Option: führe Local Models aus, sodass alle Daten auf deinem Gerät bleiben können, falls du willst.
  • Multi-Agent Routing: separate Agents pro Channel, Account oder Task, jeder mit seinem eigenen Workspace und Defaults.
  • Open Source und hackbar: inspiziere, erweitere und self-hoste ohne Vendor Lock-in.

Docs: Gateway, Channels, Multi-agent, Memory.

Ich habe es gerade eingerichtet was soll ich zuerst tun

Gute erste Projekte:

  • Baue eine Website (WordPress, Shopify oder eine einfache Static Site).
  • Prototypisiere eine Mobile App (Outline, Screens, API Plan).
  • Organisiere Files und Folders (Cleanup, Naming, Tagging).
  • Verbinde Gmail und automatisiere Summaries oder Follow-ups.

Es kann große Tasks handhaben, aber es funktioniert am besten, wenn du sie in Phasen aufteilst und Sub Agents für parallele Arbeit nutzt.

Was sind die Top 5 alltäglichen Use Cases für OpenClaw

Alltägliche Wins sehen normalerweise so aus:

  • Personal Briefings: Summaries von Inbox, Calendar und News, die dich interessieren.
  • Research und Drafting: schnelles Research, Summaries und erste Drafts für Emails oder Docs.
  • Reminders und Follow-ups: Cron oder Heartbeat getriebene Nudges und Checklists.
  • Browser Automation: Formulare ausfüllen, Daten sammeln und Web Tasks wiederholen.
  • Cross Device Coordination: sende einen Task von deinem Phone, lass das Gateway ihn auf einem Server ausführen und bekomme das Ergebnis zurück im Chat.

Kann OpenClaw bei Lead Gen Outreach Ads und Blogs für ein SaaS helfen

Ja für Research, Qualification und Drafting. Es kann Sites scannen, Shortlists erstellen, Prospects zusammenfassen und Outreach oder Ad Copy Drafts schreiben.

Für Outreach oder Ad Runs halte einen Menschen in der Schleife. Vermeide Spam, folge lokalen Gesetzen und Platform Policies und überprüfe alles, bevor es gesendet wird. Das sicherste Pattern ist, OpenClaw drafts erstellen zu lassen und du genehmigst.

Docs: Security.

Was sind die Vorteile vs Claude Code für Web Development

OpenClaw ist ein Personal Assistant und Coordination Layer, kein IDE Replacement. Nutze Claude Code oder Codex für die schnellste direkte Coding Loop innerhalb eines Repos. Nutze OpenClaw, wenn du dauerhaftes Memory, Cross-Device Access und Tool Orchestration willst.

Vorteile:

  • Persistent Memory + Workspace über Sessions hinweg
  • Multi-Platform Access (WhatsApp, Telegram, TUI, WebChat)
  • Tool Orchestration (Browser, Files, Scheduling, Hooks)
  • Always-on Gateway (führe auf einem VPS aus, interagiere von überall)
  • Nodes für lokalen Browser/Screen/Camera/Exec

Showcase: https://openclaw.ai/showcase

Skills und Automation

Wie kann ich Skills anpassen, ohne das Repo dirty zu halten

Nutze Managed Overrides anstatt die Repo Copy zu editieren. Lege deine Änderungen in ~/.openclaw/skills/<name>/SKILL.md ab (oder füge einen Folder via skills.load.extraDirs in ~/.openclaw/openclaw.json hinzu). Precedence ist <workspace>/skills > ~/.openclaw/skills > bundled, sodass Managed Overrides gewinnen, ohne git zu berühren. Nur Upstream-würdige Edits sollten im Repo leben und als PRs rausgehen.

Kann ich Skills aus einem Custom Folder laden

Ja. Füge Extra Directories via skills.load.extraDirs in ~/.openclaw/openclaw.json hinzu (niedrigste Precedence). Default Precedence bleibt: <workspace>/skills~/.openclaw/skills → bundled → skills.load.extraDirs. clawhub installiert standardmäßig in ./skills, was OpenClaw als <workspace>/skills behandelt.

Wie kann ich verschiedene Models für verschiedene Tasks nutzen

Heute sind die unterstützten Patterns:

  • Cron Jobs: isolierte Jobs können ein model Override pro Job setzen.
  • Sub-Agents: routen Tasks zu separaten Agents mit verschiedenen Default Models.
  • On-Demand Switch: nutze /model, um das aktuelle Session Model jederzeit zu wechseln.

Siehe Cron jobs, Multi-Agent Routing, und Slash commands.

Der Bot friert während schwerer Arbeit ein Wie kann ich das auslagern

Nutze Sub-Agents für lange oder parallele Tasks. Sub-Agents laufen in ihrer eigenen Session, geben ein Summary zurück und halten deinen Main Chat responsive.

Bitte deinen Bot, “einen Sub-Agent für diesen Task zu spawnen” oder nutze /subagents. Nutze /status im Chat, um zu sehen, was das Gateway gerade macht (und ob es busy ist).

Token Tipp: lange Tasks und Sub-Agents verbrauchen beide Tokens. Falls Kosten ein Concern sind, setze ein günstigeres Model für Sub-Agents via agents.defaults.subagents.model.

Docs: Sub-agents.

Cron oder Reminders feuern nicht Was sollte ich prüfen

Cron läuft innerhalb des Gateway Prozesses. Falls das Gateway nicht kontinuierlich läuft, werden geplante Jobs nicht ausgeführt.

Checklist:

  • Bestätige, dass Cron aktiviert ist (cron.enabled) und OPENCLAW_SKIP_CRON nicht gesetzt ist.
  • Prüfe, dass das Gateway 24/7 läuft (kein Sleep/Restarts).
  • Verifiziere Timezone Settings für den Job (--tz vs Host Timezone).

Debug:

openclaw cron run <jobId> --force
openclaw cron runs --id <jobId> --limit 50

Docs: Cron jobs, Cron vs Heartbeat.

Wie installiere ich Skills auf Linux

Nutze ClawHub (CLI) oder lege Skills in deinen Workspace. Die macOS Skills UI ist auf Linux nicht verfügbar. Browse Skills auf https://clawhub.com.

Installiere die ClawHub CLI (wähle einen Package Manager):

npm i -g clawhub
pnpm add -g clawhub

Kann OpenClaw Tasks nach Zeitplan oder kontinuierlich im Hintergrund ausführen

Ja. Nutze den Gateway Scheduler:

  • Cron Jobs für geplante oder wiederkehrende Tasks (persistieren über Restarts hinweg).
  • Heartbeat für “Main Session” periodische Checks.
  • Isolated Jobs für autonome Agents, die Summaries posten oder an Chats liefern.

Docs: Cron jobs, Cron vs Heartbeat, Heartbeat.

Kann ich Apple macOS-only Skills von Linux aus ausführen

Nicht direkt. macOS Skills sind durch metadata.openclaw.os plus erforderliche Binaries gegated, und Skills erscheinen nur im System Prompt, wenn sie auf dem Gateway Host eligible sind. Auf Linux werden darwin-only Skills (wie imsg, apple-notes, apple-reminders) nicht laden, außer du überschreibst das Gating.

Du hast drei unterstützte Patterns:

Option A - führe das Gateway auf einem Mac aus (am einfachsten). Führe das Gateway dort aus, wo die macOS Binaries existieren, dann verbinde dich von Linux im Remote Mode oder über Tailscale. Die Skills laden normal, weil der Gateway Host macOS ist.

Option B - nutze einen macOS Node (kein SSH). Führe das Gateway auf Linux aus, paire einen macOS Node (Menubar App) und setze Node Run Commands auf “Always Ask” oder “Always Allow” auf dem Mac. OpenClaw kann macOS-only Skills als eligible behandeln, wenn die erforderlichen Binaries auf dem Node existieren. Der Agent führt diese Skills via nodes Tool aus. Falls du “Always Ask” wählst, fügt das Genehmigen von “Always Allow” im Prompt diesen Command zur Allowlist hinzu.

Option C - proxye macOS Binaries über SSH (fortgeschritten). Halte das Gateway auf Linux, aber lass die erforderlichen CLI Binaries zu SSH Wrappern auflösen, die auf einem Mac laufen. Dann überschreibe die Skill, um Linux zu erlauben, sodass sie eligible bleibt.

  1. Erstelle einen SSH Wrapper für die Binary (Beispiel: imsg):
    #!/usr/bin/env bash
    set -euo pipefail
    exec ssh -T user@mac-host /opt/homebrew/bin/imsg "$@"
  2. Lege den Wrapper auf PATH auf dem Linux Host (zum Beispiel ~/bin/imsg).
  3. Überschreibe die Skill Metadata (Workspace oder ~/.openclaw/skills), um Linux zu erlauben:
    ---
    name: imsg
    description: iMessage/SMS CLI for listing chats, history, watch, and sending.
    metadata: { "openclaw": { "os": ["darwin", "linux"], "requires": { "bins": ["imsg"] } } }
    ---
  4. Starte eine neue Session, damit der Skills Snapshot refresht.

Für iMessage speziell kannst du auch channels.imessage.cliPath auf einen SSH Wrapper zeigen (OpenClaw braucht nur stdio). Siehe iMessage.

Habt ihr eine Notion oder HeyGen Integration

Nicht Built-in heute.

Optionen:

  • Custom Skill / Plugin: am besten für zuverlässigen API Access (Notion/HeyGen haben beide APIs).
  • Browser Automation: funktioniert ohne Code, ist aber langsamer und fragiler.

Falls du Context pro Client halten willst (Agency Workflows), ist ein einfaches Pattern:

  • Eine Notion Page pro Client (Context + Preferences + aktive Arbeit).
  • Bitte den Agent, diese Page am Start einer Session zu fetchen.

Falls du eine Native Integration willst, öffne ein Feature Request oder baue eine Skill, die diese APIs targetiert.

Install Skills:

clawhub install <skill-slug>
clawhub update --all

ClawHub installiert in ./skills unter deinem aktuellen Directory (oder fällt zurück auf deinen konfigurierten OpenClaw Workspace); OpenClaw behandelt das als <workspace>/skills in der nächsten Session. Für Shared Skills über Agents hinweg lege sie in ~/.openclaw/skills/<name>/SKILL.md ab. Manche Skills erwarten Binaries, die via Homebrew installiert sind; auf Linux bedeutet das Linuxbrew (siehe den Homebrew Linux FAQ Entry oben). Siehe Skills und ClawHub.

Wie installiere ich die Chrome Extension für Browser Takeover

Nutze den Built-in Installer, dann lade die Unpacked Extension in Chrome:

openclaw browser extension install
openclaw browser extension path

Dann Chrome → chrome://extensions → aktiviere “Developer mode” → “Load unpacked” → wähle diesen Folder.

Full Guide (inklusive Remote Gateway + Security Notes): Chrome extension

Falls das Gateway auf derselben Maschine wie Chrome läuft (Default Setup), brauchst du normalerweise nichts extra. Falls das Gateway woanders läuft, führe einen Node Host auf der Browser Maschine aus, damit das Gateway Browser Actions proxyen kann. Du musst trotzdem den Extension Button auf dem Tab klicken, den du kontrollieren willst (es attached nicht automatisch).

Sandboxing und Memory

Gibt es ein dediziertes Sandboxing Doc

Ja. Siehe Sandboxing. Für Docker-spezifisches Setup (Full Gateway in Docker oder Sandbox Images), siehe Docker.

Kann ich DMs persönlich halten, aber Groups Public Sandboxed mit einem Agent machen

Ja - falls dein privater Traffic DMs sind und dein öffentlicher Traffic Groups.

Nutze agents.defaults.sandbox.mode: "non-main", sodass Group/Channel Sessions (Non-Main Keys) in Docker laufen, während die Main DM Session On-Host bleibt. Dann beschränke, welche Tools in Sandboxed Sessions verfügbar sind via tools.sandbox.tools.

Setup Walkthrough + Beispiel Config: Groups: personal DMs + public groups

Key Config Reference: Gateway configuration

Wie binde ich einen Host Folder in die Sandbox ein

Setze agents.defaults.sandbox.docker.binds auf ["host:path:mode"] (z.B. "/home/user/src:/src:ro"). Global + Per-Agent Binds mergen; Per-Agent Binds werden ignoriert, wenn scope: "shared". Nutze :ro für alles Sensible und denk daran, dass Binds die Sandbox Filesystem Walls umgehen. Siehe Sandboxing und Sandbox vs Tool Policy vs Elevated für Beispiele und Safety Notes.

Wie funktioniert Memory

OpenClaw Memory sind einfach Markdown Files im Agent Workspace:

  • Daily Notes in memory/YYYY-MM-DD.md
  • Kuratierte Long-Term Notes in MEMORY.md (nur Main/Private Sessions)

OpenClaw führt auch einen Silent Pre-Compaction Memory Flush aus, um das Model daran zu erinnern, dauerhafte Notes zu schreiben, bevor Auto-Compaction läuft. Das läuft nur, wenn der Workspace writable ist (Read-Only Sandboxes überspringen es). Siehe Memory.

Memory vergisst ständig Dinge Wie mache ich es dauerhaft

Bitte den Bot, die Tatsache ins Memory zu schreiben. Long-Term Notes gehören in MEMORY.md, Short-Term Context geht in memory/YYYY-MM-DD.md.

Das ist noch ein Bereich, den wir verbessern. Es hilft, das Model daran zu erinnern, Memories zu speichern; es wird wissen, was zu tun ist. Falls es weiter vergisst, verifiziere, dass das Gateway denselben Workspace bei jedem Run nutzt.

Docs: Memory, Agent workspace.

Benötigt Semantic Memory Search einen OpenAI API Key

Nur falls du OpenAI Embeddings nutzt. Codex OAuth deckt Chat/Completions ab und gewährt keinen Embeddings Access, also hilft Sign-in mit Codex (OAuth oder der Codex CLI Login) nicht für Semantic Memory Search. OpenAI Embeddings brauchen noch einen echten API Key (OPENAI_API_KEY oder models.providers.openai.apiKey).

Falls du keinen Provider explizit setzt, wählt OpenClaw automatisch einen Provider, wenn es einen API Key auflösen kann (Auth Profiles, models.providers.*.apiKey, oder Env Vars). Es bevorzugt OpenAI, falls ein OpenAI Key auflöst, sonst Gemini, falls ein Gemini Key auflöst. Falls kein Key verfügbar ist, bleibt Memory Search deaktiviert, bis du es konfigurierst. Falls du einen Local Model Path konfiguriert und vorhanden hast, bevorzugt OpenClaw local.

Falls du lieber lokal bleiben willst, setze memorySearch.provider = "local" (und optional memorySearch.fallback = "none"). Falls du Gemini Embeddings willst, setze memorySearch.provider = "gemini" und stelle GEMINI_API_KEY bereit (oder memorySearch.remote.apiKey). Wir unterstützen OpenAI, Gemini oder Local Embedding Models - siehe Memory für die Setup Details.

Persistiert Memory für immer Was sind die Limits

Memory Files leben auf Disk und persistieren, bis du sie löschst. Das Limit ist dein Storage, nicht das Model. Der Session Context ist noch durch das Model Context Window limitiert, sodass lange Conversations compacten oder truncaten können. Deshalb existiert Memory Search - es zieht nur die relevanten Teile zurück in den Context.

Docs: Memory, Context.

Wo Dinge auf Disk leben

Werden alle Daten, die mit OpenClaw genutzt werden, lokal gespeichert

Nein - OpenClaws State ist lokal, aber externe Services sehen noch, was du ihnen sendest.

  • Local by Default: Sessions, Memory Files, Config und Workspace leben auf dem Gateway Host (~/.openclaw + dein Workspace Directory).
  • Remote by Necessity: Nachrichten, die du an Model Provider sendest (Anthropic/OpenAI/etc.), gehen zu ihren APIs, und Chat Plattformen (WhatsApp/Telegram/Slack/etc.) speichern Message Data auf ihren Servern.
  • Du kontrollierst den Footprint: Local Models zu nutzen hält Prompts auf deiner Maschine, aber Channel Traffic geht noch durch die Server des Channels.

Related: Agent workspace, Memory.

Wo speichert OpenClaw seine Daten

Alles lebt unter $OPENCLAW_STATE_DIR (Default: ~/.openclaw):

PathPurpose
$OPENCLAW_STATE_DIR/openclaw.jsonMain Config (JSON5)
$OPENCLAW_STATE_DIR/credentials/oauth.jsonLegacy OAuth Import (kopiert in Auth Profiles bei erstem Use)
$OPENCLAW_STATE_DIR/agents/<agentId>/agent/auth-profiles.jsonAuth Profiles (OAuth + API Keys)
$OPENCLAW_STATE_DIR/agents/<agentId>/agent/auth.jsonRuntime Auth Cache (automatisch verwaltet)
$OPENCLAW_STATE_DIR/credentials/Provider State (z.B. whatsapp/<accountId>/creds.json)
$OPENCLAW_STATE_DIR/agents/Per-Agent State (agentDir + Sessions)
$OPENCLAW_STATE_DIR/agents/<agentId>/sessions/Conversation History & State (pro Agent)
$OPENCLAW_STATE_DIR/agents/<agentId>/sessions/sessions.jsonSession Metadata (pro Agent)

Legacy Single-Agent Path: ~/.openclaw/agent/* (migriert von openclaw doctor).

Dein Workspace (AGENTS.md, Memory Files, Skills, etc.) ist separat und konfiguriert via agents.defaults.workspace (Default: ~/.openclaw/workspace).

Wo sollten AGENTS.md SOUL.md USER.md MEMORY.md leben

Diese Files leben im Agent Workspace, nicht in ~/.openclaw.

  • Workspace (pro Agent): AGENTS.md, SOUL.md, IDENTITY.md, USER.md, MEMORY.md (oder memory.md), memory/YYYY-MM-DD.md, optional HEARTBEAT.md.
  • State Dir (~/.openclaw): Config, Credentials, Auth Profiles, Sessions, Logs, und Shared Skills (~/.openclaw/skills).

Default Workspace ist ~/.openclaw/workspace, konfigurierbar via:

{
  agents: { defaults: { workspace: "~/.openclaw/workspace" } },
}

Falls der Bot nach einem Restart “vergisst”, bestätige, dass das Gateway denselben Workspace bei jedem Launch nutzt (und denk daran: Remote Mode nutzt den Gateway Host’s Workspace, nicht deinen lokalen Laptop).

Tipp: falls du ein dauerhaftes Behavior oder Preference willst, bitte den Bot, es in AGENTS.md oder MEMORY.md zu schreiben anstatt dich auf Chat History zu verlassen.

Siehe Agent workspace und Memory.

Was ist die empfohlene Backup Strategie

Lege deinen Agent Workspace in ein privates Git Repo und sichere es irgendwo privat (zum Beispiel GitHub Private). Das erfasst Memory + AGENTS/SOUL/USER Files und lässt dich den “Mind” des Assistants später wiederherstellen.

Committe nichts unter ~/.openclaw (Credentials, Sessions, Tokens). Falls du ein Full Restore brauchst, sichere sowohl den Workspace als auch das State Directory separat (siehe die Migration Frage oben).

Docs: Agent workspace.

Wie deinstalliere ich OpenClaw komplett

Siehe den dedizierten Guide: Uninstall.

Können Agents außerhalb des Workspace arbeiten

Ja. Der Workspace ist das Default cwd und Memory Anchor, keine harte Sandbox. Relative Paths lösen innerhalb des Workspace auf, aber absolute Paths können auf andere Host Locations zugreifen, außer Sandboxing ist aktiviert. Falls du Isolation brauchst, nutze agents.defaults.sandbox oder Per-Agent Sandbox Settings. Falls du ein Repo als Default Working Directory willst, zeige den workspace dieses Agents auf die Repo Root. Das OpenClaw Repo ist nur Source Code; halte den Workspace separat, außer du willst absichtlich, dass der Agent darin arbeitet.

Beispiel (Repo als Default cwd):

{
  agents: {
    defaults: {
      workspace: "~/Projects/my-repo",
    },
  },
}

Ich bin im Remote Mode wo ist der Session Store

Session State gehört dem Gateway Host. Falls du im Remote Mode bist, ist der Session Store, der dich interessiert, auf der Remote Maschine, nicht auf deinem lokalen Laptop. Siehe Session management.

Config Basics

Welches Format hat die Config Wo ist sie

OpenClaw liest eine optionale JSON5 Config von $OPENCLAW_CONFIG_PATH (Default: ~/.openclaw/openclaw.json):

$OPENCLAW_CONFIG_PATH

Falls die Datei fehlt, nutzt es safe-ish Defaults (inklusive einem Default Workspace von ~/.openclaw/workspace).

Ich habe gateway.bind auf lan oder tailnet gesetzt und jetzt hört nichts zu die UI sagt unauthorized

Non-Loopback Binds erfordern Auth. Konfiguriere gateway.auth.mode + gateway.auth.token (oder nutze OPENCLAW_GATEWAY_TOKEN).

{
  gateway: {
    bind: "lan",
    auth: {
      mode: "token",
      token: "replace-me",
    },
  },
}

Hinweise:

  • gateway.remote.token ist nur für Remote CLI Calls; es aktiviert nicht Local Gateway Auth.
  • Die Control UI authentifiziert via connect.params.auth.token (gespeichert in App/UI Settings). Vermeide Tokens in URLs.

Warum brauche ich jetzt einen Token auf localhost

Der Wizard generiert standardmäßig einen Gateway Token (sogar auf Loopback), sodass lokale WS Clients sich authentifizieren müssen. Das blockiert andere lokale Prozesse davon, das Gateway aufzurufen. Füge den Token in die Control UI Settings (oder deine Client Config) ein, um dich zu verbinden.

Falls du wirklich offenes Loopback willst, entferne gateway.auth aus deiner Config. Doctor kann jederzeit einen Token für dich generieren: openclaw doctor --generate-gateway-token.

Muss ich nach einer Config-Änderung neu starten

Das Gateway beobachtet die Config und unterstützt Hot-Reload:

  • gateway.reload.mode: "hybrid" (Default): Hot-Apply für sichere Änderungen, Restart für kritische
  • hot, restart, off werden auch unterstützt

Wie aktiviere ich Web Search und Web Fetch

web_fetch funktioniert ohne API Key. web_search benötigt einen Brave Search API Key. Empfohlen: führe openclaw configure --section web aus, um ihn in tools.web.search.apiKey zu speichern. Environment Alternative: setze BRAVE_API_KEY für den Gateway Prozess.

{
  tools: {
    web: {
      search: {
        enabled: true,
        apiKey: "BRAVE_API_KEY_HERE",
        maxResults: 5,
      },
      fetch: {
        enabled: true,
      },
    },
  },
}

Hinweise:

  • Falls du Allowlists nutzt, füge web_search/web_fetch oder group:web hinzu.
  • web_fetch ist standardmäßig aktiviert (außer explizit deaktiviert).
  • Daemons lesen Env Vars aus ~/.openclaw/.env (oder der Service Environment).

Docs: Web tools.

Wie führe ich ein zentrales Gateway mit spezialisierten Workern über Geräte hinweg aus

Das übliche Pattern ist ein Gateway (z.B. Raspberry Pi) plus Nodes und Agents:

  • Gateway (zentral): besitzt Channels (Signal/WhatsApp), Routing und Sessions.
  • Nodes (Geräte): Macs/iOS/Android verbinden sich als Peripherals und exponieren lokale Tools (system.run, canvas, camera).
  • Agents (Workers): separate Brains/Workspaces für spezielle Rollen (z.B. “Hetzner ops”, “Personal data”).
  • Sub-Agents: spawnen Background Work von einem Main Agent, wenn du Parallelismus willst.
  • TUI: verbinde dich mit dem Gateway und wechsle Agents/Sessions.

Docs: Nodes, Remote access, Multi-Agent Routing, Sub-agents, TUI.

Kann der OpenClaw Browser Headless laufen

Ja. Es ist eine Config Option:

{
  browser: { headless: true },
  agents: {
    defaults: {
      sandbox: { browser: { headless: true } },
    },
  },
}

Default ist false (Headful). Headless triggert eher Anti-Bot Checks auf manchen Sites. Siehe Browser.

Headless nutzt die selbe Chromium Engine und funktioniert für die meiste Automation (Forms, Clicks, Scraping, Logins). Die Hauptunterschiede:

  • Kein sichtbares Browser Window (nutze Screenshots, falls du Visuals brauchst).
  • Manche Sites sind strenger bei Automation im Headless Mode (CAPTCHAs, Anti-Bot). Zum Beispiel blockiert X/Twitter oft Headless Sessions.

Wie nutze ich Brave für Browser Control

Setze browser.executablePath auf deine Brave Binary (oder jeden Chromium-basierten Browser) und starte das Gateway neu. Siehe die vollständigen Config Beispiele in Browser.

Remote Gateways + Nodes

Wie propagieren Commands zwischen Telegram dem Gateway und Nodes

Telegram Nachrichten werden vom Gateway gehandhabt. Das Gateway führt den Agent aus und ruft dann nur Nodes über den Gateway WebSocket auf, wenn ein Node Tool benötigt wird:

Telegram → Gateway → Agent → node.* → Node → Gateway → Telegram

Nodes sehen keinen Inbound Provider Traffic; sie empfangen nur Node RPC Calls.

Wie kann mein Agent auf meinen Computer zugreifen, wenn das Gateway remote gehostet ist

Kurze Antwort: paire deinen Computer als Node. Das Gateway läuft woanders, aber es kann node.* Tools (Screen, Camera, System) auf deiner lokalen Maschine über den Gateway WebSocket aufrufen.

Typisches Setup:

  1. Führe das Gateway auf dem Always-on Host aus (VPS/Home Server).
  2. Lege den Gateway Host + deinen Computer auf dasselbe Tailnet.
  3. Stelle sicher, dass der Gateway WS erreichbar ist (Tailnet Bind oder SSH Tunnel).
  4. Öffne die macOS App lokal und verbinde dich im Remote over SSH Mode (oder direkt Tailnet), damit sie sich als Node registrieren kann.
  5. Genehmige den Node auf dem Gateway:
    openclaw nodes pending
    openclaw nodes approve <requestId>

Keine separate TCP Bridge ist erforderlich; Nodes verbinden sich über den Gateway WebSocket.

Security Reminder: einen macOS Node zu pairen erlaubt system.run auf dieser Maschine. Paire nur Geräte, denen du vertraust, und überprüfe Security.

Docs: Nodes, Gateway protocol, macOS remote mode, Security.

Tailscale ist verbunden aber ich bekomme keine Antworten Was nun

Prüfe die Basics:

  • Gateway läuft: openclaw gateway status
  • Gateway Health: openclaw status
  • Channel Health: openclaw channels status

Dann verifiziere Auth und Routing:

  • Falls du Tailscale Serve nutzt, stelle sicher, dass gateway.auth.allowTailscale korrekt gesetzt ist.
  • Falls du via SSH Tunnel verbindest, bestätige, dass der lokale Tunnel up ist und auf den richtigen Port zeigt.
  • Bestätige, dass deine Allowlists (DM oder Group) deinen Account enthalten.

Docs: Tailscale, Remote access, Channels.

Können zwei OpenClaw Instanzen miteinander sprechen local VPS

Ja. Es gibt keine Built-in “Bot-to-Bot” Bridge, aber du kannst es auf ein paar zuverlässige Arten verdrahten:

Am einfachsten: nutze einen normalen Chat Channel, auf den beide Bots zugreifen können (Telegram/Slack/WhatsApp). Lass Bot A eine Nachricht an Bot B senden, dann lass Bot B wie üblich antworten.

CLI Bridge (generisch): führe ein Script aus, das das andere Gateway mit openclaw agent --message ... --deliver aufruft, targetiert auf einen Chat, wo der andere Bot zuhört. Falls ein Bot auf einem Remote VPS ist, zeige deine CLI auf dieses Remote Gateway via SSH/Tailscale (siehe Remote access).

Beispiel Pattern (führe von einer Maschine aus, die das Target Gateway erreichen kann):

openclaw agent --message "Hello from local bot" --deliver --channel telegram --reply-to <chat-id>

Tipp: füge ein Guardrail hinzu, damit die zwei Bots nicht endlos loopen (Mention-only, Channel Allowlists oder eine “do not reply to bot messages” Regel).

Docs: Remote access, Agent CLI, Agent send.

Brauche ich separate VPSes für mehrere Agents

Nein. Ein Gateway kann mehrere Agents hosten, jeder mit seinem eigenen Workspace, Model Defaults und Routing. Das ist das normale Setup und es ist viel günstiger und einfacher als einen VPS pro Agent zu betreiben.

Nutze separate VPSes nur, wenn du harte Isolation brauchst (Security Boundaries) oder sehr unterschiedliche Configs, die du nicht teilen willst. Ansonsten halte ein Gateway und nutze mehrere Agents oder Sub-Agents.

Gibt es einen Vorteil, einen Node auf meinem persönlichen Laptop zu nutzen anstatt SSH von einem VPS

Ja - Nodes sind der First-Class Weg, um deinen Laptop von einem Remote Gateway zu erreichen, und sie schalten mehr frei als nur Shell Access. Das Gateway läuft auf macOS/Linux (Windows via WSL2) und ist leichtgewichtig (ein kleiner VPS oder Raspberry Pi-Klasse Box ist in Ordnung; 4 GB RAM ist reichlich), also ist ein übliches Setup ein Always-on Host plus dein Laptop als Node.

  • Kein Inbound SSH erforderlich. Nodes verbinden sich out zum Gateway WebSocket und nutzen Device Pairing.
  • Sicherere Execution Controls. system.run ist durch Node Allowlists/Approvals auf diesem Laptop gegated.
  • Mehr Device Tools. Nodes exponieren canvas, camera und screen zusätzlich zu system.run.
  • Local Browser Automation. Halte das Gateway auf einem VPS, aber führe Chrome lokal aus und relay Control mit der Chrome Extension + einem Node Host auf dem Laptop.

SSH ist in Ordnung für Ad-hoc Shell Access, aber Nodes sind einfacher für laufende Agent Workflows und Device Automation.

Docs: Nodes, Nodes CLI, Chrome extension.

Soll ich auf einem zweiten Laptop installieren oder nur einen Node hinzufügen

Falls du nur lokale Tools (Screen/Camera/Exec) auf dem zweiten Laptop brauchst, füge ihn als Node hinzu. Das hält ein einzelnes Gateway und vermeidet duplizierte Config. Lokale Node Tools sind aktuell nur macOS, aber wir planen, sie auf andere OSes zu erweitern.

Installiere ein zweites Gateway nur, wenn du harte Isolation oder zwei vollständig separate Bots brauchst.

Docs: Nodes, Nodes CLI, Multiple gateways.

Führen Nodes einen Gateway Service aus

Nein. Nur ein Gateway sollte pro Host laufen, außer du führst absichtlich isolierte Profiles aus (siehe Multiple gateways). Nodes sind Peripherals, die sich mit dem Gateway verbinden (iOS/Android Nodes oder macOS “Node Mode” in der Menubar App). Für Headless Node Hosts und CLI Control siehe Node host CLI.

Ein Full Restart ist erforderlich für gateway, discovery und canvasHost Änderungen.

Gibt es eine API RPC Möglichkeit, Config anzuwenden

Ja. config.apply validiert + schreibt die vollständige Config und startet das Gateway als Teil der Operation neu.

config.apply hat meine Config gelöscht Wie kann ich wiederherstellen und das vermeiden

config.apply ersetzt die gesamte Config. Falls du ein partielles Objekt sendest, wird alles andere entfernt.

Wiederherstellen:

  • Restore von Backup (Git oder eine kopierte ~/.openclaw/openclaw.json).
  • Falls du kein Backup hast, führe openclaw doctor erneut aus und konfiguriere Channels/Models neu.
  • Falls das unerwartet war, file einen Bug und füge deine zuletzt bekannte Config oder ein Backup bei.
  • Ein lokaler Coding Agent kann oft eine funktionierende Config aus Logs oder History rekonstruieren.

Vermeiden:

  • Nutze openclaw config set für kleine Änderungen.
  • Nutze openclaw configure für interaktive Edits.

Docs: Config, Configure, Doctor.

Was ist eine minimale sinnvolle Config für eine erste Installation

{
  agents: { defaults: { workspace: "~/.openclaw/workspace" } },
  channels: { whatsapp: { allowFrom: ["+15555550123"] } },
}

Das setzt deinen Workspace und beschränkt, wer den Bot triggern kann.

Wie richte ich Tailscale auf einem VPS ein und verbinde mich von meinem Mac

Minimale Schritte:

  1. Install + Login auf dem VPS
    curl -fsSL https://tailscale.com/install.sh | sh
    sudo tailscale up
  2. Install + Login auf deinem Mac
    • Nutze die Tailscale App und melde dich im selben Tailnet an.
  3. Aktiviere MagicDNS (empfohlen)
    • In der Tailscale Admin Console aktiviere MagicDNS, damit der VPS einen stabilen Namen hat.
  4. Nutze den Tailnet Hostname

Falls du die Control UI ohne SSH willst, nutze Tailscale Serve auf dem VPS:

openclaw gateway --tailscale serve

Das hält das Gateway an Loopback gebunden und exponiert HTTPS via Tailscale. Siehe Tailscale.

Wie verbinde ich einen Mac Node mit einem Remote Gateway Tailscale Serve

Serve exponiert die Gateway Control UI + WS. Nodes verbinden sich über denselben Gateway WS Endpoint.

Empfohlenes Setup:

  1. Stelle sicher, dass VPS + Mac auf demselben Tailnet sind.
  2. Nutze die macOS App im Remote Mode (SSH Target kann der Tailnet Hostname sein). Die App wird den Gateway Port tunneln und sich als Node verbinden.
  3. Genehmige den Node auf dem Gateway:
    openclaw nodes pending
    openclaw nodes approve <requestId>

Docs: Gateway protocol, Discovery, macOS remote mode.

Env Vars und .env Loading

Wie lädt OpenClaw Environment Variables

OpenClaw liest Env Vars vom Parent Process (Shell, launchd/systemd, CI, etc.) und lädt zusätzlich:

  • .env vom aktuellen Working Directory
  • ein globales Fallback .env von ~/.openclaw/.env (aka $OPENCLAW_STATE_DIR/.env)

Keine .env Datei überschreibt existierende Env Vars.

Du kannst auch Inline Env Vars in der Config definieren (angewendet nur, falls im Process Env fehlend):

{
  env: {
    OPENROUTER_API_KEY: "sk-or-...",
    vars: { GROQ_API_KEY: "gsk-..." },
  },
}

Siehe /environment für vollständige Precedence und Sources.

Ich habe das Gateway via Service gestartet und meine Env Vars sind verschwunden Was nun

Zwei übliche Fixes:

  1. Lege die fehlenden Keys in ~/.openclaw/.env, damit sie aufgenommen werden, auch wenn der Service dein Shell Env nicht erbt.
  2. Aktiviere Shell Import (Opt-in Convenience):
{
  env: {
    shellEnv: {
      enabled: true,
      timeoutMs: 15000,
    },
  },
}

Das führt deine Login Shell aus und importiert nur fehlende erwartete Keys (überschreibt nie). Env Var Äquivalente: OPENCLAW_LOAD_SHELL_ENV=1, OPENCLAW_SHELL_ENV_TIMEOUT_MS=15000.

Ich habe COPILOT_GITHUB_TOKEN gesetzt aber models status zeigt Shell env off Warum

openclaw models status berichtet, ob Shell Env Import aktiviert ist. “Shell env: off” bedeutet nicht, dass deine Env Vars fehlen - es bedeutet nur, dass OpenClaw deine Login Shell nicht automatisch laden wird.

Falls das Gateway als Service läuft (launchd/systemd), wird es dein Shell Environment nicht erben. Fixe es, indem du eines davon machst:

  1. Lege den Token in ~/.openclaw/.env:
    COPILOT_GITHUB_TOKEN=...
  2. Oder aktiviere Shell Import (env.shellEnv.enabled: true).
  3. Oder füge ihn zu deinem Config env Block hinzu (wendet nur an, falls fehlend).

Dann starte das Gateway neu und prüfe erneut:

openclaw models status

Copilot Tokens werden von COPILOT_GITHUB_TOKEN gelesen (auch GH_TOKEN / GITHUB_TOKEN). Siehe /concepts/model-providers und /environment.

Sessions & Multiple Chats

Wie starte ich eine frische Conversation

Sende /new oder /reset als Standalone Nachricht. Siehe Session management.

Resetten Sessions automatisch, falls ich nie new sende

Ja. Sessions expiren nach session.idleMinutes (Default 60). Die nächste Nachricht startet eine frische Session ID für diesen Chat Key. Das löscht keine Transcripts - es startet nur eine neue Session.

{
  session: {
    idleMinutes: 240,
  },
}

Gibt es eine Möglichkeit, ein Team von OpenClaw Instanzen zu machen ein CEO und viele Agents

Ja, via Multi-Agent Routing und Sub-Agents. Du kannst einen Coordinator Agent und mehrere Worker Agents mit ihren eigenen Workspaces und Models erstellen.

Das gesagt, ist das am besten als Fun Experiment zu sehen. Es ist Token-heavy und oft weniger effizient als einen Bot mit separaten Sessions zu nutzen. Das typische Model, das wir uns vorstellen, ist ein Bot, mit dem du sprichst, mit verschiedenen Sessions für parallele Arbeit. Dieser Bot kann auch Sub-Agents spawnen, wenn nötig.

Docs: Multi-agent routing, Sub-agents, Agents CLI.

Warum wurde Context mid-task truncated Wie verhindere ich das

Session Context ist durch das Model Window limitiert. Lange Chats, große Tool Outputs oder viele Files können Compaction oder Truncation triggern.

Was hilft:

  • Bitte den Bot, den aktuellen State zusammenzufassen und in eine Datei zu schreiben.
  • Nutze /compact vor langen Tasks und /new, wenn du Topics wechselst.
  • Halte wichtigen Context im Workspace und bitte den Bot, ihn zurückzulesen.
  • Nutze Sub-Agents für lange oder parallele Arbeit, damit der Main Chat kleiner bleibt.
  • Wähle ein Model mit größerem Context Window, falls das oft passiert.

Wie resette ich OpenClaw komplett, aber behalte es installiert

Nutze den Reset Command:

openclaw reset

Non-Interactive Full Reset:

openclaw reset --scope full --yes --non-interactive

Dann führe Onboarding erneut aus:

openclaw onboard --install-daemon

Hinweise:

  • Der Onboarding Wizard bietet auch Reset an, falls er eine existierende Config sieht. Siehe Wizard.
  • Falls du Profiles genutzt hast (--profile / OPENCLAW_PROFILE), resette jedes State Dir (Defaults sind ~/.openclaw-<profile>).
  • Dev Reset: openclaw gateway --dev --reset (Dev-only; löscht Dev Config + Credentials + Sessions + Workspace).

Ich bekomme context too large Errors wie resette oder compacte ich

Nutze eines davon:

  • Compact (behält die Conversation, aber fasst ältere Turns zusammen):

    /compact

    oder /compact <instructions>, um das Summary zu leiten.

  • Reset (frische Session ID für denselben Chat Key):

    /new
    /reset

Falls es weiter passiert:

  • Aktiviere oder tune Session Pruning (agents.defaults.contextPruning), um alten Tool Output zu trimmen.
  • Nutze ein Model mit größerem Context Window.

Docs: Compaction, Session pruning, Session management.

Warum sehe ich LLM request rejected messages content tool_use input Field required

Das ist ein Provider Validation Error: das Model hat einen tool_use Block ohne das erforderliche input emittiert. Es bedeutet normalerweise, dass die Session History stale oder korrupt ist (oft nach langen Threads oder einer Tool/Schema Änderung).

Fix: starte eine frische Session mit /new (Standalone Nachricht).

Warum bekomme ich alle 30 Minuten Heartbeat Nachrichten

Heartbeats laufen standardmäßig alle 30m. Tune oder deaktiviere sie:

{
  agents: {
    defaults: {
      heartbeat: {
        every: "2h", // oder "0m" zum Deaktivieren
      },
    },
  },
}

Falls HEARTBEAT.md existiert, aber effektiv leer ist (nur Blank Lines und Markdown Headers wie # Heading), überspringt OpenClaw den Heartbeat Run, um API Calls zu sparen. Falls die Datei fehlt, läuft der Heartbeat trotzdem und das Model entscheidet, was zu tun ist.

Per-Agent Overrides nutzen agents.list[].heartbeat. Docs: Heartbeat.

Muss ich einen Bot Account zu einer WhatsApp Group hinzufügen

Nein. OpenClaw läuft auf deinem eigenen Account, also falls du in der Group bist, kann OpenClaw sie sehen. Standardmäßig sind Group Replies blockiert, bis du Sender erlaubst (groupPolicy: "allowlist").

Falls du willst, dass nur du Group Replies triggern kannst:

{
  channels: {
    whatsapp: {
      groupPolicy: "allowlist",
      groupAllowFrom: ["+15551234567"],
    },
  },
}

Wie bekomme ich die JID einer WhatsApp Group

Option 1 (am schnellsten): tail Logs und sende eine Test Nachricht in der Group:

openclaw logs --follow --json

Suche nach chatId (oder from), das auf @g.us endet, wie: [email protected].

Option 2 (falls bereits konfiguriert/allowlisted): liste Groups aus Config:

openclaw directory groups list --channel whatsapp

Docs: WhatsApp, Directory, Logs.

Warum antwortet OpenClaw nicht in einer Group

Zwei übliche Ursachen:

  • Mention Gating ist an (Default). Du musst den Bot @mentionen (oder mentionPatterns matchen).
  • Du hast channels.whatsapp.groups ohne "*" konfiguriert und die Group ist nicht allowlisted.

Siehe Groups und Group messages.

Teilen Groups/Threads Context mit DMs

Direkte Chats kollabieren standardmäßig zur Main Session. Groups/Channels haben ihre eigenen Session Keys, und Telegram Topics / Discord Threads sind separate Sessions. Siehe Groups und Group messages.

Wie viele Workspaces und Agents kann ich erstellen

Keine harten Limits. Dutzende (sogar Hunderte) sind in Ordnung, aber achte auf:

  • Disk Growth: Sessions + Transcripts leben unter ~/.openclaw/agents/<agentId>/sessions/.
  • Token Cost: mehr Agents bedeutet mehr concurrent Model Usage.
  • Ops Overhead: Per-Agent Auth Profiles, Workspaces und Channel Routing.

Tipps:

  • Halte einen aktiven Workspace pro Agent (agents.defaults.workspace).
  • Prune alte Sessions (lösche JSONL oder Store Entries), falls Disk wächst.
  • Nutze openclaw doctor, um stray Workspaces und Profile Mismatches zu finden.

Kann ich mehrere Bots oder Chats gleichzeitig betreiben Slack und wie sollte ich das einrichten

Ja. Nutze Multi-Agent Routing, um mehrere isolierte Agents zu betreiben und Inbound Messages nach Channel/Account/Peer zu routen. Slack wird als Channel unterstützt und kann an spezifische Agents gebunden werden.

Browser Access ist mächtig, aber nicht “do anything a human can” - Anti-Bot, CAPTCHAs und MFA können Automation trotzdem blockieren. Für die zuverlässigste Browser Control nutze die Chrome Extension Relay auf der Maschine, die den Browser ausführt (und halte das Gateway irgendwo).

Best-Practice Setup:

  • Always-on Gateway Host (VPS/Mac mini).
  • Ein Agent pro Rolle (Bindings).
  • Slack Channel(s) an diese Agents gebunden.
  • Lokaler Browser via Extension Relay (oder ein Node), wenn benötigt.

Docs: Multi-Agent Routing, Slack, Browser, Chrome extension, Nodes.

Models: Defaults, Selection, Aliases, Switching

Was ist das Default Model

OpenClaws Default Model ist das, was du setzt als:

agents.defaults.model.primary

Models werden als provider/model referenziert (Beispiel: anthropic/claude-opus-4-5). Falls du den Provider weglässt, nimmt OpenClaw aktuell anthropic als temporären Deprecation Fallback an - aber du solltest trotzdem explizit provider/model setzen.

Welches Model empfiehlst du

Empfohlener Default: anthropic/claude-opus-4-5. Gute Alternative: anthropic/claude-sonnet-4-5. Zuverlässig (weniger Character): openai/gpt-5.2 - fast so gut wie Opus, nur weniger Persönlichkeit. Budget: zai/glm-4.7.

MiniMax M2.1 hat eigene Docs: MiniMax und Local models.

Faustregel: nutze das beste Model, das du dir leisten kannst für High-Stakes Arbeit, und ein günstigeres Model für Routine Chat oder Summaries. Du kannst Models pro Agent routen und Sub-Agents nutzen, um lange Tasks zu parallelisieren (jeder Sub-Agent verbraucht Tokens). Siehe Models und Sub-agents.

Starke Warnung: schwächere/über-quantisierte Models sind anfälliger für Prompt Injection und unsicheres Verhalten. Siehe Security.

Mehr Context: Models.

Kann ich Self-Hosted Models nutzen llama.cpp vLLM Ollama

Ja. Falls dein lokaler Server eine OpenAI-kompatible API exponiert, kannst du einen Custom Provider darauf zeigen. Ollama wird direkt unterstützt und ist der einfachste Pfad.

Security Hinweis: kleinere oder stark quantisierte Models sind anfälliger für Prompt Injection. Wir empfehlen stark große Models für jeden Bot, der Tools nutzen kann. Falls du trotzdem kleine Models willst, aktiviere Sandboxing und strikte Tool Allowlists.

Docs: Ollama, Local models, Model providers, Security, Sandboxing.

Wie wechsle ich Models ohne meine Config zu löschen

Nutze Model Commands oder editiere nur die Model Fields. Vermeide Full Config Replaces.

Sichere Optionen:

  • /model im Chat (schnell, per-session)
  • openclaw models set ... (updated nur Model Config)
  • openclaw configure --section models (interaktiv)
  • editiere agents.defaults.model in ~/.openclaw/openclaw.json

Vermeide config.apply mit einem partiellen Objekt, außer du willst die ganze Config ersetzen. Falls du Config überschrieben hast, restore von Backup oder führe openclaw doctor erneut aus, um zu reparieren.

Docs: Models, Configure, Config, Doctor.

Was nutzen OpenClaw, Flawd und Krill für Models

  • OpenClaw + Flawd: Anthropic Opus (anthropic/claude-opus-4-5) - siehe Anthropic.
  • Krill: MiniMax M2.1 (minimax/MiniMax-M2.1) - siehe MiniMax.

Wie wechsle ich Models on the fly ohne Neustart

Nutze den /model Command als Standalone Nachricht:

/model sonnet
/model haiku
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash

Du kannst verfügbare Models mit /model, /model list oder /model status listen.

/model (und /model list) zeigt einen kompakten, nummerierten Picker. Wähle per Nummer:

/model 3

Du kannst auch ein spezifisches Auth Profile für den Provider forcen (per Session):

/model opus@anthropic:default
/model opus@anthropic:work

Tipp: /model status zeigt, welcher Agent aktiv ist, welche auth-profiles.json Datei genutzt wird und welches Auth Profile als nächstes versucht wird. Es zeigt auch den konfigurierten Provider Endpoint (baseUrl) und API Mode (api), wenn verfügbar.

Wie unpinne ich ein Profile, das ich mit profile gesetzt habe

Führe /model ohne das @profile Suffix erneut aus:

/model anthropic/claude-opus-4-5

Falls du zum Default zurückkehren willst, wähle ihn aus /model (oder sende /model <default provider/model>). Nutze /model status, um zu bestätigen, welches Auth Profile aktiv ist.

Kann ich GPT 5.2 für Daily Tasks und Codex 5.2 für Coding nutzen

Ja. Setze eines als Default und wechsle bei Bedarf:

  • Quick Switch (per Session): /model gpt-5.2 für Daily Tasks, /model gpt-5.2-codex für Coding.
  • Default + Switch: setze agents.defaults.model.primary auf openai-codex/gpt-5.2, dann wechsle zu openai-codex/gpt-5.2-codex beim Coding (oder umgekehrt).
  • Sub-Agents: route Coding Tasks zu Sub-Agents mit einem anderen Default Model.

Siehe Models und Slash commands.

Warum sehe ich Model is not allowed und dann keine Antwort

Falls agents.defaults.models gesetzt ist, wird es zur Allowlist für /model und alle Session Overrides. Ein Model zu wählen, das nicht in dieser Liste ist, gibt zurück:

Model "provider/model" is not allowed. Use /model to list available models.

Dieser Error wird anstelle einer normalen Antwort zurückgegeben. Fix: füge das Model zu agents.defaults.models hinzu, entferne die Allowlist oder wähle ein Model aus /model list.

Warum sehe ich Unknown model minimax/MiniMax-M2.1

Das bedeutet, dass der Provider nicht konfiguriert ist (keine MiniMax Provider Config oder Auth Profile wurde gefunden), sodass das Model nicht aufgelöst werden kann. Ein Fix für diese Detection ist in 2026.1.12 (unreleased at the time of writing).

Fix Checklist:

  1. Upgrade auf 2026.1.12 (oder führe von Source main aus), dann starte das Gateway neu.
  2. Stelle sicher, dass MiniMax konfiguriert ist (Wizard oder JSON), oder dass ein MiniMax API Key in Env/Auth Profiles existiert, damit der Provider injiziert werden kann.
  3. Nutze die exakte Model ID (case-sensitive): minimax/MiniMax-M2.1 oder minimax/MiniMax-M2.1-lightning.
  4. Führe aus:
    openclaw models list
    und wähle aus der Liste (oder /model list im Chat).

Siehe MiniMax und Models.

Kann ich MiniMax als Default und OpenAI für komplexe Tasks nutzen

Ja. Nutze MiniMax als Default und wechsle Models per Session, wenn benötigt. Fallbacks sind für Errors, nicht “harte Tasks”, also nutze /model oder einen separaten Agent.

Option A: Switch per Session

{
  env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.1" },
      models: {
        "minimax/MiniMax-M2.1": { alias: "minimax" },
        "openai/gpt-5.2": { alias: "gpt" },
      },
    },
  },
}

Dann:

/model gpt

Option B: Separate Agents

  • Agent A Default: MiniMax
  • Agent B Default: OpenAI
  • Route nach Agent oder nutze /agent zum Wechseln

Docs: Models, Multi-Agent Routing, MiniMax, OpenAI.

Sind opus sonnet gpt Built-in Shortcuts

Ja. OpenClaw liefert ein paar Default Shorthands (nur angewendet, wenn das Model in agents.defaults.models existiert):

  • opusanthropic/claude-opus-4-5
  • sonnetanthropic/claude-sonnet-4-5
  • gptopenai/gpt-5.2
  • gpt-miniopenai/gpt-5-mini
  • geminigoogle/gemini-3-pro-preview
  • gemini-flashgoogle/gemini-3-flash-preview

Falls du deinen eigenen Alias mit demselben Namen setzt, gewinnt dein Wert.

Wie definiere/überschreibe ich Model Shortcuts Aliases

Aliases kommen von agents.defaults.models.<modelId>.alias. Beispiel:

{
  agents: {
    defaults: {
      model: { primary: "anthropic/claude-opus-4-5" },
      models: {
        "anthropic/claude-opus-4-5": { alias: "opus" },
        "anthropic/claude-sonnet-4-5": { alias: "sonnet" },
        "anthropic/claude-haiku-4-5": { alias: "haiku" },
      },
    },
  },
}

Dann löst /model sonnet (oder /<alias>, wenn unterstützt) zu dieser Model ID auf.

Wie füge ich Models von anderen Providern wie OpenRouter oder ZAI hinzu

OpenRouter (Pay-per-Token; viele Models):

{
  agents: {
    defaults: {
      model: { primary: "openrouter/anthropic/claude-sonnet-4-5" },
      models: { "openrouter/anthropic/claude-sonnet-4-5": {} },
    },
  },
  env: { OPENROUTER_API_KEY: "sk-or-..." },
}

Z.AI (GLM Models):

{
  agents: {
    defaults: {
      model: { primary: "zai/glm-4.7" },
      models: { "zai/glm-4.7": {} },
    },
  },
  env: { ZAI_API_KEY: "..." },
}

Falls du einen Provider/Model referenzierst, aber der erforderliche Provider Key fehlt, bekommst du einen Runtime Auth Error (z.B. No API key found for provider "zai").

No API key found for provider nach Hinzufügen eines neuen Agents

Das bedeutet normalerweise, dass der neue Agent einen leeren Auth Store hat. Auth ist per-Agent und gespeichert in:

~/.openclaw/agents/<agentId>/agent/auth-profiles.json

Fix Optionen:

  • Führe openclaw agents add <id> aus und konfiguriere Auth während des Wizards.
  • Oder kopiere auth-profiles.json vom Main Agent’s agentDir in das agentDir des neuen Agents.

Nutze nicht dasselbe agentDir über Agents hinweg; das verursacht Auth/Session Kollisionen.

Model Failover und “All models failed”

Wie funktioniert Failover

Failover passiert in zwei Stufen:

  1. Auth Profile Rotation innerhalb desselben Providers.
  2. Model Fallback zum nächsten Model in agents.defaults.model.fallbacks.

Cooldowns gelten für fehlschlagende Profiles (Exponential Backoff), sodass OpenClaw weiter antworten kann, auch wenn ein Provider rate-limited oder temporär fehlschlägt.

Was bedeutet dieser Error

No credentials found for profile "anthropic:default"

Es bedeutet, dass das System versuchte, das Auth Profile ID anthropic:default zu nutzen, aber keine Credentials dafür im erwarteten Auth Store finden konnte.

Fix Checklist für No credentials found for profile anthropic:default

  • Bestätige, wo Auth Profiles leben (neue vs Legacy Paths)
    • Aktuell: ~/.openclaw/agents/<agentId>/agent/auth-profiles.json
    • Legacy: ~/.openclaw/agent/* (migriert von openclaw doctor)
  • Bestätige, dass deine Env Var vom Gateway geladen wird
    • Falls du ANTHROPIC_API_KEY in deiner Shell setzt, aber das Gateway via systemd/launchd ausführst, erbt es sie möglicherweise nicht. Lege sie in ~/.openclaw/.env oder aktiviere env.shellEnv.
  • Stelle sicher, dass du den korrekten Agent editierst
    • Multi-Agent Setups bedeuten, dass es mehrere auth-profiles.json Dateien geben kann.
  • Sanity-Check Model/Auth Status
    • Nutze openclaw models status, um konfigurierte Models zu sehen und ob Provider authentifiziert sind.

Fix Checklist für No credentials found for profile anthropic

Das bedeutet, dass der Run an ein Anthropic Auth Profile gepinnt ist, aber das Gateway es nicht in seinem Auth Store finden kann.

  • Nutze einen setup-token
    • Führe claude setup-token aus, dann füge ihn mit openclaw models auth setup-token --provider anthropic ein.
    • Falls der Token auf einer anderen Maschine erstellt wurde, nutze openclaw models auth paste-token --provider anthropic.
  • Falls du stattdessen einen API Key nutzen willst
    • Lege ANTHROPIC_API_KEY in ~/.openclaw/.env auf dem Gateway Host ab.
    • Lösche jede gepinnte Order, die ein fehlendes Profile forciert:
      openclaw models auth order clear --provider anthropic
  • Bestätige, dass du Commands auf dem Gateway Host ausführst
    • Im Remote Mode leben Auth Profiles auf der Gateway Maschine, nicht auf deinem Laptop.

Warum hat es auch Google Gemini versucht und ist fehlgeschlagen

Falls deine Model Config Google Gemini als Fallback enthält (oder du zu einem Gemini Shorthand gewechselt hast), wird OpenClaw es während Model Fallback versuchen. Falls du Google Credentials nicht konfiguriert hast, siehst du No API key found for provider "google".

Fix: stelle entweder Google Auth bereit oder entferne/vermeide Google Models in agents.defaults.model.fallbacks / Aliases, damit Fallback nicht dorthin routet.

LLM request rejected message thinking signature required google antigravity

Ursache: die Session History enthält Thinking Blocks ohne Signatures (oft von einem abgebrochenen/partiellen Stream). Google Antigravity erfordert Signatures für Thinking Blocks.

Fix: OpenClaw strippt jetzt unsigned Thinking Blocks für Google Antigravity Claude. Falls es noch erscheint, starte eine neue Session oder setze /thinking off für diesen Agent.

Auth Profiles: Was sie sind und wie man sie verwaltet

Related: /concepts/oauth (OAuth Flows, Token Storage, Multi-Account Patterns)

Was ist ein Auth Profile

Ein Auth Profile ist ein benannter Credential Record (OAuth oder API Key), der an einen Provider gebunden ist. Profiles leben in:

~/.openclaw/agents/<agentId>/agent/auth-profiles.json

Was sind typische Profile IDs

OpenClaw nutzt Provider-prefixed IDs wie:

  • anthropic:default (üblich, wenn keine Email Identity existiert)
  • anthropic:<email> für OAuth Identities
  • Custom IDs, die du wählst (z.B. anthropic:work)

Kann ich kontrollieren, welches Auth Profile zuerst versucht wird

Ja. Config unterstützt optionale Metadata für Profiles und eine Ordering pro Provider (auth.order.<provider>). Das speichert keine Secrets; es mappt IDs zu Provider/Mode und setzt Rotation Order.

OpenClaw kann temporär ein Profile überspringen, falls es in einem kurzen Cooldown ist (Rate Limits/Timeouts/Auth Failures) oder einem längeren Disabled State (Billing/Insufficient Credits). Um das zu inspizieren, führe openclaw models status --json aus und prüfe auth.unusableProfiles. Tuning: auth.cooldowns.billingBackoffHours*.

Du kannst auch eine Per-Agent Order Override setzen (gespeichert in dem auth-profiles.json dieses Agents) via CLI:

# Defaults zum konfigurierten Default Agent (lasse --agent weg)
openclaw models auth order get --provider anthropic

# Locke Rotation zu einem einzelnen Profile (versuche nur dieses)
openclaw models auth order set --provider anthropic anthropic:default

# Oder setze eine explizite Order (Fallback innerhalb Provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default

# Clear Override (fall back zu Config auth.order / Round-Robin)
openclaw models auth order clear --provider anthropic

Um einen spezifischen Agent zu targeten:

openclaw models auth order set --provider anthropic --agent main anthropic:default

OAuth vs API Key was ist der Unterschied

OpenClaw unterstützt beides:

  • OAuth nutzt oft Subscription Access (wo anwendbar).
  • API Keys nutzen Pay-per-Token Billing.

Der Wizard unterstützt explizit Anthropic setup-token und OpenAI Codex OAuth und kann API Keys für dich speichern.

Gateway: Ports, “Already Running” und Remote Mode

Welchen Port nutzt das Gateway

gateway.port kontrolliert den einzelnen multiplexed Port für WebSocket + HTTP (Control UI, Hooks, etc.).

Precedence:

--port > OPENCLAW_GATEWAY_PORT > gateway.port > default 18789

Warum sagt openclaw gateway status Runtime running aber RPC probe failed

Weil “running” die Supervisor’s View ist (launchd/systemd/schtasks). Der RPC Probe ist die CLI, die tatsächlich zum Gateway WebSocket verbindet und status aufruft.

Nutze openclaw gateway status und vertraue diesen Zeilen:

  • Probe target: (die URL, die der Probe tatsächlich genutzt hat)
  • Listening: (was tatsächlich auf dem Port gebunden ist)
  • Last gateway error: (übliche Root Cause, wenn der Prozess lebt, aber der Port nicht zuhört)

Warum zeigt openclaw gateway status Config cli und Config service different

Du editierst eine Config Datei, während der Service eine andere ausführt (oft ein --profile / OPENCLAW_STATE_DIR Mismatch).

Fix:

openclaw gateway install --force

Führe das vom selben --profile / Environment aus, das der Service nutzen soll.

Was bedeutet another gateway instance is already listening

OpenClaw erzwingt ein Runtime Lock, indem es den WebSocket Listener sofort beim Startup bindet (Default ws://127.0.0.1:18789). Falls der Bind mit EADDRINUSE fehlschlägt, wirft es GatewayLockError, was anzeigt, dass eine andere Instanz bereits zuhört.

Fix: stoppe die andere Instanz, gib den Port frei oder führe mit openclaw gateway --port <port> aus.

Wie führe ich OpenClaw im Remote Mode aus Client verbindet sich zu einem Gateway woanders

Setze gateway.mode: "remote" und zeige auf eine Remote WebSocket URL, optional mit einem Token/Password:

{
  gateway: {
    mode: "remote",
    remote: {
      url: "ws://gateway.tailnet:18789",
      token: "your-token",
      password: "your-password",
    },
  },
}

Hinweise:

  • openclaw gateway startet nur, wenn gateway.mode local ist (oder du das Override Flag übergibst).
  • Die macOS App beobachtet die Config Datei und wechselt Modes live, wenn diese Werte sich ändern.

Die Control UI sagt unauthorized oder reconnected ständig Was nun

Dein Gateway läuft mit aktiviertem Auth (gateway.auth.*), aber die UI sendet nicht den passenden Token/Password.

Fakten (aus Code):

  • Die Control UI speichert den Token in Browser localStorage Key openclaw.control.settings.v1.
  • Die UI kann ?token=... (und/oder ?password=...) einmal importieren, dann strippt sie es von der URL.

Fix:

  • Am schnellsten: openclaw dashboard (printet + kopiert tokenized Link, versucht zu öffnen; zeigt SSH Hint, falls Headless).
  • Falls du noch keinen Token hast: openclaw doctor --generate-gateway-token.
  • Falls Remote, tunnel zuerst: ssh -N -L 18789:127.0.0.1:18789 user@host dann öffne http://127.0.0.1:18789/?token=....
  • Setze gateway.auth.token (oder OPENCLAW_GATEWAY_TOKEN) auf dem Gateway Host.
  • In den Control UI Settings füge denselben Token ein (oder refresh mit einem One-Time ?token=... Link).
  • Noch stuck? Führe openclaw status --all aus und folge Troubleshooting. Siehe Dashboard für Auth Details.

Ich habe gateway.bind auf tailnet gesetzt aber es kann nicht binden nichts hört zu

tailnet Bind wählt eine Tailscale IP von deinen Network Interfaces (100.64.0.0/10). Falls die Maschine nicht auf Tailscale ist (oder das Interface down ist), gibt es nichts zum Binden.

Fix:

  • Starte Tailscale auf diesem Host (sodass er eine 100.x Adresse hat), oder
  • Wechsle zu gateway.bind: "loopback" / "lan".

Hinweis: tailnet ist explizit. auto bevorzugt Loopback; nutze gateway.bind: "tailnet", wenn du ein Tailnet-only Bind willst.

Kann ich mehrere Gateways auf demselben Host betreiben

Normalerweise nein - ein Gateway kann mehrere Messaging Channels und Agents betreiben. Nutze mehrere Gateways nur, wenn du Redundanz brauchst (z.B. Rescue Bot) oder harte Isolation.

Ja, aber du musst isolieren:

  • OPENCLAW_CONFIG_PATH (Per-Instance Config)
  • OPENCLAW_STATE_DIR (Per-Instance State)
  • agents.defaults.workspace (Workspace Isolation)
  • gateway.port (Unique Ports)

Quick Setup (empfohlen):

  • Nutze openclaw --profile <name> … pro Instanz (erstellt automatisch ~/.openclaw-<name>).
  • Setze einen unique gateway.port in jeder Profile Config (oder übergib --port für manuelle Runs).
  • Installiere einen Per-Profile Service: openclaw --profile <name> gateway install.

Profiles suffixen auch Service Namen (bot.molt.<profile>; Legacy com.openclaw.*, openclaw-gateway-<profile>.service, OpenClaw Gateway (<profile>)). Full Guide: Multiple gateways.

Was bedeutet invalid handshake code 1008

Das Gateway ist ein WebSocket Server, und es erwartet, dass die allererste Nachricht ein connect Frame ist. Falls es etwas anderes empfängt, schließt es die Verbindung with code 1008 (policy violation).

Häufige Ursachen:

  • Du hast die HTTP URL in einem Browser geöffnet (http://...) statt einem WS Client.
  • Du hast den falschen Port oder Pfad genutzt.
  • Ein Proxy oder Tunnel hat Auth Headers entfernt oder eine Non-Gateway Request gesendet.

Quick Fixes:

  1. Nutze die WS URL: ws://<host>:18789 (oder wss://... falls HTTPS).
  2. Öffne den WS Port nicht in einem normalen Browser Tab.
  3. Falls Auth an ist, füge das Token/Password im connect Frame hinzu.

Falls du die CLI oder TUI nutzt, sollte die URL so aussehen:

openclaw tui --url ws://<host>:18789 --token <token>

Protocol Details: Gateway Protocol.

Logging und Debugging

Wo sind Logs

File Logs (strukturiert):

/tmp/openclaw/openclaw-YYYY-MM-DD.log

Du kannst einen stabilen Pfad via logging.file setzen. File Log Level wird über logging.level gesteuert. Console Verbosity wird über --verbose und logging.consoleLevel gesteuert.

Schnellster Log Tail:

openclaw logs --follow

Service/Supervisor Logs (wenn das Gateway via launchd/systemd läuft):

  • macOS: $OPENCLAW_STATE_DIR/logs/gateway.log und gateway.err.log (default: ~/.openclaw/logs/...; Profiles nutzen ~/.openclaw-<profile>/logs/...)
  • Linux: journalctl --user -u openclaw-gateway[-<profile>].service -n 200 --no-pager
  • Windows: schtasks /Query /TN "OpenClaw Gateway (<profile>)" /V /FO LIST

Siehe Troubleshooting für mehr.

Wie starte/stoppe/restarte ich den Gateway Service

Nutze die Gateway Helpers:

openclaw gateway status
openclaw gateway restart

Falls du das Gateway manuell laufen lässt, kann openclaw gateway --force den Port zurückholen. Siehe Gateway.

Ich habe mein Terminal auf Windows geschlossen wie starte ich OpenClaw neu

Es gibt zwei Windows Install Modi:

1) WSL2 (empfohlen): das Gateway läuft inside Linux.

Öffne PowerShell, gehe in WSL, dann restart:

wsl
openclaw gateway status
openclaw gateway restart

Falls du den Service nie installiert hast, starte ihn im Foreground:

openclaw gateway run

2) Native Windows (nicht empfohlen): das Gateway läuft direkt in Windows.

Öffne PowerShell und führe aus:

openclaw gateway status
openclaw gateway restart

Falls du es manuell laufen lässt (kein Service), nutze:

openclaw gateway run

Docs: Windows (WSL2), Gateway Service Runbook.

Das Gateway ist up aber Antworten kommen nie an Was sollte ich checken

Starte mit einem Quick Health Sweep:

openclaw status
openclaw models status
openclaw channels status
openclaw logs --follow

Häufige Ursachen:

  • Model Auth nicht geladen auf dem Gateway Host (check models status).
  • Channel Pairing/Allowlist blockiert Replies (check Channel Config + Logs).
  • WebChat/Dashboard ist offen ohne das richtige Token.

Falls du remote bist, bestätige dass die Tunnel/Tailscale Connection up ist und dass das Gateway WebSocket erreichbar ist.

Docs: Channels, Troubleshooting, Remote Access.

Disconnected from gateway ohne Grund was nun

Das bedeutet normalerweise, dass die UI die WebSocket Connection verloren hat. Check:

  1. Läuft das Gateway? openclaw gateway status
  2. Ist das Gateway healthy? openclaw status
  3. Hat die UI das richtige Token? openclaw dashboard
  4. Falls remote, ist der Tunnel/Tailscale Link up?

Dann tail Logs:

openclaw logs --follow

Docs: Dashboard, Remote Access, Troubleshooting.

Telegram setMyCommands schlägt fehl mit Network Errors Was sollte ich checken

Starte mit Logs und Channel Status:

openclaw channels status
openclaw channels logs --channel telegram

Falls du auf einem VPS bist oder hinter einem Proxy, bestätige dass Outbound HTTPS erlaubt ist und DNS funktioniert. Falls das Gateway remote ist, stelle sicher dass du Logs auf dem Gateway Host anschaust.

Docs: Telegram, Channel Troubleshooting.

TUI zeigt keinen Output Was sollte ich checken

Bestätige zuerst dass das Gateway erreichbar ist und der Agent laufen kann:

openclaw status
openclaw models status
openclaw logs --follow

In der TUI nutze /status um den aktuellen State zu sehen. Falls du Replies in einem Chat Channel erwartest, stelle sicher dass Delivery enabled ist (/deliver on).

Docs: TUI, Slash Commands.

Wie stoppe und starte ich das Gateway komplett

Falls du den Service installiert hast:

openclaw gateway stop
openclaw gateway start

Das stoppt/startet den supervised Service (launchd auf macOS, systemd auf Linux). Nutze das wenn das Gateway im Background als Daemon läuft.

Falls du im Foreground laufen lässt, stoppe mit Ctrl-C, dann:

openclaw gateway run

Docs: Gateway Service Runbook.

ELI5 openclaw gateway restart vs openclaw gateway

  • openclaw gateway restart: restartet den Background Service (launchd/systemd).
  • openclaw gateway: läuft das Gateway im Foreground für diese Terminal Session.

Falls du den Service installiert hast, nutze die Gateway Commands. Nutze openclaw gateway wenn du einen One-Off Foreground Run willst.

Was ist der schnellste Weg um mehr Details zu bekommen wenn etwas fehlschlägt

Starte das Gateway mit --verbose um mehr Console Detail zu bekommen. Dann inspiziere die Log File für Channel Auth, Model Routing und RPC Errors.

Media & Attachments

Mein Skill hat ein Image/PDF generiert aber nichts wurde gesendet

Outbound Attachments vom Agent müssen eine MEDIA:<path-or-url> Line enthalten (auf einer eigenen Line). Siehe OpenClaw Assistant Setup und Agent Send.

CLI Sending:

openclaw message send --target +15555550123 --message "Here you go" --media /path/to/file.png

Check auch:

  • Der Target Channel unterstützt Outbound Media und ist nicht von Allowlists blockiert.
  • Die File ist innerhalb der Provider Size Limits (Images werden auf max 2048px resized).

Siehe Images.

Security und Access Control

Ist es sicher OpenClaw für Inbound DMs zu exposen

Behandle Inbound DMs als Untrusted Input. Defaults sind designed um Risk zu reduzieren:

  • Default Behavior auf DM-capable Channels ist Pairing:
    • Unknown Sender erhalten einen Pairing Code; der Bot verarbeitet ihre Message nicht.
    • Approve mit: openclaw pairing approve <channel> <code>
    • Pending Requests sind gecapped bei 3 per Channel; check openclaw pairing list <channel> falls ein Code nicht ankam.
  • DMs öffentlich zu öffnen erfordert explizites Opt-in (dmPolicy: "open" und Allowlist "*").

Führe openclaw doctor aus um risky DM Policies aufzudecken.

Ist Prompt Injection nur ein Concern für Public Bots

Nein. Prompt Injection geht um Untrusted Content, nicht nur wer den Bot DM’en kann. Falls dein Assistant External Content liest (Web Search/Fetch, Browser Pages, Emails, Docs, Attachments, Pasted Logs), kann dieser Content Instructions enthalten die versuchen das Model zu hijacken. Das kann passieren selbst wenn du der einzige Sender bist.

Das größte Risk ist wenn Tools enabled sind: das Model kann getrickst werden Context zu exfiltrieren oder Tools in deinem Namen zu callen. Reduziere den Blast Radius durch:

  • Nutzen eines Read-Only oder Tool-Disabled “Reader” Agents um Untrusted Content zu summarizen
  • web_search / web_fetch / browser off halten für Tool-Enabled Agents
  • Sandboxing und Strict Tool Allowlists

Details: Security.

Sollte mein Bot einen eigenen Email GitHub Account oder Phone Number haben

Ja, für die meisten Setups. Den Bot mit separaten Accounts und Phone Numbers zu isolieren reduziert den Blast Radius falls etwas schiefgeht. Das macht es auch einfacher Credentials zu rotieren oder Access zu revoken ohne deine persönlichen Accounts zu beeinflussen.

Starte klein. Gib nur Access zu den Tools und Accounts die du wirklich brauchst, und expandiere später falls nötig.

Docs: Security, Pairing. credentials or revoke access without impacting your personal accounts.

Start small. Give access only to the tools and accounts you actually need, and expand later if required.

Docs: Security, Pairing.

Kann ich ihm Autonomy über meine Text Messages geben und ist das sicher

Wir empfehlen nicht volle Autonomy über deine persönlichen Messages. Das sicherste Pattern ist:

  • Halte DMs in Pairing Mode oder einer Tight Allowlist.
  • Nutze eine separate Number oder Account falls du willst dass es in deinem Namen messaged.
  • Lass es drafts erstellen, dann approve before sending.

Falls du experimentieren willst, mach es auf einem dedizierten Account und halte es isoliert. Siehe Security.

Kann ich günstigere Models für Personal Assistant Tasks nutzen

Ja, falls der Agent Chat-Only ist und der Input trusted ist. Kleinere Tiers sind anfälliger für Instruction Hijacking, also vermeide sie für Tool-Enabled Agents oder beim Lesen von Untrusted Content. Falls du ein kleineres Model nutzen musst, lock Tools down und laufe inside einer Sandbox. Siehe Security.

Ich habe start in Telegram ausgeführt aber keinen Pairing Code bekommen

Pairing Codes werden nur gesendet wenn ein Unknown Sender den Bot messaged und dmPolicy: "pairing" enabled ist. /start alleine generiert keinen Code.

Check Pending Requests:

openclaw pairing list telegram

Falls du sofortigen Access willst, allowliste deine Sender ID oder setze dmPolicy: "open" für diesen Account.

WhatsApp wird es meine Contacts messagen Wie funktioniert Pairing

Nein. Default WhatsApp DM Policy ist Pairing. Unknown Sender bekommen nur einen Pairing Code und ihre Message wird nicht verarbeitet. OpenClaw antwortet nur auf Chats die es empfängt oder auf explizite Sends die du triggerst.

Approve Pairing mit:

openclaw pairing approve whatsapp <code>

Liste Pending Requests:

openclaw pairing list whatsapp

Wizard Phone Number Prompt: wird genutzt um deine Allowlist/Owner zu setzen damit deine eigenen DMs erlaubt sind. Wird nicht für Auto-Sending genutzt. Falls du auf deiner persönlichen WhatsApp Number läufst, nutze diese Number und enable channels.whatsapp.selfChatMode.

Chat Commands, Tasks abbrechen und “es hört nicht auf”

Wie stoppe ich Internal System Messages vom Anzeigen im Chat

Die meisten Internal oder Tool Messages erscheinen nur wenn Verbose oder Reasoning für diese Session enabled ist.

Fix im Chat wo du es siehst:

/verbose off
/reasoning off

Falls es immer noch noisy ist, check die Session Settings in der Control UI und setze Verbose auf inherit. Bestätige auch dass du kein Bot Profile mit verboseDefault auf on in der Config nutzt.

Docs: Thinking und Verbose, Security.

Wie stoppe/cancele ich einen laufenden Task

Sende eines davon als Standalone Message (kein Slash):

stop
abort
esc
wait
exit
interrupt

Das sind Abort Triggers (keine Slash Commands).

Für Background Processes (vom Exec Tool) kannst du den Agent bitten zu laufen:

process action:kill sessionId:XXX

Slash Commands Overview: siehe Slash Commands.

Die meisten Commands müssen als Standalone Message gesendet werden die mit / startet, aber ein paar Shortcuts (wie /status) funktionieren auch inline für allowlisted Sender.

Wie sende ich eine Discord Message von Telegram Cross-context messaging denied

OpenClaw blockiert Cross-Provider Messaging by default. Falls ein Tool Call an Telegram gebunden ist, wird es nicht an Discord senden außer du erlaubst es explizit.

Enable Cross-Provider Messaging für den Agent:

{
  agents: {
    defaults: {
      tools: {
        message: {
          crossContext: {
            allowAcrossProviders: true,
            marker: { enabled: true, prefix: "[from {channel}] " },
          },
        },
      },
    },
  },
}

Restarte das Gateway nach dem Editieren der Config. Falls du das nur für einen einzelnen Agent willst, setze es unter agents.list[].tools.message stattdessen.

Warum fühlt es sich an als würde der Bot Rapidfire Messages ignorieren

Queue Mode kontrolliert wie neue Messages mit einem In-Flight Run interagieren. Nutze /queue um Modi zu ändern:

  • steer - neue Messages redirecten den aktuellen Task
  • followup - laufe Messages eine nach der anderen
  • collect - batche Messages und antworte einmal (default)
  • steer-backlog - steer jetzt, dann verarbeite Backlog
  • interrupt - breche aktuellen Run ab und starte frisch

Du kannst Optionen wie debounce:2s cap:25 drop:summarize für Followup Modi hinzufügen.

Beantworte die exakte Frage aus dem Screenshot/Chat Log

Q: “Was ist das Default Model für Anthropic mit einem API Key?”

A: In OpenClaw sind Credentials und Model Selection separat. ANTHROPIC_API_KEY setzen (oder einen Anthropic API Key in Auth Profiles speichern) enabled Authentication, aber das tatsächliche Default Model ist was du in agents.defaults.model.primary konfigurierst (zum Beispiel anthropic/claude-sonnet-4-5 oder anthropic/claude-opus-4-5). Falls du No credentials found for profile "anthropic:default" siehst, bedeutet das dass das Gateway keine Anthropic Credentials in der erwarteten auth-profiles.json für den Agent der läuft finden konnte.


Immer noch stuck? Frag in Discord oder öffne eine GitHub Discussion.