Gateway

CLI-Backends

OpenClaw kann lokale KI-CLIs als reinen Text-Fallback ausführen, wenn API-Provider ausfallen, durch Rate Limits eingeschränkt sind oder vorübergehend fehlerhaft arbeiten. Dies ist bewusst konservativ:

  • OpenClaw-Tools werden nicht direkt injiziert, aber Backends mit bundleMcp: true können Gateway-Tools über eine local loopback-MCP-Bridge empfangen.
  • JSONL-Streaming für CLIs, die es unterstützen.
  • Sitzungen werden unterstützt (damit Folgeturns kohärent bleiben).
  • Bilder können durchgereicht werden, wenn die CLI Bildpfade akzeptiert.

Dies ist eher als Sicherheitsnetz gedacht denn als primärer Pfad. Verwenden Sie es, wenn Sie „funktioniert immer“-Textantworten möchten, ohne auf externe APIs angewiesen zu sein.

Wenn Sie eine vollständige Harness-Laufzeit mit ACP-Sitzungssteuerung, Hintergrundaufgaben, Thread-/Konversationsbindung und persistenten externen Coding-Sitzungen möchten, verwenden Sie stattdessen ACP Agents. CLI-Backends sind kein ACP.

Einsteigerfreundlicher Schnellstart

Sie können Codex CLI ohne jegliche Konfiguration verwenden (das gebündelte OpenAI-Plugin registriert ein Standard-Backend):

openclaw agent --message "hi" --model codex-cli/gpt-5.5

Wenn Ihr Gateway unter launchd/systemd läuft und PATH minimal ist, fügen Sie nur den Befehlspfad hinzu:

{
  agents: {
    defaults: {
      cliBackends: {
        "codex-cli": {
          command: "/opt/homebrew/bin/codex",
        },
      },
    },
  },
}

Das ist alles. Keine Schlüssel, keine zusätzliche Authentifizierungskonfiguration über die CLI selbst hinaus nötig.

Wenn Sie ein gebündeltes CLI-Backend als primären Nachrichten-Provider auf einem Gateway-Host verwenden, lädt OpenClaw jetzt automatisch das zugehörige gebündelte Plugin, wenn Ihre Konfiguration dieses Backend explizit in einer Modellreferenz oder unter agents.defaults.cliBackends referenziert.

Verwendung als Fallback

Fügen Sie Ihrer Fallback-Liste ein CLI-Backend hinzu, damit es nur ausgeführt wird, wenn primäre Modelle fehlschlagen:

{
  agents: {
    defaults: {
      model: {
        primary: "anthropic/claude-opus-4-6",
        fallbacks: ["codex-cli/gpt-5.5"],
      },
      models: {
        "anthropic/claude-opus-4-6": { alias: "Opus" },
        "codex-cli/gpt-5.5": {},
      },
    },
  },
}

Hinweise:

  • Wenn Sie agents.defaults.models (Allowlist) verwenden, müssen Sie Ihre CLI-Backend-Modelle dort ebenfalls aufnehmen.
  • Wenn der primäre Provider fehlschlägt (Authentifizierung, Rate Limits, Timeouts), versucht OpenClaw als Nächstes das CLI-Backend.

Konfigurationsübersicht

Alle CLI-Backends befinden sich unter:

agents.defaults.cliBackends

Jeder Eintrag ist über eine Provider-ID verschlüsselt (z. B. codex-cli, my-cli). Die Provider-ID wird zur linken Seite Ihrer Modellreferenz:

<provider>/<model>

Beispielkonfiguration

{
  agents: {
    defaults: {
      cliBackends: {
        "codex-cli": {
          command: "/opt/homebrew/bin/codex",
        },
        "my-cli": {
          command: "my-cli",
          args: ["--json"],
          output: "json",
          input: "arg",
          modelArg: "--model",
          modelAliases: {
            "claude-opus-4-6": "opus",
            "claude-sonnet-4-6": "sonnet",
          },
          sessionArg: "--session",
          sessionMode: "existing",
          sessionIdFields: ["session_id", "conversation_id"],
          systemPromptArg: "--system",
          // For CLIs with a dedicated prompt-file flag:
          // systemPromptFileArg: "--system-file",
          // Codex-style CLIs can point at a prompt file instead:
          // systemPromptFileConfigArg: "-c",
          // systemPromptFileConfigKey: "model_instructions_file",
          systemPromptWhen: "first",
          imageArg: "--image",
          imageMode: "repeat",
          serialize: true,
        },
      },
    },
  },
}

Funktionsweise

  1. Wählt ein Backend aus basierend auf dem Provider-Präfix (codex-cli/...).
  2. Erstellt einen System-Prompt mit demselben OpenClaw-Prompt und Workspace-Kontext.
  3. Führt die CLI aus mit einer Sitzungs-ID (falls unterstützt), damit der Verlauf konsistent bleibt. Das gebündelte claude-cli-Backend hält pro OpenClaw-Sitzung einen Claude-stdio-Prozess am Leben und sendet Folgeturns über stream-json-stdin.
  4. Parst die Ausgabe (JSON oder Klartext) und gibt den finalen Text zurück.
  5. Persistiert Sitzungs-IDs pro Backend, damit Folgeturns dieselbe CLI-Sitzung wiederverwenden.

Das gebündelte OpenAI-Backend codex-cli übergibt den System-Prompt von OpenClaw über Codexs model_instructions_file-Konfigurationsüberschreibung (-c model_instructions_file="..."). Codex stellt kein Claude-ähnliches --append-system-prompt-Flag bereit, daher schreibt OpenClaw den zusammengesetzten Prompt für jede neue Codex CLI-Sitzung in eine temporäre Datei.

Das gebündelte Anthropic-Backend claude-cli erhält den OpenClaw-Skills-Snapshot auf zwei Wegen: den kompakten OpenClaw-Skills-Katalog im angehängten System-Prompt und ein temporäres Claude Code-Plugin, das mit --plugin-dir übergeben wird. Das Plugin enthält nur die zulässigen Skills für diesen Agenten/diese Sitzung, sodass Claude Codes nativer Skill-Resolver dieselbe gefilterte Menge sieht, die OpenClaw andernfalls im Prompt bewerben würde. Skill-Env-/API-Schlüssel-Überschreibungen werden weiterhin von OpenClaw auf die Kindprozessumgebung für den Lauf angewendet.

Claude CLI hat außerdem einen eigenen nicht interaktiven Berechtigungsmodus. OpenClaw bildet diesen auf die bestehende Exec-Richtlinie ab, statt Claude-spezifische Konfiguration hinzuzufügen: Wenn die effektiv angeforderte Exec-Richtlinie YOLO ist (tools.exec.security: "full" und tools.exec.ask: "off"), fügt OpenClaw --permission-mode bypassPermissions hinzu. Agentenspezifische agents.list[].tools.exec-Einstellungen überschreiben globale tools.exec für diesen Agenten. Um einen anderen Claude-Modus zu erzwingen, setzen Sie explizite rohe Backend-Argumente wie --permission-mode default oder --permission-mode acceptEdits unter agents.defaults.cliBackends.claude-cli.args und passende resumeArgs.

Das gebündelte Anthropic-Backend claude-cli bildet außerdem OpenClaw-/think-Stufen für nicht deaktivierte Stufen auf Claude Codes natives --effort-Flag ab. minimal und low werden auf low abgebildet, adaptive und medium auf medium, und high, xhigh und max werden direkt abgebildet. Andere CLI-Backends benötigen ihr zugehöriges Plugin, um einen äquivalenten argv-Mapper zu deklarieren, bevor /think die gestartete CLI beeinflussen kann.

Bevor OpenClaw das gebündelte claude-cli-Backend verwenden kann, muss Claude Code selbst bereits auf demselben Host angemeldet sein:

claude auth login
claude auth status --text
openclaw models auth login --provider anthropic --method cli --set-default

Verwenden Sie agents.defaults.cliBackends.claude-cli.command nur, wenn das claude- Binary nicht bereits in PATH liegt.

Sitzungen

  • Wenn die CLI Sitzungen unterstützt, setzen Sie sessionArg (z. B. --session-id) oder sessionArgs (Platzhalter {sessionId}), wenn die ID in mehrere Flags eingefügt werden muss.
  • Wenn die CLI einen Resume-Unterbefehl mit anderen Flags verwendet, setzen Sie resumeArgs (ersetzt args beim Fortsetzen) und optional resumeOutput (für Nicht-JSON-Resume-Vorgänge).
  • sessionMode:
    • always: immer eine Sitzungs-ID senden (neue UUID, wenn keine gespeichert ist).
    • existing: nur dann eine Sitzungs-ID senden, wenn zuvor eine gespeichert wurde.
    • none: niemals eine Sitzungs-ID senden.
  • claude-cli verwendet standardmäßig liveSession: "claude-stdio", output: "jsonl" und input: "stdin", sodass Folgeturns den laufenden Claude-Prozess wiederverwenden, solange er aktiv ist. Warmes stdio ist jetzt der Standard, auch für benutzerdefinierte Konfigurationen, die Transportfelder auslassen. Wenn das Gateway neu startet oder der inaktive Prozess beendet wird, setzt OpenClaw anhand der gespeicherten Claude-Sitzungs-ID fort. Gespeicherte Sitzungs- IDs werden vor dem Fortsetzen gegen ein vorhandenes lesbares Projekttranskript geprüft, sodass Phantom-Bindungen mit reason=transcript-missing bereinigt werden, statt stillschweigend eine neue Claude CLI-Sitzung unter --resume zu starten.
  • Claude-Live-Sitzungen behalten begrenzte JSONL-Ausgabeschutzmechanismen. Standardwerte erlauben bis zu 8 MiB und 20.000 rohe JSONL-Zeilen pro Turn. Tool-intensive Claude-Turns können diese pro Backend mit agents.defaults.cliBackends.claude-cli.reliability.outputLimits.maxTurnRawChars und maxTurnLines erhöhen; OpenClaw begrenzt diese Einstellungen auf 64 MiB und 100.000 Zeilen.
  • Gespeicherte CLI-Sitzungen sind Provider-eigene Kontinuität. Der implizite tägliche Sitzungs- Reset unterbricht sie nicht; /reset und explizite session.reset-Richtlinien tun dies weiterhin.

Serialisierungshinweise:

  • serialize: true hält Läufe derselben Lane in Reihenfolge.
  • Die meisten CLIs serialisieren auf einer Provider-Lane.
  • OpenClaw verwirft die Wiederverwendung gespeicherter CLI-Sitzungen, wenn sich die ausgewählte Authentifizierungsidentität ändert, einschließlich einer geänderten Auth-Profil-ID, eines statischen API-Schlüssels, eines statischen Tokens oder einer OAuth- Kontoidentität, wenn die CLI eine bereitstellt. OAuth-Zugriffs- und Refresh-Token- Rotation unterbricht die gespeicherte CLI-Sitzung nicht. Wenn eine CLI keine stabile OAuth-Konto-ID bereitstellt, lässt OpenClaw diese CLI die Resume-Berechtigungen durchsetzen.

Fallback-Präludium aus claude-cli-Sitzungen

Wenn ein claude-cli-Versuch auf einen Nicht-CLI-Kandidaten in agents.defaults.model.fallbacks übergeht, versieht OpenClaw den nächsten Versuch mit einem Kontext-Präludium, das aus Claude Codes lokalem JSONL-Transkript unter ~/.claude/projects/ gewonnen wurde. Ohne diesen Seed würde der Fallback- Provider kalt starten, weil OpenClaws eigenes Sitzungstranskript für claude-cli-Läufe leer ist.

  • Das Präludium bevorzugt die neueste /compact-Zusammenfassung oder den compact_boundary- Marker und hängt dann die jüngsten Turns nach der Grenze bis zu einem Zeichen- Budget an. Turns vor der Grenze werden verworfen, weil die Zusammenfassung sie bereits repräsentiert.
  • Tool-Blöcke werden zu kompakten (tool call: name)- und (tool result: …)-Hinweisen zusammengeführt, um das Prompt-Budget realistisch zu halten. Die Zusammenfassung wird als (truncated) gekennzeichnet, wenn sie überläuft.
  • Same-Provider-Fallbacks von claude-cli zu claude-cli verlassen sich auf Claudes eigenes --resume und überspringen das Präludium.
  • Der Seed verwendet die bestehende Claude-Sitzungsdateipfad-Validierung erneut, sodass beliebige Pfade nicht gelesen werden können.

Bilder (Durchreichen)

Wenn Ihre CLI Bildpfade akzeptiert, setzen Sie imageArg:

imageArg: "--image",
imageMode: "repeat"

OpenClaw schreibt Base64-Bilder in temporäre Dateien. Wenn imageArg gesetzt ist, werden diese Pfade als CLI-Argumente übergeben. Wenn imageArg fehlt, hängt OpenClaw die Dateipfade an den Prompt an (Pfadinjektion), was für CLIs ausreicht, die lokale Dateien automatisch aus Klartextpfaden laden.

Eingaben / Ausgaben

  • output: "json" (Standard) versucht, JSON zu parsen und Text + Sitzungs-ID zu extrahieren.
  • Für Gemini CLI-JSON-Ausgabe liest OpenClaw Antworttext aus response und Nutzungsdaten aus stats, wenn usage fehlt oder leer ist.
  • output: "jsonl" parst JSONL-Streams (zum Beispiel Codex CLI --json) und extrahiert die finale Agentenantwort sowie Sitzungs- Kennungen, wenn vorhanden.
  • output: "text" behandelt stdout als finale Antwort.

Eingabemodi:

  • input: "arg" (Standard) übergibt den Prompt als letztes CLI-Argument.
  • input: "stdin" sendet den Prompt über stdin.
  • Wenn der Prompt sehr lang ist und maxPromptArgChars gesetzt ist, wird stdin verwendet.

Standards (Plugin-eigen)

Das gebündelte OpenAI-Plugin registriert außerdem einen Standard für codex-cli:

  • command: "codex"
  • args: ["exec","--json","--color","never","--sandbox","workspace-write","--skip-git-repo-check"]
  • resumeArgs: ["exec","resume","{sessionId}","-c","sandbox_mode=\"workspace-write\"","--skip-git-repo-check"]
  • output: "jsonl"
  • resumeOutput: "text"
  • modelArg: "--model"
  • imageArg: "--image"
  • sessionMode: "existing"

Das gebündelte Google-Plugin registriert außerdem einen Standard für google-gemini-cli:

  • command: "gemini"
  • args: ["--output-format", "json", "--prompt", "{prompt}"]
  • resumeArgs: ["--resume", "{sessionId}", "--output-format", "json", "--prompt", "{prompt}"]
  • imageArg: "@"
  • imagePathScope: "workspace"
  • modelArg: "--model"
  • sessionMode: "existing"
  • sessionIdFields: ["session_id", "sessionId"]

Voraussetzung: Die lokale Gemini CLI muss installiert und als gemini in PATH verfügbar sein (brew install gemini-cli oder npm install -g @google/gemini-cli).

Hinweise zu Gemini CLI JSON:

  • Antworttext wird aus dem JSON-Feld response gelesen.
  • Die Nutzung fällt auf stats zurück, wenn usage fehlt oder leer ist.
  • stats.cached wird in OpenClaw cacheRead normalisiert.
  • Wenn stats.input fehlt, leitet OpenClaw Eingabe-Token aus stats.input_tokens - stats.cached ab.

Nur bei Bedarf überschreiben (häufig: absoluter command-Pfad).

Plugin-eigene Standardwerte

Standardwerte für CLI-Backends sind jetzt Teil der Plugin-Oberfläche:

  • Plugins registrieren sie mit api.registerCliBackend(...).
  • Die Backend-id wird zum Provider-Präfix in Modellreferenzen.
  • Benutzerkonfiguration in agents.defaults.cliBackends.<id> überschreibt weiterhin den Plugin-Standardwert.
  • Backend-spezifische Konfigurationsbereinigung bleibt über den optionalen normalizeConfig-Hook Plugin-eigen.

Plugins, die kleine Kompatibilitäts-Shims für Prompts/Nachrichten benötigen, können bidirektionale Texttransformationen deklarieren, ohne einen Provider oder ein CLI-Backend zu ersetzen:

api.registerTextTransforms({
  input: [
    { from: /red basket/g, to: "blue basket" },
    { from: /paper ticket/g, to: "digital ticket" },
    { from: /left shelf/g, to: "right shelf" },
  ],
  output: [
    { from: /blue basket/g, to: "red basket" },
    { from: /digital ticket/g, to: "paper ticket" },
    { from: /right shelf/g, to: "left shelf" },
  ],
});

input schreibt den System-Prompt und Benutzer-Prompt um, die an die CLI übergeben werden. output schreibt gestreamte Assistant-Deltas und geparsten finalen Text um, bevor OpenClaw seine eigenen Kontrollmarker und die Kanalzustellung verarbeitet.

Für CLIs, die mit Claude Code stream-json kompatibles JSONL ausgeben, setzen Sie jsonlDialect: "claude-stream-json" in der Konfiguration dieses Backends.

Bundle-MCP-Overlays

CLI-Backends erhalten OpenClaw-Toolaufrufe nicht direkt, aber ein Backend kann mit bundleMcp: true ein generiertes MCP-Konfigurations-Overlay aktivieren.

Aktuelles gebündeltes Verhalten:

  • claude-cli: generierte strikte MCP-Konfigurationsdatei
  • codex-cli: Inline-Konfigurationsüberschreibungen für mcp_servers; der generierte OpenClaw-Loopback-Server wird mit Codex' Tool-Genehmigungsmodus pro Server markiert, damit MCP-Aufrufe nicht durch lokale Genehmigungsaufforderungen blockiert werden können
  • google-gemini-cli: generierte Gemini-Systemeinstellungsdatei

Wenn Bundle-MCP aktiviert ist, führt OpenClaw Folgendes aus:

  • startet einen loopback-HTTP-MCP-Server, der Gateway-Tools für den CLI-Prozess bereitstellt
  • authentifiziert die Bridge mit einem Token pro Sitzung (OPENCLAW_MCP_TOKEN)
  • beschränkt Toolzugriff auf die aktuelle Sitzung, das Konto und den Kanalkontext
  • lädt aktivierte Bundle-MCP-Server für den aktuellen Arbeitsbereich
  • führt sie mit vorhandenen MCP-Konfigurations-/Einstellungsstrukturen des Backends zusammen
  • schreibt die Startkonfiguration mit dem Backend-eigenen Integrationsmodus aus der besitzenden Erweiterung um

Wenn keine MCP-Server aktiviert sind, injiziert OpenClaw trotzdem eine strikte Konfiguration, wenn ein Backend Bundle-MCP aktiviert, damit Hintergrundläufe isoliert bleiben.

Sitzungsbezogene gebündelte MCP-Runtimes werden zur Wiederverwendung innerhalb einer Sitzung zwischengespeichert und dann nach mcp.sessionIdleTtlMs Millisekunden Leerlaufzeit entfernt (Standard: 10 Minuten; setzen Sie 0, um dies zu deaktivieren). Eingebettete Einmal-Läufe wie Authentifizierungsprüfungen, Slug-Generierung und Active-Memory-Abruf fordern am Laufende Bereinigung an, damit stdio- Unterprozesse und Streamable-HTTP/SSE-Streams nicht über den Lauf hinaus bestehen bleiben.

Einschränkungen

  • Keine direkten OpenClaw-Toolaufrufe. OpenClaw injiziert keine Toolaufrufe in das CLI-Backend-Protokoll. Backends sehen Gateway-Tools nur, wenn sie bundleMcp: true aktivieren.
  • Streaming ist Backend-spezifisch. Einige Backends streamen JSONL; andere puffern bis zum Beenden.
  • Strukturierte Ausgaben hängen vom JSON-Format der CLI ab.
  • Codex CLI-Sitzungen werden über Textausgabe fortgesetzt (kein JSONL), was weniger strukturiert ist als der anfängliche --json-Lauf. OpenClaw-Sitzungen funktionieren weiterhin normal.

Fehlerbehebung

  • CLI nicht gefunden: Setzen Sie command auf einen vollständigen Pfad.
  • Falscher Modellname: Verwenden Sie modelAliases, um provider/model → CLI-Modell zuzuordnen.
  • Keine Sitzungskontinuität: Stellen Sie sicher, dass sessionArg gesetzt ist und sessionMode nicht none ist (Codex CLI kann derzeit nicht mit JSON-Ausgabe fortgesetzt werden).
  • Bilder ignoriert: Setzen Sie imageArg (und prüfen Sie, ob die CLI Dateipfade unterstützt).

Verwandte Themen