Concepts and configuration

Modell-Provider

Referenz für LLM-/Modell-Provider (nicht Chat-Kanäle wie WhatsApp/Telegram). Regeln zur Modellauswahl finden Sie unter Modelle.

Kurzregeln

Model refs and CLI helpers
  • Modellreferenzen verwenden provider/model (Beispiel: opencode/claude-opus-4-6).
  • agents.defaults.models fungiert als Allowlist, wenn es gesetzt ist.
  • CLI-Helfer: openclaw onboard, openclaw models list, openclaw models set <provider/model>.
  • models.providers.*.contextWindow / contextTokens / maxTokens setzen Defaults auf Provider-Ebene; models.providers.*.models[].contextWindow / contextTokens / maxTokens überschreiben sie pro Modell.
  • Fallback-Regeln, Cooldown-Probes und Persistenz von Sitzungsüberschreibungen: Modell-Failover.
Adding provider auth does not change your primary model

openclaw configure behält ein vorhandenes agents.defaults.model.primary bei, wenn Sie einen Provider hinzufügen oder erneut authentifizieren. Provider-Plugins können in ihrem Auth-Konfigurationspatch weiterhin ein empfohlenes Default-Modell zurückgeben, aber configure behandelt dies als „dieses Modell verfügbar machen“, wenn bereits ein primäres Modell existiert, nicht als „das aktuelle primäre Modell ersetzen“.

Um das Default-Modell absichtlich zu wechseln, verwenden Sie openclaw models set <provider/model> oder openclaw models auth login --provider <id> --set-default.

OpenAI provider/runtime split

Routen der OpenAI-Familie sind präfixspezifisch:

  • openai/<model> plus agents.defaults.agentRuntime.id: "codex" verwendet den nativen Codex App-Server-Harness. Dies ist die übliche Einrichtung für ChatGPT-/Codex-Abonnements.
  • openai-codex/<model> verwendet Codex OAuth in PI.
  • openai/<model> ohne Codex-Runtime-Override verwendet den direkten OpenAI-API-Schlüssel-Provider in PI.

Siehe OpenAI und Codex-Harness. Wenn die Trennung zwischen Provider und Runtime verwirrend ist, lesen Sie zuerst Agent-Runtimes.

Die automatische Aktivierung von Plugins folgt derselben Grenze: openai-codex/<model> gehört zum OpenAI-Plugin, während das Codex-Plugin durch agentRuntime.id: "codex" oder ältere codex/<model>-Referenzen aktiviert wird.

GPT-5.5 ist über den nativen Codex App-Server-Harness verfügbar, wenn agentRuntime.id: "codex" gesetzt ist, über openai-codex/gpt-5.5 in PI für Codex OAuth und über openai/gpt-5.5 in PI für direkten API-Schlüssel-Traffic, wenn Ihr Konto dies bereitstellt.

CLI runtimes

CLI-Runtimes verwenden dieselbe Trennung: Wählen Sie kanonische Modellreferenzen wie anthropic/claude-*, google/gemini-* oder openai/gpt-* und setzen Sie dann agents.defaults.agentRuntime.id auf claude-cli, google-gemini-cli oder codex-cli, wenn Sie ein lokales CLI-Backend verwenden möchten.

Ältere claude-cli/*-, google-gemini-cli/*- und codex-cli/*-Referenzen werden wieder zu kanonischen Provider-Referenzen migriert, wobei die Runtime separat gespeichert wird.

Plugin-eigenes Provider-Verhalten

Die meiste Provider-spezifische Logik befindet sich in Provider-Plugins (registerProvider(...)), während OpenClaw die generische Inferenzschleife beibehält. Plugins besitzen Onboarding, Modellkataloge, Auth-Umgebungsvariablen-Mapping, Transport-/Konfigurationsnormalisierung, Tool-Schema-Bereinigung, Failover-Klassifizierung, OAuth-Aktualisierung, Nutzungsberichte, Denk-/Reasoning-Profile und mehr.

Die vollständige Liste der Provider-SDK-Hooks und Beispiele für gebündelte Plugins finden Sie unter Provider-Plugins. Ein Provider, der einen vollständig benutzerdefinierten Request-Executor benötigt, ist eine separate, tiefere Erweiterungsfläche.

API-Schlüsselrotation

Key sources and priority

Konfigurieren Sie mehrere Schlüssel über:

  • OPENCLAW_LIVE_&lt;PROVIDER&gt;_KEY (einzelner Live-Override, höchste Priorität)
  • &lt;PROVIDER&gt;_API_KEYS (durch Kommas oder Semikolons getrennte Liste)
  • &lt;PROVIDER&gt;_API_KEY (primärer Schlüssel)
  • &lt;PROVIDER&gt;_API_KEY_* (nummerierte Liste, z. B. &lt;PROVIDER&gt;_API_KEY_1)

Für Google-Provider wird GOOGLE_API_KEY ebenfalls als Fallback einbezogen. Die Reihenfolge der Schlüsselauswahl bewahrt die Priorität und dedupliziert Werte.

When rotation kicks in
  • Requests werden nur bei Rate-Limit-Antworten mit dem nächsten Schlüssel wiederholt (zum Beispiel 429, rate_limit, quota, resource exhausted, Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded oder regelmäßige Nutzungslimitmeldungen).
  • Fehler, die keine Rate-Limits sind, schlagen sofort fehl; es wird keine Schlüsselrotation versucht.
  • Wenn alle Kandidatenschlüssel fehlschlagen, wird der finale Fehler aus dem letzten Versuch zurückgegeben.

Integrierte Provider (pi-ai-Katalog)

OpenClaw wird mit dem pi-ai-Katalog ausgeliefert. Diese Provider benötigen keine models.providers-Konfiguration; setzen Sie einfach Authentifizierung und wählen Sie ein Modell.

OpenAI

  • Provider: openai
  • Authentifizierung: OPENAI_API_KEY
  • Optionale Rotation: OPENAI_API_KEYS, OPENAI_API_KEY_1, OPENAI_API_KEY_2, plus OPENCLAW_LIVE_OPENAI_KEY (einzelner Override)
  • Beispielmodelle: openai/gpt-5.5, openai/gpt-5.4-mini
  • Prüfen Sie Konto-/Modellverfügbarkeit mit openclaw models list --provider openai, wenn eine bestimmte Installation oder ein API-Schlüssel sich anders verhält.
  • CLI: openclaw onboard --auth-choice openai-api-key
  • Der Default-Transport ist auto (WebSocket zuerst, SSE-Fallback)
  • Pro Modell über agents.defaults.models["openai/<model>"].params.transport überschreiben ("sse", "websocket" oder "auto")
  • OpenAI Responses WebSocket-Warm-up ist standardmäßig über params.openaiWsWarmup aktiviert (true/false)
  • OpenAI-Prioritätsverarbeitung kann über agents.defaults.models["openai/<model>"].params.serviceTier aktiviert werden
  • /fast und params.fastMode mappen direkte openai/*-Responses-Requests auf service_tier=priority auf api.openai.com
  • Verwenden Sie params.serviceTier, wenn Sie statt des gemeinsamen /fast-Toggles eine explizite Stufe möchten
  • Verborgene OpenClaw-Attributionsheader (originator, version, User-Agent) gelten nur für nativen OpenAI-Traffic zu api.openai.com, nicht für generische OpenAI-kompatible Proxys
  • Native OpenAI-Routen behalten außerdem Responses store, Prompt-Cache-Hinweise und OpenAI-Reasoning-Kompatibilitäts-Payload-Formung bei; Proxy-Routen tun dies nicht
  • openai/gpt-5.3-codex-spark wird in OpenClaw absichtlich unterdrückt, weil Live-OpenAI-API-Requests es ablehnen und der aktuelle Codex-Katalog es nicht bereitstellt
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • Provider: anthropic
  • Authentifizierung: ANTHROPIC_API_KEY
  • Optionale Rotation: ANTHROPIC_API_KEYS, ANTHROPIC_API_KEY_1, ANTHROPIC_API_KEY_2, plus OPENCLAW_LIVE_ANTHROPIC_KEY (einzelner Override)
  • Beispielmodell: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice apiKey
  • Direkte öffentliche Anthropic-Requests unterstützen den gemeinsamen /fast-Toggle und params.fastMode, einschließlich API-Schlüssel- und OAuth-authentifiziertem Traffic an api.anthropic.com; OpenClaw mappt dies auf Anthropic service_tier (auto vs. standard_only)
  • Die bevorzugte Claude-CLI-Konfiguration behält die Modellreferenz kanonisch und wählt das CLI-Backend separat: anthropic/claude-opus-4-7 mit agents.defaults.agentRuntime.id: "claude-cli". Ältere claude-cli/claude-opus-4-7-Referenzen funktionieren aus Kompatibilitätsgründen weiterhin.
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex OAuth

  • Provider: openai-codex
  • Authentifizierung: OAuth (ChatGPT)
  • PI-Modellreferenz: openai-codex/gpt-5.5
  • Native Codex App-Server-Harness-Referenz: openai/gpt-5.5 mit agents.defaults.agentRuntime.id: "codex"
  • Dokumentation zum nativen Codex App-Server-Harness: Codex-Harness
  • Ältere Modellreferenzen: codex/gpt-*
  • Plugin-Grenze: openai-codex/* lädt das OpenAI-Plugin; das native Codex App-Server-Plugin wird nur durch die Codex-Harness-Runtime oder ältere codex/*-Referenzen ausgewählt.
  • CLI: openclaw onboard --auth-choice openai-codex oder openclaw models auth login --provider openai-codex
  • Der Default-Transport ist auto (WebSocket zuerst, SSE-Fallback)
  • Pro PI-Modell über agents.defaults.models["openai-codex/<model>"].params.transport überschreiben ("sse", "websocket" oder "auto")
  • params.serviceTier wird auch bei nativen Codex-Responses-Requests weitergeleitet (chatgpt.com/backend-api)
  • Verborgene OpenClaw-Attributionsheader (originator, version, User-Agent) werden nur bei nativem Codex-Traffic zu chatgpt.com/backend-api angehängt, nicht bei generischen OpenAI-kompatiblen Proxys
  • Teilt dieselbe /fast-Toggle- und params.fastMode-Konfiguration wie direktes openai/*; OpenClaw mappt dies auf service_tier=priority
  • openai-codex/gpt-5.5 verwendet den nativen contextWindow = 400000 des Codex-Katalogs und die Default-Runtime contextTokens = 272000; überschreiben Sie die Runtime-Obergrenze mit models.providers.openai-codex.models[].contextTokens
  • Richtlinienhinweis: OpenAI Codex OAuth wird ausdrücklich für externe Tools/Workflows wie OpenClaw unterstützt.
  • Für die gängige Route aus Abonnement plus nativer Codex-Runtime melden Sie sich mit openai-codex-Authentifizierung an, konfigurieren aber openai/gpt-5.5 plus agents.defaults.agentRuntime.id: "codex".
  • Verwenden Sie openai-codex/gpt-5.5 nur, wenn Sie die Codex-OAuth-/Abonnementroute über PI möchten; verwenden Sie openai/gpt-5.5 ohne Codex-Runtime-Override, wenn Ihre API-Schlüssel-Einrichtung und Ihr lokaler Katalog die öffentliche API-Route bereitstellen.
  • Ältere openai-codex/gpt-5.1*-, openai-codex/gpt-5.2*- und openai-codex/gpt-5.3*-Referenzen werden unterdrückt, weil ChatGPT-/Codex-OAuth-Konten sie ablehnen; verwenden Sie stattdessen openai-codex/gpt-5.5 oder die native Codex-Runtime-Route.
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

Weitere gehostete Optionen im Abonnementstil

OpenCode

  • Authentifizierung: OPENCODE_API_KEY (oder OPENCODE_ZEN_API_KEY)
  • Zen-Runtime-Provider: opencode
  • Go-Runtime-Provider: opencode-go
  • Beispielmodelle: opencode/claude-opus-4-6, opencode-go/kimi-k2.6
  • CLI: openclaw onboard --auth-choice opencode-zen oder openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (API-Schlüssel)

  • Provider: google
  • Authentifizierung: GEMINI_API_KEY
  • Optionale Rotation: GEMINI_API_KEYS, GEMINI_API_KEY_1, GEMINI_API_KEY_2, GOOGLE_API_KEY-Fallback und OPENCLAW_LIVE_GEMINI_KEY (einzelne Überschreibung)
  • Beispielmodelle: google/gemini-3.1-pro-preview, google/gemini-3-flash-preview
  • Kompatibilität: Legacy-OpenClaw-Konfigurationen mit google/gemini-3.1-flash-preview werden zu google/gemini-3-flash-preview normalisiert
  • Alias: google/gemini-3.1-pro wird akzeptiert und zu Googles Live-Gemini-API-ID google/gemini-3.1-pro-preview normalisiert
  • CLI: openclaw onboard --auth-choice gemini-api-key
  • Denken: /think adaptive verwendet dynamisches Denken von Google. Gemini 3/3.1 lassen ein festes thinkingLevel weg; Gemini 2.5 sendet thinkingBudget: -1.
  • Direkte Gemini-Ausführungen akzeptieren außerdem agents.defaults.models["google/<model>"].params.cachedContent (oder das Legacy-cached_content), um ein provider-natives cachedContents/...-Handle weiterzuleiten; Gemini-Cache-Treffer erscheinen als OpenClaw-cacheRead

Google Vertex und Gemini CLI

  • Provider: google-vertex, google-gemini-cli
  • Authentifizierung: Vertex verwendet gcloud ADC; Gemini CLI verwendet seinen OAuth-Ablauf

Gemini-CLI-OAuth wird als Teil des gebündelten google-Plugins ausgeliefert.

  • Gemini CLI installieren

    brew

    brew install gemini-cli
    

    npm

    npm install -g @google/gemini-cli
    
  • Plugin aktivieren

    openclaw plugins enable google
    
  • Anmelden

    openclaw models auth login --provider google-gemini-cli --set-default
    

    Standardmodell: google-gemini-cli/gemini-3-flash-preview. Sie fügen keine Client-ID und kein Secret in openclaw.json ein. Der CLI-Anmeldeablauf speichert Tokens in Authentifizierungsprofilen auf dem Gateway-Host.

  • Projekt festlegen (falls erforderlich)

    Wenn Anfragen nach der Anmeldung fehlschlagen, setzen Sie GOOGLE_CLOUD_PROJECT oder GOOGLE_CLOUD_PROJECT_ID auf dem Gateway-Host.

  • Gemini-CLI-JSON-Antworten werden aus response geparst; die Nutzung fällt auf stats zurück, wobei stats.cached zu OpenClaw-cacheRead normalisiert wird.

    Z.AI (GLM)

    • Provider: zai
    • Authentifizierung: ZAI_API_KEY
    • Beispielmodell: zai/glm-5.1
    • CLI: openclaw onboard --auth-choice zai-api-key
      • Aliasse: z.ai/* und z-ai/* werden zu zai/* normalisiert
      • zai-api-key erkennt den passenden Z.AI-Endpunkt automatisch; zai-coding-global, zai-coding-cn, zai-global und zai-cn erzwingen eine bestimmte Oberfläche

    Vercel AI Gateway

    • Provider: vercel-ai-gateway
    • Authentifizierung: AI_GATEWAY_API_KEY
    • Beispielmodelle: vercel-ai-gateway/anthropic/claude-opus-4.6, vercel-ai-gateway/moonshotai/kimi-k2.6
    • CLI: openclaw onboard --auth-choice ai-gateway-api-key

    Kilo Gateway

    • Provider: kilocode
    • Authentifizierung: KILOCODE_API_KEY
    • Beispielmodell: kilocode/kilo/auto
    • CLI: openclaw onboard --auth-choice kilocode-api-key
    • Basis-URL: https://api.kilo.ai/api/gateway/
    • Der statische Fallback-Katalog liefert kilocode/kilo/auto; die Live-Erkennung über https://api.kilo.ai/api/gateway/models kann den Laufzeitkatalog weiter erweitern.
    • Das exakte Upstream-Routing hinter kilocode/kilo/auto liegt bei Kilo Gateway und ist nicht fest in OpenClaw codiert.

    Einrichtungsdetails finden Sie unter /providers/kilocode.

    Weitere gebündelte Provider-Plugins

    Provider ID Authentifizierungs-Env Beispielmodell
    BytePlus byteplus / byteplus-plan BYTEPLUS_API_KEY byteplus-plan/ark-code-latest
    Cerebras cerebras CEREBRAS_API_KEY cerebras/zai-glm-4.7
    Cloudflare AI Gateway cloudflare-ai-gateway CLOUDFLARE_AI_GATEWAY_API_KEY -
    DeepInfra deepinfra DEEPINFRA_API_KEY deepinfra/deepseek-ai/DeepSeek-V3.2
    DeepSeek deepseek DEEPSEEK_API_KEY deepseek/deepseek-v4-flash
    GitHub Copilot github-copilot COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN -
    Groq groq GROQ_API_KEY -
    Hugging Face Inference huggingface HUGGINGFACE_HUB_TOKEN oder HF_TOKEN huggingface/deepseek-ai/DeepSeek-R1
    Kilo Gateway kilocode KILOCODE_API_KEY kilocode/kilo/auto
    Kimi Coding kimi KIMI_API_KEY oder KIMICODE_API_KEY kimi/kimi-code
    MiniMax minimax / minimax-portal MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN minimax/MiniMax-M2.7
    Mistral mistral MISTRAL_API_KEY mistral/mistral-large-latest
    Moonshot moonshot MOONSHOT_API_KEY moonshot/kimi-k2.6
    NVIDIA nvidia NVIDIA_API_KEY nvidia/nvidia/nemotron-3-super-120b-a12b
    OpenRouter openrouter OPENROUTER_API_KEY openrouter/auto
    Qianfan qianfan QIANFAN_API_KEY qianfan/deepseek-v3.2
    Qwen Cloud qwen QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY qwen/qwen3.5-plus
    StepFun stepfun / stepfun-plan STEPFUN_API_KEY stepfun/step-3.5-flash
    Together together TOGETHER_API_KEY together/moonshotai/Kimi-K2.5
    Venice venice VENICE_API_KEY -
    Vercel AI Gateway vercel-ai-gateway AI_GATEWAY_API_KEY vercel-ai-gateway/anthropic/claude-opus-4.6
    Volcano Engine (Doubao) volcengine / volcengine-plan VOLCANO_ENGINE_API_KEY volcengine-plan/ark-code-latest
    xAI xai XAI_API_KEY xai/grok-4.3
    Xiaomi xiaomi XIAOMI_API_KEY xiaomi/mimo-v2-flash

    Wissenswerte Besonderheiten

    OpenRouter

    Wendet seine App-Attribution-Header und Anthropic-cache_control-Marker nur auf verifizierten openrouter.ai-Routen an. DeepSeek-, Moonshot- und ZAI-Refs sind für das von OpenRouter verwaltete Prompt-Caching Cache-TTL-berechtigt, erhalten aber keine Anthropic-Cache-Marker. Als proxyartiger OpenAI-kompatibler Pfad überspringt er nur für native OpenAI geltende Anpassungen (serviceTier, Responses store, Prompt-Cache-Hinweise, OpenAI-Reasoning-Kompatibilität). Gemini-gestützte Refs behalten nur die Proxy-Gemini-Bereinigung von Gedankensignaturen bei.

    Kilo Gateway

    Gemini-gestützte Refs folgen demselben Proxy-Gemini-Bereinigungspfad; kilocode/kilo/auto und andere Refs ohne Proxy-Reasoning-Unterstützung überspringen die Proxy-Reasoning-Injektion.

    MiniMax

    API-Schlüssel-Onboarding schreibt explizite text-only M2.7-Chatmodelldefinitionen; Bildverständnis bleibt beim Plugin-eigenen MiniMax-VL-01-Medien-Provider.

    NVIDIA

    Modell-IDs verwenden einen nvidia/<vendor>/<model>-Namensraum (zum Beispiel nvidia/nvidia/nemotron-... neben nvidia/moonshotai/kimi-k2.5); Auswahloberflächen bewahren die wörtliche Zusammensetzung <provider>/<model-id>, während der an die API gesendete kanonische Schlüssel einfach präfixiert bleibt.

    xAI

    Verwendet den xAI-Responses-Pfad. grok-4.3 ist das gebündelte Standard-Chatmodell. /fast oder params.fastMode: true schreibt grok-3, grok-3-mini, grok-4 und grok-4-0709 auf ihre *-fast-Varianten um. tool_stream ist standardmäßig aktiviert; deaktivieren Sie es über agents.defaults.models["xai/<model>"].params.tool_stream=false.

    Cerebras

    Wird als gebündeltes cerebras-Provider-Plugin ausgeliefert. GLM verwendet zai-glm-4.7; die OpenAI-kompatible Basis-URL ist https://api.cerebras.ai/v1.

    Provider über models.providers (benutzerdefinierte/Basis-URL)

    Verwenden Sie models.providers (oder models.json), um benutzerdefinierte Provider oder OpenAI/Anthropic-kompatible Proxys hinzuzufügen.

    Viele der unten aufgeführten gebündelten Provider-Plugins veröffentlichen bereits einen Standardkatalog. Verwenden Sie explizite models.providers.<id>-Einträge nur, wenn Sie die Standard-Basis-URL, Header oder Modellliste überschreiben möchten.

    Gateway-Modellfähigkeitsprüfungen lesen außerdem explizite models.providers.<id>.models[]-Metadaten. Wenn ein benutzerdefiniertes oder Proxy-Modell Bilder akzeptiert, setzen Sie input: ["text", "image"] für dieses Modell, damit WebChat- und Node-Ursprungs-Anhangspfade Bilder als native Modelleingaben statt als reine Text-Medien-Refs übergeben.

    Moonshot AI (Kimi)

    Moonshot wird als gebündeltes Provider-Plugin ausgeliefert. Verwenden Sie standardmäßig den integrierten Provider und fügen Sie nur dann einen expliziten models.providers.moonshot-Eintrag hinzu, wenn Sie die Basis-URL oder Modellmetadaten überschreiben müssen:

    • Provider: moonshot
    • Authentifizierung: MOONSHOT_API_KEY
    • Beispielmodell: moonshot/kimi-k2.6
    • CLI: openclaw onboard --auth-choice moonshot-api-key oder openclaw onboard --auth-choice moonshot-api-key-cn

    Kimi-K2-Modell-IDs:

    • moonshot/kimi-k2.6
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
    • moonshot/kimi-k2-turbo
    {
      agents: {
        defaults: { model: { primary: "moonshot/kimi-k2.6" } },
      },
      models: {
        mode: "merge",
        providers: {
          moonshot: {
            baseUrl: "https://api.moonshot.ai/v1",
            apiKey: "${MOONSHOT_API_KEY}",
            api: "openai-completions",
            models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
          },
        },
      },
    }
    

    Kimi-Coding

    Kimi Coding verwendet den Anthropic-kompatiblen Endpunkt von Moonshot AI:

    • Provider: kimi
    • Authentifizierung: KIMI_API_KEY
    • Beispielmodell: kimi/kimi-code
    {
      env: { KIMI_API_KEY: "sk-..." },
      agents: {
        defaults: { model: { primary: "kimi/kimi-code" } },
      },
    }
    

    Legacy kimi/k2p5 wird weiterhin als Kompatibilitätsmodell-ID akzeptiert.

    Volcano Engine (Doubao)

    Volcano Engine (火山引擎) bietet Zugriff auf Doubao und andere Modelle in China.

    • Provider: volcengine (Coding: volcengine-plan)
    • Authentifizierung: VOLCANO_ENGINE_API_KEY
    • Beispielmodell: volcengine-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice volcengine-api-key
    {
      agents: {
        defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
      },
    }
    

    Onboarding verwendet standardmäßig die Coding-Oberfläche, aber der allgemeine volcengine/*-Katalog wird gleichzeitig registriert.

    In Modell-Auswahlfeldern beim Onboarding/Konfigurieren bevorzugt die Volcengine-Authentifizierungsoption sowohl volcengine/*- als auch volcengine-plan/*-Zeilen. Wenn diese Modelle noch nicht geladen sind, fällt OpenClaw auf den ungefilterten Katalog zurück, anstatt ein leeres Provider-spezifisches Auswahlfeld anzuzeigen.

    Standard models

    • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
    • volcengine/doubao-seed-code-preview-251028
    • volcengine/kimi-k2-5-260127 (Kimi K2.5)
    • volcengine/glm-4-7-251222 (GLM 4.7)
    • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

    Coding models (volcengine-plan)

    • volcengine-plan/ark-code-latest
    • volcengine-plan/doubao-seed-code
    • volcengine-plan/kimi-k2.5
    • volcengine-plan/kimi-k2-thinking
    • volcengine-plan/glm-4.7

    BytePlus (International)

    BytePlus ARK bietet internationalen Benutzern Zugriff auf dieselben Modelle wie Volcano Engine.

    • Provider: byteplus (Coding: byteplus-plan)
    • Authentifizierung: BYTEPLUS_API_KEY
    • Beispielmodell: byteplus-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice byteplus-api-key
    {
      agents: {
        defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
      },
    }
    

    Onboarding verwendet standardmäßig die Coding-Oberfläche, aber der allgemeine byteplus/*-Katalog wird gleichzeitig registriert.

    In Modell-Auswahlfeldern beim Onboarding/Konfigurieren bevorzugt die BytePlus-Authentifizierungsoption sowohl byteplus/*- als auch byteplus-plan/*-Zeilen. Wenn diese Modelle noch nicht geladen sind, fällt OpenClaw auf den ungefilterten Katalog zurück, anstatt ein leeres Provider-spezifisches Auswahlfeld anzuzeigen.

    Standard models

    • byteplus/seed-1-8-251228 (Seed 1.8)
    • byteplus/kimi-k2-5-260127 (Kimi K2.5)
    • byteplus/glm-4-7-251222 (GLM 4.7)

    Coding models (byteplus-plan)

    • byteplus-plan/ark-code-latest
    • byteplus-plan/doubao-seed-code
    • byteplus-plan/kimi-k2.5
    • byteplus-plan/kimi-k2-thinking
    • byteplus-plan/glm-4.7

    Synthetic

    Synthetic stellt Anthropic-kompatible Modelle hinter dem Provider synthetic bereit:

    • Provider: synthetic
    • Authentifizierung: SYNTHETIC_API_KEY
    • Beispielmodell: synthetic/hf:MiniMaxAI/MiniMax-M2.5
    • CLI: openclaw onboard --auth-choice synthetic-api-key
    {
      agents: {
        defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
      },
      models: {
        mode: "merge",
        providers: {
          synthetic: {
            baseUrl: "https://api.synthetic.new/anthropic",
            apiKey: "${SYNTHETIC_API_KEY}",
            api: "anthropic-messages",
            models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
          },
        },
      },
    }
    

    MiniMax

    MiniMax wird über models.providers konfiguriert, da es benutzerdefinierte Endpunkte verwendet:

    • MiniMax OAuth (Global): --auth-choice minimax-global-oauth
    • MiniMax OAuth (CN): --auth-choice minimax-cn-oauth
    • MiniMax API-Schlüssel (Global): --auth-choice minimax-global-api
    • MiniMax API-Schlüssel (CN): --auth-choice minimax-cn-api
    • Authentifizierung: MINIMAX_API_KEY für minimax; MINIMAX_OAUTH_TOKEN oder MINIMAX_API_KEY für minimax-portal

    Setup-Details, Modelloptionen und Konfigurationsausschnitte finden Sie unter /providers/minimax.

    Plugin-eigene Aufteilung der Fähigkeiten:

    • Text-/Chat-Standards bleiben auf minimax/MiniMax-M2.7
    • Bildgenerierung ist minimax/image-01 oder minimax-portal/image-01
    • Bildverständnis ist Plugin-eigenes MiniMax-VL-01 auf beiden MiniMax-Authentifizierungspfaden
    • Websuche bleibt auf der Provider-ID minimax

    LM Studio

    LM Studio wird als gebündeltes Provider-Plugin ausgeliefert, das die native API verwendet:

    • Provider: lmstudio
    • Authentifizierung: LM_API_TOKEN
    • Standard-Basis-URL für Inferenz: http://localhost:1234/v1

    Legen Sie dann ein Modell fest (ersetzen Sie es durch eine der von http://localhost:1234/api/v1/models zurückgegebenen IDs):

    {
      agents: {
        defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
      },
    }
    

    OpenClaw verwendet die nativen LM Studio-Endpunkte /api/v1/models und /api/v1/models/load für Discovery + automatisches Laden, standardmäßig mit /v1/chat/completions für Inferenz. Wenn Sie möchten, dass LM Studio JIT-Laden, TTL und automatische Verdrängung für den Modelllebenszyklus übernimmt, setzen Sie models.providers.lmstudio.params.preload: false. Setup und Fehlerbehebung finden Sie unter /providers/lmstudio.

    Ollama

    Ollama wird als gebündeltes Provider-Plugin ausgeliefert und verwendet Ollamas native API:

    • Provider: ollama
    • Authentifizierung: Nicht erforderlich (lokaler Server)
    • Beispielmodell: ollama/llama3.3
    • Installation: https://ollama.com/download
    # Install Ollama, then pull a model:
    ollama pull llama3.3
    
    {
      agents: {
        defaults: { model: { primary: "ollama/llama3.3" } },
      },
    }
    

    Ollama wird lokal unter http://127.0.0.1:11434 erkannt, wenn Sie es mit OLLAMA_API_KEY aktivieren, und das gebündelte Provider-Plugin fügt Ollama direkt zu openclaw onboard und der Modellauswahl hinzu. Onboarding, Cloud-/lokaler Modus und benutzerdefinierte Konfiguration finden Sie unter /providers/ollama.

    vLLM

    vLLM wird als gebündeltes Provider-Plugin für lokale/selbst gehostete OpenAI-kompatible Server ausgeliefert:

    • Provider: vllm
    • Authentifizierung: Optional (hängt von Ihrem Server ab)
    • Standard-Basis-URL: http://127.0.0.1:8000/v1

    Um lokale Auto-Discovery zu aktivieren (jeder Wert funktioniert, wenn Ihr Server keine Authentifizierung erzwingt):

    export VLLM_API_KEY="vllm-local"
    

    Legen Sie dann ein Modell fest (ersetzen Sie es durch eine der von /v1/models zurückgegebenen IDs):

    {
      agents: {
        defaults: { model: { primary: "vllm/your-model-id" } },
      },
    }
    

    Weitere Details finden Sie unter /providers/vllm.

    SGLang

    SGLang wird als gebündeltes Provider-Plugin für schnelle selbst gehostete OpenAI-kompatible Server ausgeliefert:

    • Provider: sglang
    • Authentifizierung: Optional (hängt von Ihrem Server ab)
    • Standard-Basis-URL: http://127.0.0.1:30000/v1

    Um lokale Auto-Discovery zu aktivieren (jeder Wert funktioniert, wenn Ihr Server keine Authentifizierung erzwingt):

    export SGLANG_API_KEY="sglang-local"
    

    Legen Sie dann ein Modell fest (ersetzen Sie es durch eine der von /v1/models zurückgegebenen IDs):

    {
      agents: {
        defaults: { model: { primary: "sglang/your-model-id" } },
      },
    }
    

    Weitere Details finden Sie unter /providers/sglang.

    Lokale Proxys (LM Studio, vLLM, LiteLLM usw.)

    Beispiel (OpenAI-kompatibel):

    {
      agents: {
        defaults: {
          model: { primary: "lmstudio/my-local-model" },
          models: { "lmstudio/my-local-model": { alias: "Local" } },
        },
      },
      models: {
        providers: {
          lmstudio: {
            baseUrl: "http://localhost:1234/v1",
            apiKey: "${LM_API_TOKEN}",
            api: "openai-completions",
            timeoutSeconds: 300,
            models: [
              {
                id: "my-local-model",
                name: "Local Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 200000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    
    Default optional fields

    Für benutzerdefinierte Provider sind reasoning, input, cost, contextWindow und maxTokens optional. Wenn sie weggelassen werden, verwendet OpenClaw standardmäßig:

    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192

    Empfohlen: Legen Sie explizite Werte fest, die zu den Limits Ihres Proxys/Modells passen.

    Proxy-route shaping rules
    • Für api: "openai-completions" auf nicht nativen Endpunkten (jede nicht leere baseUrl, deren Host nicht api.openai.com ist) erzwingt OpenClaw compat.supportsDeveloperRole: false, um Provider-400-Fehler für nicht unterstützte developer-Rollen zu vermeiden.
    • Proxy-artige OpenAI-kompatible Routen überspringen außerdem nur für natives OpenAI geltende Request-Anpassungen: kein service_tier, kein Responses-store, kein Completions-store, keine Prompt-Cache-Hinweise, keine OpenAI-Reasoning-Kompatibilitäts-Payload-Anpassung und keine verborgenen OpenClaw-Attributions-Header.
    • Für OpenAI-kompatible Completions-Proxys, die anbieterspezifische Felder benötigen, setzen Sie agents.defaults.models["provider/model"].params.extra_body (oder extraBody), um zusätzliches JSON in den ausgehenden Request-Body zu mergen.
    • Für vLLM-Chat-Template-Steuerungen setzen Sie agents.defaults.models["provider/model"].params.chat_template_kwargs. Das gebündelte vLLM-Plugin sendet automatisch enable_thinking: false und force_nonempty_content: true für vllm/nemotron-3-*, wenn die Thinking-Stufe der Sitzung deaktiviert ist.
    • Für langsame lokale Modelle oder entfernte LAN-/Tailnet-Hosts setzen Sie models.providers.<id>.timeoutSeconds. Dies erweitert die HTTP-Request-Verarbeitung des Provider-Modells, einschließlich Verbindung, Headern, Body-Streaming und dem gesamten abgesicherten Fetch-Abbruch, ohne das Laufzeit-Timeout des gesamten Agenten zu erhöhen.
    • HTTP-Aufrufe des Modell-Providers erlauben Surge-, Clash- und sing-box-Fake-IP-DNS-Antworten in 198.18.0.0/15 und fc00::/7 nur für den konfigurierten baseUrl-Hostnamen des Providers. Andere private, loopback-, link-local- und Metadaten-Ziele erfordern weiterhin eine explizite Aktivierung mit models.providers.<id>.request.allowPrivateNetwork: true.
    • Wenn baseUrl leer ist oder weggelassen wird, behält OpenClaw das Standardverhalten von OpenAI bei (das zu api.openai.com auflöst).
    • Aus Sicherheitsgründen wird ein explizites compat.supportsDeveloperRole: true auf nicht nativen openai-completions-Endpunkten weiterhin überschrieben.
    • Für api: "anthropic-messages" auf nicht direkten Endpunkten (jeder Provider außer dem kanonischen anthropic oder eine benutzerdefinierte models.providers.anthropic.baseUrl, deren Host kein öffentlicher api.anthropic.com-Endpunkt ist) unterdrückt OpenClaw implizite Anthropic-Beta-Header wie claude-code-20250219, interleaved-thinking-2025-05-14 und OAuth-Marker, damit benutzerdefinierte Anthropic-kompatible Proxys nicht unterstützte Beta-Flags nicht ablehnen. Setzen Sie models.providers.<id>.headers["anthropic-beta"] explizit, wenn Ihr Proxy bestimmte Beta-Funktionen benötigt.

    CLI-Beispiele

    openclaw onboard --auth-choice opencode-zen
    openclaw models set opencode/claude-opus-4-6
    openclaw models list
    

    Siehe auch: Konfiguration für vollständige Konfigurationsbeispiele.

    Verwandt