Concepts and configuration
Modell-Provider
Referenz für LLM-/Modell-Provider (nicht Chat-Kanäle wie WhatsApp/Telegram). Regeln zur Modellauswahl finden Sie unter Modelle.
Kurzregeln
Model refs and CLI helpers
- Modellreferenzen verwenden
provider/model(Beispiel:opencode/claude-opus-4-6). agents.defaults.modelsfungiert als Allowlist, wenn es gesetzt ist.- CLI-Helfer:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokenssetzen Defaults auf Provider-Ebene;models.providers.*.models[].contextWindow/contextTokens/maxTokensüberschreiben sie pro Modell.- Fallback-Regeln, Cooldown-Probes und Persistenz von Sitzungsüberschreibungen: Modell-Failover.
Adding provider auth does not change your primary model
openclaw configure behält ein vorhandenes agents.defaults.model.primary bei, wenn Sie einen Provider hinzufügen oder erneut authentifizieren. Provider-Plugins können in ihrem Auth-Konfigurationspatch weiterhin ein empfohlenes Default-Modell zurückgeben, aber configure behandelt dies als „dieses Modell verfügbar machen“, wenn bereits ein primäres Modell existiert, nicht als „das aktuelle primäre Modell ersetzen“.
Um das Default-Modell absichtlich zu wechseln, verwenden Sie openclaw models set <provider/model> oder openclaw models auth login --provider <id> --set-default.
OpenAI provider/runtime split
Routen der OpenAI-Familie sind präfixspezifisch:
openai/<model>plusagents.defaults.agentRuntime.id: "codex"verwendet den nativen Codex App-Server-Harness. Dies ist die übliche Einrichtung für ChatGPT-/Codex-Abonnements.openai-codex/<model>verwendet Codex OAuth in PI.openai/<model>ohne Codex-Runtime-Override verwendet den direkten OpenAI-API-Schlüssel-Provider in PI.
Siehe OpenAI und Codex-Harness. Wenn die Trennung zwischen Provider und Runtime verwirrend ist, lesen Sie zuerst Agent-Runtimes.
Die automatische Aktivierung von Plugins folgt derselben Grenze: openai-codex/<model> gehört zum OpenAI-Plugin, während das Codex-Plugin durch agentRuntime.id: "codex" oder ältere codex/<model>-Referenzen aktiviert wird.
GPT-5.5 ist über den nativen Codex App-Server-Harness verfügbar, wenn agentRuntime.id: "codex" gesetzt ist, über openai-codex/gpt-5.5 in PI für Codex OAuth und über openai/gpt-5.5 in PI für direkten API-Schlüssel-Traffic, wenn Ihr Konto dies bereitstellt.
CLI runtimes
CLI-Runtimes verwenden dieselbe Trennung: Wählen Sie kanonische Modellreferenzen wie anthropic/claude-*, google/gemini-* oder openai/gpt-* und setzen Sie dann agents.defaults.agentRuntime.id auf claude-cli, google-gemini-cli oder codex-cli, wenn Sie ein lokales CLI-Backend verwenden möchten.
Ältere claude-cli/*-, google-gemini-cli/*- und codex-cli/*-Referenzen werden wieder zu kanonischen Provider-Referenzen migriert, wobei die Runtime separat gespeichert wird.
Plugin-eigenes Provider-Verhalten
Die meiste Provider-spezifische Logik befindet sich in Provider-Plugins (registerProvider(...)), während OpenClaw die generische Inferenzschleife beibehält. Plugins besitzen Onboarding, Modellkataloge, Auth-Umgebungsvariablen-Mapping, Transport-/Konfigurationsnormalisierung, Tool-Schema-Bereinigung, Failover-Klassifizierung, OAuth-Aktualisierung, Nutzungsberichte, Denk-/Reasoning-Profile und mehr.
Die vollständige Liste der Provider-SDK-Hooks und Beispiele für gebündelte Plugins finden Sie unter Provider-Plugins. Ein Provider, der einen vollständig benutzerdefinierten Request-Executor benötigt, ist eine separate, tiefere Erweiterungsfläche.
API-Schlüsselrotation
Key sources and priority
Konfigurieren Sie mehrere Schlüssel über:
OPENCLAW_LIVE_<PROVIDER>_KEY(einzelner Live-Override, höchste Priorität)<PROVIDER>_API_KEYS(durch Kommas oder Semikolons getrennte Liste)<PROVIDER>_API_KEY(primärer Schlüssel)<PROVIDER>_API_KEY_*(nummerierte Liste, z. B.<PROVIDER>_API_KEY_1)
Für Google-Provider wird GOOGLE_API_KEY ebenfalls als Fallback einbezogen. Die Reihenfolge der Schlüsselauswahl bewahrt die Priorität und dedupliziert Werte.
When rotation kicks in
- Requests werden nur bei Rate-Limit-Antworten mit dem nächsten Schlüssel wiederholt (zum Beispiel
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededoder regelmäßige Nutzungslimitmeldungen). - Fehler, die keine Rate-Limits sind, schlagen sofort fehl; es wird keine Schlüsselrotation versucht.
- Wenn alle Kandidatenschlüssel fehlschlagen, wird der finale Fehler aus dem letzten Versuch zurückgegeben.
Integrierte Provider (pi-ai-Katalog)
OpenClaw wird mit dem pi-ai-Katalog ausgeliefert. Diese Provider benötigen keine models.providers-Konfiguration; setzen Sie einfach Authentifizierung und wählen Sie ein Modell.
OpenAI
- Provider:
openai - Authentifizierung:
OPENAI_API_KEY - Optionale Rotation:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(einzelner Override) - Beispielmodelle:
openai/gpt-5.5,openai/gpt-5.4-mini - Prüfen Sie Konto-/Modellverfügbarkeit mit
openclaw models list --provider openai, wenn eine bestimmte Installation oder ein API-Schlüssel sich anders verhält. - CLI:
openclaw onboard --auth-choice openai-api-key - Der Default-Transport ist
auto(WebSocket zuerst, SSE-Fallback) - Pro Modell über
agents.defaults.models["openai/<model>"].params.transportüberschreiben ("sse","websocket"oder"auto") - OpenAI Responses WebSocket-Warm-up ist standardmäßig über
params.openaiWsWarmupaktiviert (true/false) - OpenAI-Prioritätsverarbeitung kann über
agents.defaults.models["openai/<model>"].params.serviceTieraktiviert werden /fastundparams.fastModemappen direkteopenai/*-Responses-Requests aufservice_tier=priorityaufapi.openai.com- Verwenden Sie
params.serviceTier, wenn Sie statt des gemeinsamen/fast-Toggles eine explizite Stufe möchten - Verborgene OpenClaw-Attributionsheader (
originator,version,User-Agent) gelten nur für nativen OpenAI-Traffic zuapi.openai.com, nicht für generische OpenAI-kompatible Proxys - Native OpenAI-Routen behalten außerdem Responses
store, Prompt-Cache-Hinweise und OpenAI-Reasoning-Kompatibilitäts-Payload-Formung bei; Proxy-Routen tun dies nicht openai/gpt-5.3-codex-sparkwird in OpenClaw absichtlich unterdrückt, weil Live-OpenAI-API-Requests es ablehnen und der aktuelle Codex-Katalog es nicht bereitstellt
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Provider:
anthropic - Authentifizierung:
ANTHROPIC_API_KEY - Optionale Rotation:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(einzelner Override) - Beispielmodell:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Direkte öffentliche Anthropic-Requests unterstützen den gemeinsamen
/fast-Toggle undparams.fastMode, einschließlich API-Schlüssel- und OAuth-authentifiziertem Traffic anapi.anthropic.com; OpenClaw mappt dies auf Anthropicservice_tier(autovs.standard_only) - Die bevorzugte Claude-CLI-Konfiguration behält die Modellreferenz kanonisch und wählt das CLI-Backend separat:
anthropic/claude-opus-4-7mitagents.defaults.agentRuntime.id: "claude-cli". Ältereclaude-cli/claude-opus-4-7-Referenzen funktionieren aus Kompatibilitätsgründen weiterhin.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- Provider:
openai-codex - Authentifizierung: OAuth (ChatGPT)
- PI-Modellreferenz:
openai-codex/gpt-5.5 - Native Codex App-Server-Harness-Referenz:
openai/gpt-5.5mitagents.defaults.agentRuntime.id: "codex" - Dokumentation zum nativen Codex App-Server-Harness: Codex-Harness
- Ältere Modellreferenzen:
codex/gpt-* - Plugin-Grenze:
openai-codex/*lädt das OpenAI-Plugin; das native Codex App-Server-Plugin wird nur durch die Codex-Harness-Runtime oder älterecodex/*-Referenzen ausgewählt. - CLI:
openclaw onboard --auth-choice openai-codexoderopenclaw models auth login --provider openai-codex - Der Default-Transport ist
auto(WebSocket zuerst, SSE-Fallback) - Pro PI-Modell über
agents.defaults.models["openai-codex/<model>"].params.transportüberschreiben ("sse","websocket"oder"auto") params.serviceTierwird auch bei nativen Codex-Responses-Requests weitergeleitet (chatgpt.com/backend-api)- Verborgene OpenClaw-Attributionsheader (
originator,version,User-Agent) werden nur bei nativem Codex-Traffic zuchatgpt.com/backend-apiangehängt, nicht bei generischen OpenAI-kompatiblen Proxys - Teilt dieselbe
/fast-Toggle- undparams.fastMode-Konfiguration wie direktesopenai/*; OpenClaw mappt dies aufservice_tier=priority openai-codex/gpt-5.5verwendet den nativencontextWindow = 400000des Codex-Katalogs und die Default-RuntimecontextTokens = 272000; überschreiben Sie die Runtime-Obergrenze mitmodels.providers.openai-codex.models[].contextTokens- Richtlinienhinweis: OpenAI Codex OAuth wird ausdrücklich für externe Tools/Workflows wie OpenClaw unterstützt.
- Für die gängige Route aus Abonnement plus nativer Codex-Runtime melden Sie sich mit
openai-codex-Authentifizierung an, konfigurieren aberopenai/gpt-5.5plusagents.defaults.agentRuntime.id: "codex". - Verwenden Sie
openai-codex/gpt-5.5nur, wenn Sie die Codex-OAuth-/Abonnementroute über PI möchten; verwenden Sieopenai/gpt-5.5ohne Codex-Runtime-Override, wenn Ihre API-Schlüssel-Einrichtung und Ihr lokaler Katalog die öffentliche API-Route bereitstellen. - Ältere
openai-codex/gpt-5.1*-,openai-codex/gpt-5.2*- undopenai-codex/gpt-5.3*-Referenzen werden unterdrückt, weil ChatGPT-/Codex-OAuth-Konten sie ablehnen; verwenden Sie stattdessenopenai-codex/gpt-5.5oder die native Codex-Runtime-Route.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Weitere gehostete Optionen im Abonnementstil
Z.AI Coding Plan oder allgemeine API-Endpunkte.
MiniMax Coding Plan OAuth oder Zugriff per API-Schlüssel.
Qwen Cloud-Provider-Oberfläche plus Alibaba DashScope und Endpunkt-Mapping für den Coding Plan.
OpenCode
- Authentifizierung:
OPENCODE_API_KEY(oderOPENCODE_ZEN_API_KEY) - Zen-Runtime-Provider:
opencode - Go-Runtime-Provider:
opencode-go - Beispielmodelle:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenoderopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (API-Schlüssel)
- Provider:
google - Authentifizierung:
GEMINI_API_KEY - Optionale Rotation:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEY-Fallback undOPENCLAW_LIVE_GEMINI_KEY(einzelne Überschreibung) - Beispielmodelle:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Kompatibilität: Legacy-OpenClaw-Konfigurationen mit
google/gemini-3.1-flash-previewwerden zugoogle/gemini-3-flash-previewnormalisiert - Alias:
google/gemini-3.1-prowird akzeptiert und zu Googles Live-Gemini-API-IDgoogle/gemini-3.1-pro-previewnormalisiert - CLI:
openclaw onboard --auth-choice gemini-api-key - Denken:
/think adaptiveverwendet dynamisches Denken von Google. Gemini 3/3.1 lassen ein festesthinkingLevelweg; Gemini 2.5 sendetthinkingBudget: -1. - Direkte Gemini-Ausführungen akzeptieren außerdem
agents.defaults.models["google/<model>"].params.cachedContent(oder das Legacy-cached_content), um ein provider-nativescachedContents/...-Handle weiterzuleiten; Gemini-Cache-Treffer erscheinen als OpenClaw-cacheRead
Google Vertex und Gemini CLI
- Provider:
google-vertex,google-gemini-cli - Authentifizierung: Vertex verwendet gcloud ADC; Gemini CLI verwendet seinen OAuth-Ablauf
Gemini-CLI-OAuth wird als Teil des gebündelten google-Plugins ausgeliefert.
Gemini CLI installieren
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Plugin aktivieren
openclaw plugins enable google
Anmelden
openclaw models auth login --provider google-gemini-cli --set-default
Standardmodell: google-gemini-cli/gemini-3-flash-preview. Sie fügen keine Client-ID und kein Secret in openclaw.json ein. Der CLI-Anmeldeablauf speichert Tokens in Authentifizierungsprofilen auf dem Gateway-Host.
Projekt festlegen (falls erforderlich)
Wenn Anfragen nach der Anmeldung fehlschlagen, setzen Sie GOOGLE_CLOUD_PROJECT oder GOOGLE_CLOUD_PROJECT_ID auf dem Gateway-Host.
Gemini-CLI-JSON-Antworten werden aus response geparst; die Nutzung fällt auf stats zurück, wobei stats.cached zu OpenClaw-cacheRead normalisiert wird.
Z.AI (GLM)
- Provider:
zai - Authentifizierung:
ZAI_API_KEY - Beispielmodell:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliasse:
z.ai/*undz-ai/*werden zuzai/*normalisiert zai-api-keyerkennt den passenden Z.AI-Endpunkt automatisch;zai-coding-global,zai-coding-cn,zai-globalundzai-cnerzwingen eine bestimmte Oberfläche
- Aliasse:
Vercel AI Gateway
- Provider:
vercel-ai-gateway - Authentifizierung:
AI_GATEWAY_API_KEY - Beispielmodelle:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provider:
kilocode - Authentifizierung:
KILOCODE_API_KEY - Beispielmodell:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Basis-URL:
https://api.kilo.ai/api/gateway/ - Der statische Fallback-Katalog liefert
kilocode/kilo/auto; die Live-Erkennung überhttps://api.kilo.ai/api/gateway/modelskann den Laufzeitkatalog weiter erweitern. - Das exakte Upstream-Routing hinter
kilocode/kilo/autoliegt bei Kilo Gateway und ist nicht fest in OpenClaw codiert.
Einrichtungsdetails finden Sie unter /providers/kilocode.
Weitere gebündelte Provider-Plugins
| Provider | ID | Authentifizierungs-Env | Beispielmodell |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN oder HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY oder KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Wissenswerte Besonderheiten
OpenRouter
Wendet seine App-Attribution-Header und Anthropic-cache_control-Marker nur auf verifizierten openrouter.ai-Routen an. DeepSeek-, Moonshot- und ZAI-Refs sind für das von OpenRouter verwaltete Prompt-Caching Cache-TTL-berechtigt, erhalten aber keine Anthropic-Cache-Marker. Als proxyartiger OpenAI-kompatibler Pfad überspringt er nur für native OpenAI geltende Anpassungen (serviceTier, Responses store, Prompt-Cache-Hinweise, OpenAI-Reasoning-Kompatibilität). Gemini-gestützte Refs behalten nur die Proxy-Gemini-Bereinigung von Gedankensignaturen bei.
Kilo Gateway
Gemini-gestützte Refs folgen demselben Proxy-Gemini-Bereinigungspfad; kilocode/kilo/auto und andere Refs ohne Proxy-Reasoning-Unterstützung überspringen die Proxy-Reasoning-Injektion.
MiniMax
API-Schlüssel-Onboarding schreibt explizite text-only M2.7-Chatmodelldefinitionen; Bildverständnis bleibt beim Plugin-eigenen MiniMax-VL-01-Medien-Provider.
NVIDIA
Modell-IDs verwenden einen nvidia/<vendor>/<model>-Namensraum (zum Beispiel nvidia/nvidia/nemotron-... neben nvidia/moonshotai/kimi-k2.5); Auswahloberflächen bewahren die wörtliche Zusammensetzung <provider>/<model-id>, während der an die API gesendete kanonische Schlüssel einfach präfixiert bleibt.
xAI
Verwendet den xAI-Responses-Pfad. grok-4.3 ist das gebündelte Standard-Chatmodell. /fast oder params.fastMode: true schreibt grok-3, grok-3-mini, grok-4 und grok-4-0709 auf ihre *-fast-Varianten um. tool_stream ist standardmäßig aktiviert; deaktivieren Sie es über agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
Wird als gebündeltes cerebras-Provider-Plugin ausgeliefert. GLM verwendet zai-glm-4.7; die OpenAI-kompatible Basis-URL ist https://api.cerebras.ai/v1.
Provider über models.providers (benutzerdefinierte/Basis-URL)
Verwenden Sie models.providers (oder models.json), um benutzerdefinierte Provider oder OpenAI/Anthropic-kompatible Proxys hinzuzufügen.
Viele der unten aufgeführten gebündelten Provider-Plugins veröffentlichen bereits einen Standardkatalog. Verwenden Sie explizite models.providers.<id>-Einträge nur, wenn Sie die Standard-Basis-URL, Header oder Modellliste überschreiben möchten.
Gateway-Modellfähigkeitsprüfungen lesen außerdem explizite models.providers.<id>.models[]-Metadaten. Wenn ein benutzerdefiniertes oder Proxy-Modell Bilder akzeptiert, setzen Sie input: ["text", "image"] für dieses Modell, damit WebChat- und Node-Ursprungs-Anhangspfade Bilder als native Modelleingaben statt als reine Text-Medien-Refs übergeben.
Moonshot AI (Kimi)
Moonshot wird als gebündeltes Provider-Plugin ausgeliefert. Verwenden Sie standardmäßig den integrierten Provider und fügen Sie nur dann einen expliziten models.providers.moonshot-Eintrag hinzu, wenn Sie die Basis-URL oder Modellmetadaten überschreiben müssen:
- Provider:
moonshot - Authentifizierung:
MOONSHOT_API_KEY - Beispielmodell:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyoderopenclaw onboard --auth-choice moonshot-api-key-cn
Kimi-K2-Modell-IDs:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Kimi-Coding
Kimi Coding verwendet den Anthropic-kompatiblen Endpunkt von Moonshot AI:
- Provider:
kimi - Authentifizierung:
KIMI_API_KEY - Beispielmodell:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
Legacy kimi/k2p5 wird weiterhin als Kompatibilitätsmodell-ID akzeptiert.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) bietet Zugriff auf Doubao und andere Modelle in China.
- Provider:
volcengine(Coding:volcengine-plan) - Authentifizierung:
VOLCANO_ENGINE_API_KEY - Beispielmodell:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
Onboarding verwendet standardmäßig die Coding-Oberfläche, aber der allgemeine volcengine/*-Katalog wird gleichzeitig registriert.
In Modell-Auswahlfeldern beim Onboarding/Konfigurieren bevorzugt die Volcengine-Authentifizierungsoption sowohl volcengine/*- als auch volcengine-plan/*-Zeilen. Wenn diese Modelle noch nicht geladen sind, fällt OpenClaw auf den ungefilterten Katalog zurück, anstatt ein leeres Provider-spezifisches Auswahlfeld anzuzeigen.
Standard models
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Coding models (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK bietet internationalen Benutzern Zugriff auf dieselben Modelle wie Volcano Engine.
- Provider:
byteplus(Coding:byteplus-plan) - Authentifizierung:
BYTEPLUS_API_KEY - Beispielmodell:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
Onboarding verwendet standardmäßig die Coding-Oberfläche, aber der allgemeine byteplus/*-Katalog wird gleichzeitig registriert.
In Modell-Auswahlfeldern beim Onboarding/Konfigurieren bevorzugt die BytePlus-Authentifizierungsoption sowohl byteplus/*- als auch byteplus-plan/*-Zeilen. Wenn diese Modelle noch nicht geladen sind, fällt OpenClaw auf den ungefilterten Katalog zurück, anstatt ein leeres Provider-spezifisches Auswahlfeld anzuzeigen.
Standard models
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Coding models (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic stellt Anthropic-kompatible Modelle hinter dem Provider synthetic bereit:
- Provider:
synthetic - Authentifizierung:
SYNTHETIC_API_KEY - Beispielmodell:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax wird über models.providers konfiguriert, da es benutzerdefinierte Endpunkte verwendet:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API-Schlüssel (Global):
--auth-choice minimax-global-api - MiniMax API-Schlüssel (CN):
--auth-choice minimax-cn-api - Authentifizierung:
MINIMAX_API_KEYfürminimax;MINIMAX_OAUTH_TOKENoderMINIMAX_API_KEYfürminimax-portal
Setup-Details, Modelloptionen und Konfigurationsausschnitte finden Sie unter /providers/minimax.
Plugin-eigene Aufteilung der Fähigkeiten:
- Text-/Chat-Standards bleiben auf
minimax/MiniMax-M2.7 - Bildgenerierung ist
minimax/image-01oderminimax-portal/image-01 - Bildverständnis ist Plugin-eigenes
MiniMax-VL-01auf beiden MiniMax-Authentifizierungspfaden - Websuche bleibt auf der Provider-ID
minimax
LM Studio
LM Studio wird als gebündeltes Provider-Plugin ausgeliefert, das die native API verwendet:
- Provider:
lmstudio - Authentifizierung:
LM_API_TOKEN - Standard-Basis-URL für Inferenz:
http://localhost:1234/v1
Legen Sie dann ein Modell fest (ersetzen Sie es durch eine der von http://localhost:1234/api/v1/models zurückgegebenen IDs):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw verwendet die nativen LM Studio-Endpunkte /api/v1/models und /api/v1/models/load für Discovery + automatisches Laden, standardmäßig mit /v1/chat/completions für Inferenz. Wenn Sie möchten, dass LM Studio JIT-Laden, TTL und automatische Verdrängung für den Modelllebenszyklus übernimmt, setzen Sie models.providers.lmstudio.params.preload: false. Setup und Fehlerbehebung finden Sie unter /providers/lmstudio.
Ollama
Ollama wird als gebündeltes Provider-Plugin ausgeliefert und verwendet Ollamas native API:
- Provider:
ollama - Authentifizierung: Nicht erforderlich (lokaler Server)
- Beispielmodell:
ollama/llama3.3 - Installation: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama wird lokal unter http://127.0.0.1:11434 erkannt, wenn Sie es mit OLLAMA_API_KEY aktivieren, und das gebündelte Provider-Plugin fügt Ollama direkt zu openclaw onboard und der Modellauswahl hinzu. Onboarding, Cloud-/lokaler Modus und benutzerdefinierte Konfiguration finden Sie unter /providers/ollama.
vLLM
vLLM wird als gebündeltes Provider-Plugin für lokale/selbst gehostete OpenAI-kompatible Server ausgeliefert:
- Provider:
vllm - Authentifizierung: Optional (hängt von Ihrem Server ab)
- Standard-Basis-URL:
http://127.0.0.1:8000/v1
Um lokale Auto-Discovery zu aktivieren (jeder Wert funktioniert, wenn Ihr Server keine Authentifizierung erzwingt):
export VLLM_API_KEY="vllm-local"
Legen Sie dann ein Modell fest (ersetzen Sie es durch eine der von /v1/models zurückgegebenen IDs):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Weitere Details finden Sie unter /providers/vllm.
SGLang
SGLang wird als gebündeltes Provider-Plugin für schnelle selbst gehostete OpenAI-kompatible Server ausgeliefert:
- Provider:
sglang - Authentifizierung: Optional (hängt von Ihrem Server ab)
- Standard-Basis-URL:
http://127.0.0.1:30000/v1
Um lokale Auto-Discovery zu aktivieren (jeder Wert funktioniert, wenn Ihr Server keine Authentifizierung erzwingt):
export SGLANG_API_KEY="sglang-local"
Legen Sie dann ein Modell fest (ersetzen Sie es durch eine der von /v1/models zurückgegebenen IDs):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Weitere Details finden Sie unter /providers/sglang.
Lokale Proxys (LM Studio, vLLM, LiteLLM usw.)
Beispiel (OpenAI-kompatibel):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Default optional fields
Für benutzerdefinierte Provider sind reasoning, input, cost, contextWindow und maxTokens optional. Wenn sie weggelassen werden, verwendet OpenClaw standardmäßig:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Empfohlen: Legen Sie explizite Werte fest, die zu den Limits Ihres Proxys/Modells passen.
Proxy-route shaping rules
- Für
api: "openai-completions"auf nicht nativen Endpunkten (jede nicht leerebaseUrl, deren Host nichtapi.openai.comist) erzwingt OpenClawcompat.supportsDeveloperRole: false, um Provider-400-Fehler für nicht unterstütztedeveloper-Rollen zu vermeiden. - Proxy-artige OpenAI-kompatible Routen überspringen außerdem nur für natives OpenAI geltende Request-Anpassungen: kein
service_tier, kein Responses-store, kein Completions-store, keine Prompt-Cache-Hinweise, keine OpenAI-Reasoning-Kompatibilitäts-Payload-Anpassung und keine verborgenen OpenClaw-Attributions-Header. - Für OpenAI-kompatible Completions-Proxys, die anbieterspezifische Felder benötigen, setzen Sie
agents.defaults.models["provider/model"].params.extra_body(oderextraBody), um zusätzliches JSON in den ausgehenden Request-Body zu mergen. - Für vLLM-Chat-Template-Steuerungen setzen Sie
agents.defaults.models["provider/model"].params.chat_template_kwargs. Das gebündelte vLLM-Plugin sendet automatischenable_thinking: falseundforce_nonempty_content: truefürvllm/nemotron-3-*, wenn die Thinking-Stufe der Sitzung deaktiviert ist. - Für langsame lokale Modelle oder entfernte LAN-/Tailnet-Hosts setzen Sie
models.providers.<id>.timeoutSeconds. Dies erweitert die HTTP-Request-Verarbeitung des Provider-Modells, einschließlich Verbindung, Headern, Body-Streaming und dem gesamten abgesicherten Fetch-Abbruch, ohne das Laufzeit-Timeout des gesamten Agenten zu erhöhen. - HTTP-Aufrufe des Modell-Providers erlauben Surge-, Clash- und sing-box-Fake-IP-DNS-Antworten in
198.18.0.0/15undfc00::/7nur für den konfiguriertenbaseUrl-Hostnamen des Providers. Andere private, loopback-, link-local- und Metadaten-Ziele erfordern weiterhin eine explizite Aktivierung mitmodels.providers.<id>.request.allowPrivateNetwork: true. - Wenn
baseUrlleer ist oder weggelassen wird, behält OpenClaw das Standardverhalten von OpenAI bei (das zuapi.openai.comauflöst). - Aus Sicherheitsgründen wird ein explizites
compat.supportsDeveloperRole: trueauf nicht nativenopenai-completions-Endpunkten weiterhin überschrieben. - Für
api: "anthropic-messages"auf nicht direkten Endpunkten (jeder Provider außer dem kanonischenanthropicoder eine benutzerdefiniertemodels.providers.anthropic.baseUrl, deren Host kein öffentlicherapi.anthropic.com-Endpunkt ist) unterdrückt OpenClaw implizite Anthropic-Beta-Header wieclaude-code-20250219,interleaved-thinking-2025-05-14und OAuth-Marker, damit benutzerdefinierte Anthropic-kompatible Proxys nicht unterstützte Beta-Flags nicht ablehnen. Setzen Siemodels.providers.<id>.headers["anthropic-beta"]explizit, wenn Ihr Proxy bestimmte Beta-Funktionen benötigt.
CLI-Beispiele
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Siehe auch: Konfiguration für vollständige Konfigurationsbeispiele.
Verwandt
- Konfigurationsreferenz - Modellkonfigurationsschlüssel
- Modell-Failover - Fallback-Ketten und Wiederholungsverhalten
- Modelle - Modellkonfiguration und Aliasse
- Provider - Setup-Leitfäden pro Provider