Concepts and configuration
Fournisseurs de modèles
Référence pour les fournisseurs LLM/modèles (pas les canaux de chat comme WhatsApp/Telegram). Pour les règles de sélection de modèles, consultez Modèles.
Règles rapides
Références de modèles et assistants CLI
- Les références de modèles utilisent
provider/model(exemple :opencode/claude-opus-4-6). agents.defaults.modelsagit comme une liste d’autorisation lorsqu’il est défini.- Assistants CLI :
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensdéfinissent les valeurs par défaut au niveau du fournisseur ;models.providers.*.models[].contextWindow/contextTokens/maxTokensles remplacent par modèle.- Règles de repli, sondes de délai de récupération et persistance des remplacements de session : Basculement de modèle.
Ajouter l’authentification d’un fournisseur ne change pas votre modèle principal
openclaw configure préserve un agents.defaults.model.primary existant lorsque vous ajoutez ou réauthentifiez un fournisseur. Les Plugins fournisseurs peuvent toujours renvoyer un modèle par défaut recommandé dans leur correctif de configuration d’authentification, mais configure traite cela comme « rendre ce modèle disponible » lorsqu’un modèle principal existe déjà, et non comme « remplacer le modèle principal actuel ».
Pour changer volontairement le modèle par défaut, utilisez openclaw models set <provider/model> ou openclaw models auth login --provider <id> --set-default.
Séparation fournisseur/runtime OpenAI
Les routes de la famille OpenAI sont propres à chaque préfixe :
openai/<model>avecagents.defaults.agentRuntime.id: "codex"utilise le harnais natif de serveur d’application Codex. C’est la configuration habituelle d’abonnement ChatGPT/Codex.openai-codex/<model>utilise OAuth Codex dans PI.openai/<model>sans remplacement de runtime Codex utilise le fournisseur direct OpenAI par clé API dans PI.
Consultez OpenAI et Harnais Codex. Si la séparation fournisseur/runtime prête à confusion, lisez d’abord Runtimes d’agent.
L’activation automatique des Plugins suit la même limite : openai-codex/<model> appartient au Plugin OpenAI, tandis que le Plugin Codex est activé par agentRuntime.id: "codex" ou les références historiques codex/<model>.
GPT-5.5 est disponible via le harnais natif de serveur d’application Codex lorsque agentRuntime.id: "codex" est défini, via openai-codex/gpt-5.5 dans PI pour OAuth Codex, et via openai/gpt-5.5 dans PI pour le trafic direct par clé API lorsque votre compte l’expose.
Runtimes CLI
Les runtimes CLI utilisent la même séparation : choisissez des références de modèles canoniques comme anthropic/claude-*, google/gemini-* ou openai/gpt-*, puis définissez agents.defaults.agentRuntime.id sur claude-cli, google-gemini-cli ou codex-cli lorsque vous voulez un backend CLI local.
Les références historiques claude-cli/*, google-gemini-cli/* et codex-cli/* migrent vers des références de fournisseurs canoniques, avec le runtime enregistré séparément.
Comportement fournisseur détenu par le Plugin
La plupart de la logique propre aux fournisseurs réside dans les Plugins fournisseurs (registerProvider(...)), tandis qu’OpenClaw conserve la boucle d’inférence générique. Les Plugins détiennent l’onboarding, les catalogues de modèles, la correspondance des variables d’environnement d’authentification, la normalisation transport/config, le nettoyage des schémas d’outils, la classification du basculement, le rafraîchissement OAuth, le reporting d’utilisation, les profils de pensée/raisonnement, et plus encore.
La liste complète des hooks SDK fournisseur et des exemples de Plugins intégrés se trouve dans Plugins fournisseurs. Un fournisseur qui nécessite un exécuteur de requêtes totalement personnalisé relève d’une surface d’extension distincte et plus profonde.
Rotation des clés API
Sources de clés et priorité
Configurez plusieurs clés via :
OPENCLAW_LIVE_<PROVIDER>_KEY(remplacement live unique, priorité la plus élevée)<PROVIDER>_API_KEYS(liste séparée par virgules ou points-virgules)<PROVIDER>_API_KEY(clé principale)<PROVIDER>_API_KEY_*(liste numérotée, par exemple<PROVIDER>_API_KEY_1)
Pour les fournisseurs Google, GOOGLE_API_KEY est également inclus comme repli. L’ordre de sélection des clés préserve la priorité et déduplique les valeurs.
Quand la rotation se déclenche
- Les requêtes sont retentées avec la clé suivante uniquement sur les réponses de limite de débit (par exemple
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededou les messages périodiques de limite d’utilisation). - Les échecs qui ne relèvent pas d’une limite de débit échouent immédiatement ; aucune rotation de clé n’est tentée.
- Lorsque toutes les clés candidates échouent, l’erreur finale est renvoyée depuis la dernière tentative.
Fournisseurs intégrés (catalogue pi-ai)
OpenClaw est livré avec le catalogue pi-ai. Ces fournisseurs ne nécessitent aucune configuration models.providers ; définissez simplement l’authentification et choisissez un modèle.
OpenAI
- Fournisseur :
openai - Authentification :
OPENAI_API_KEY - Rotation facultative :
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, plusOPENCLAW_LIVE_OPENAI_KEY(remplacement unique) - Exemples de modèles :
openai/gpt-5.5,openai/gpt-5.4-mini - Vérifiez la disponibilité du compte/modèle avec
openclaw models list --provider openaisi une installation ou une clé API précise se comporte différemment. - CLI :
openclaw onboard --auth-choice openai-api-key - Le transport par défaut est
auto(WebSocket d’abord, repli SSE) - Remplacement par modèle via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"ou"auto") - Le préchauffage WebSocket OpenAI Responses est activé par défaut via
params.openaiWsWarmup(true/false) - Le traitement prioritaire OpenAI peut être activé via
agents.defaults.models["openai/<model>"].params.serviceTier /fastetparams.fastModeassocient les requêtes Responses directesopenai/*àservice_tier=prioritysurapi.openai.com- Utilisez
params.serviceTierlorsque vous voulez un niveau explicite plutôt que le basculeur partagé/fast - Les en-têtes d’attribution OpenClaw masqués (
originator,version,User-Agent) s’appliquent uniquement au trafic OpenAI natif versapi.openai.com, pas aux proxys génériques compatibles OpenAI - Les routes OpenAI natives conservent également
storede Responses, les indications de cache de prompt et la mise en forme de payload compatible avec le raisonnement OpenAI ; les routes proxy ne le font pas openai/gpt-5.3-codex-sparkest volontairement supprimé dans OpenClaw, car les requêtes live à l’API OpenAI le rejettent et le catalogue Codex actuel ne l’expose pas
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Fournisseur :
anthropic - Authentification :
ANTHROPIC_API_KEY - Rotation facultative :
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, plusOPENCLAW_LIVE_ANTHROPIC_KEY(remplacement unique) - Exemple de modèle :
anthropic/claude-opus-4-6 - CLI :
openclaw onboard --auth-choice apiKey - Les requêtes Anthropic publiques directes prennent en charge le basculeur partagé
/fastetparams.fastMode, y compris le trafic authentifié par clé API et OAuth envoyé àapi.anthropic.com; OpenClaw l’associe auservice_tierAnthropic (autocontrestandard_only) - La configuration Claude CLI préférée conserve la référence de modèle canonique et sélectionne le backend CLI
séparément :
anthropic/claude-opus-4-7avecagents.defaults.agentRuntime.id: "claude-cli". Les références historiquesclaude-cli/claude-opus-4-7fonctionnent toujours pour la compatibilité.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- Fournisseur :
openai-codex - Authentification : OAuth (ChatGPT)
- Référence de modèle PI :
openai-codex/gpt-5.5 - Référence du harnais natif de serveur d’application Codex :
openai/gpt-5.5avecagents.defaults.agentRuntime.id: "codex" - Documentation du harnais natif de serveur d’application Codex : Harnais Codex
- Références de modèles historiques :
codex/gpt-* - Limite de Plugin :
openai-codex/*charge le Plugin OpenAI ; le Plugin natif de serveur d’application Codex n’est sélectionné que par le runtime de harnais Codex ou les références historiquescodex/*. - CLI :
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex - Le transport par défaut est
auto(WebSocket d’abord, repli SSE) - Remplacement par modèle PI via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"ou"auto") params.serviceTierest également transmis sur les requêtes Responses Codex natives (chatgpt.com/backend-api)- Les en-têtes d’attribution OpenClaw masqués (
originator,version,User-Agent) ne sont ajoutés que sur le trafic Codex natif verschatgpt.com/backend-api, pas aux proxys génériques compatibles OpenAI - Partage la même configuration de basculeur
/fastetparams.fastModequeopenai/*direct ; OpenClaw l’associe àservice_tier=priority openai-codex/gpt-5.5utilise lecontextWindow = 400000natif du catalogue Codex et le runtime par défautcontextTokens = 272000; remplacez le plafond de runtime avecmodels.providers.openai-codex.models[].contextTokens- Note de politique : OpenAI Codex OAuth est explicitement pris en charge pour les outils/workflows externes comme OpenClaw.
- Pour la route courante abonnement plus runtime Codex natif, connectez-vous avec l’authentification
openai-codexmais configurezopenai/gpt-5.5plusagents.defaults.agentRuntime.id: "codex". - Utilisez
openai-codex/gpt-5.5uniquement lorsque vous voulez la route OAuth/abonnement Codex via PI ; utilisezopenai/gpt-5.5sans le remplacement du runtime Codex lorsque votre configuration par clé API et votre catalogue local exposent la route d’API publique. - Les anciennes références
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*etopenai-codex/gpt-5.3*sont supprimées, car les comptes ChatGPT/Codex OAuth les rejettent ; utilisez plutôtopenai-codex/gpt-5.5ou la route de runtime Codex native.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Autres options hébergées de type abonnement
Z.AI Coding Plan ou points de terminaison d’API généraux.
MiniMax Coding Plan OAuth ou accès par clé API.
Surface fournisseur Qwen Cloud plus correspondance des points de terminaison Alibaba DashScope et Coding Plan.
OpenCode
- Authentification :
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Fournisseur de runtime Zen :
opencode - Fournisseur de runtime Go :
opencode-go - Exemples de modèles :
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI :
openclaw onboard --auth-choice opencode-zenouopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (clé API)
- Fournisseur :
google - Authentification :
GEMINI_API_KEY - Rotation facultative :
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, repliGOOGLE_API_KEY, etOPENCLAW_LIVE_GEMINI_KEY(remplacement unique) - Modèles d’exemple :
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilité : la configuration OpenClaw héritée utilisant
google/gemini-3.1-flash-previewest normalisée engoogle/gemini-3-flash-preview - Alias :
google/gemini-3.1-proest accepté et normalisé vers l’identifiant Gemini API actif de Google,google/gemini-3.1-pro-preview - CLI :
openclaw onboard --auth-choice gemini-api-key - Réflexion :
/think adaptiveutilise la réflexion dynamique de Google. Gemini 3/3.1 omettent unthinkingLevelfixe ; Gemini 2.5 envoiethinkingBudget: -1. - Les exécutions Gemini directes acceptent aussi
agents.defaults.models["google/<model>"].params.cachedContent(ou l’héritagecached_content) pour transmettre un identifiant natif du fournisseurcachedContents/...; les lectures du cache Gemini apparaissent dans OpenClaw sous forme decacheRead
Google Vertex et Gemini CLI
- Fournisseurs :
google-vertex,google-gemini-cli - Authentification : Vertex utilise gcloud ADC ; Gemini CLI utilise son flux OAuth
Gemini CLI OAuth est fourni dans le cadre du plugin google inclus.
Installer Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Activer le plugin
openclaw plugins enable google
Connexion
openclaw models auth login --provider google-gemini-cli --set-default
Modèle par défaut : google-gemini-cli/gemini-3-flash-preview. Vous ne collez pas d’identifiant client ni de secret dans openclaw.json. Le flux de connexion de la CLI stocke les jetons dans les profils d’authentification sur l’hôte Gateway.
Définir le projet (si nécessaire)
Si les requêtes échouent après la connexion, définissez GOOGLE_CLOUD_PROJECT ou GOOGLE_CLOUD_PROJECT_ID sur l’hôte Gateway.
Les réponses JSON de Gemini CLI sont analysées depuis response ; l’utilisation se rabat sur stats, avec stats.cached normalisé en cacheRead OpenClaw.
Z.AI (GLM)
- Fournisseur :
zai - Authentification :
ZAI_API_KEY - Modèle d’exemple :
zai/glm-5.1 - CLI :
openclaw onboard --auth-choice zai-api-key- Alias :
z.ai/*etz-ai/*sont normalisés enzai/* zai-api-keydétecte automatiquement le point de terminaison Z.AI correspondant ;zai-coding-global,zai-coding-cn,zai-globaletzai-cnforcent une surface spécifique
- Alias :
Vercel AI Gateway
- Fournisseur :
vercel-ai-gateway - Authentification :
AI_GATEWAY_API_KEY - Modèles d’exemple :
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI :
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Fournisseur :
kilocode - Authentification :
KILOCODE_API_KEY - Modèle d’exemple :
kilocode/kilo/auto - CLI :
openclaw onboard --auth-choice kilocode-api-key - URL de base :
https://api.kilo.ai/api/gateway/ - Le catalogue de repli statique inclut
kilocode/kilo/auto; la découverte active viahttps://api.kilo.ai/api/gateway/modelspeut étendre davantage le catalogue d’exécution. - Le routage amont exact derrière
kilocode/kilo/autoappartient à Kilo Gateway et n’est pas codé en dur dans OpenClaw.
Consultez /providers/kilocode pour les détails de configuration.
Autres plugins de fournisseurs inclus
| Fournisseur | Id | Env d’authentification | Modèle d’exemple |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN ou HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY ou KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Particularités à connaître
OpenRouter
Applique ses en-têtes d’attribution d’application et les marqueurs Anthropic cache_control uniquement sur les routes openrouter.ai vérifiées. Les références DeepSeek, Moonshot et ZAI sont éligibles au TTL de cache pour la mise en cache des prompts gérée par OpenRouter, mais ne reçoivent pas les marqueurs de cache Anthropic. En tant que chemin proxy compatible OpenAI, il ignore le façonnage réservé à OpenAI natif (serviceTier, Responses store, indices de cache de prompt, compatibilité de raisonnement OpenAI). Les références adossées à Gemini conservent uniquement l’assainissement proxy-Gemini des signatures de pensée.
Kilo Gateway
Les références adossées à Gemini suivent le même chemin d’assainissement proxy-Gemini ; kilocode/kilo/auto et les autres références proxy ne prenant pas en charge le raisonnement ignorent l’injection de raisonnement proxy.
MiniMax
L’intégration par clé API écrit des définitions explicites de modèles de chat M2.7 en texte seul ; la compréhension d’image reste sur le fournisseur multimédia MiniMax-VL-01 détenu par le Plugin.
NVIDIA
Les identifiants de modèle utilisent un espace de noms nvidia/<vendor>/<model> (par exemple nvidia/nvidia/nemotron-... avec nvidia/moonshotai/kimi-k2.5) ; les sélecteurs préservent la composition littérale <provider>/<model-id> tandis que la clé canonique envoyée à l’API reste préfixée une seule fois.
xAI
Utilise le chemin Responses de xAI. grok-4.3 est le modèle de chat par défaut inclus. /fast ou params.fastMode: true réécrit grok-3, grok-3-mini, grok-4 et grok-4-0709 vers leurs variantes *-fast. tool_stream est activé par défaut ; désactivez-le via agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
Livré comme Plugin fournisseur cerebras inclus. GLM utilise zai-glm-4.7 ; l’URL de base compatible OpenAI est https://api.cerebras.ai/v1.
Fournisseurs via models.providers (URL personnalisée/de base)
Utilisez models.providers (ou models.json) pour ajouter des fournisseurs personnalisés ou des proxys compatibles OpenAI/Anthropic.
Beaucoup des Plugins fournisseurs inclus ci-dessous publient déjà un catalogue par défaut. Utilisez des entrées explicites models.providers.<id> uniquement lorsque vous voulez remplacer l’URL de base, les en-têtes ou la liste de modèles par défaut.
Les vérifications de capacités de modèle du Gateway lisent aussi les métadonnées explicites models.providers.<id>.models[]. Si un modèle personnalisé ou proxy accepte les images, définissez input: ["text", "image"] sur ce modèle afin que WebChat et les chemins de pièces jointes d’origine nœud transmettent les images comme entrées natives de modèle au lieu de références multimédias en texte seul.
Moonshot AI (Kimi)
Moonshot est livré comme Plugin fournisseur inclus. Utilisez le fournisseur intégré par défaut, et ajoutez une entrée explicite models.providers.moonshot uniquement lorsque vous devez remplacer l’URL de base ou les métadonnées de modèle :
- Fournisseur :
moonshot - Authentification :
MOONSHOT_API_KEY - Exemple de modèle :
moonshot/kimi-k2.6 - CLI :
openclaw onboard --auth-choice moonshot-api-keyouopenclaw onboard --auth-choice moonshot-api-key-cn
Identifiants de modèles Kimi K2 :
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Codage Kimi
Kimi Coding utilise le point de terminaison compatible Anthropic de Moonshot AI :
- Fournisseur :
kimi - Authentification :
KIMI_API_KEY - Exemple de modèle :
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
L’ancien kimi/k2p5 reste accepté comme identifiant de modèle de compatibilité.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) donne accès à Doubao et à d’autres modèles en Chine.
- Fournisseur :
volcengine(codage :volcengine-plan) - Authentification :
VOLCANO_ENGINE_API_KEY - Exemple de modèle :
volcengine-plan/ark-code-latest - CLI :
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
L’intégration utilise par défaut la surface de codage, mais le catalogue général volcengine/* est enregistré en même temps.
Dans les sélecteurs de modèles d’intégration/configuration, le choix d’authentification Volcengine privilégie les lignes volcengine/* et volcengine-plan/*. Si ces modèles ne sont pas encore chargés, OpenClaw revient au catalogue non filtré au lieu d’afficher un sélecteur vide limité au fournisseur.
Modèles standard
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Modèles de codage (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK donne accès aux mêmes modèles que Volcano Engine pour les utilisateurs internationaux.
- Fournisseur :
byteplus(codage :byteplus-plan) - Authentification :
BYTEPLUS_API_KEY - Exemple de modèle :
byteplus-plan/ark-code-latest - CLI :
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
L’intégration utilise par défaut la surface de codage, mais le catalogue général byteplus/* est enregistré en même temps.
Dans les sélecteurs de modèles d’intégration/configuration, le choix d’authentification BytePlus privilégie les lignes byteplus/* et byteplus-plan/*. Si ces modèles ne sont pas encore chargés, OpenClaw revient au catalogue non filtré au lieu d’afficher un sélecteur vide limité au fournisseur.
Modèles standard
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Modèles de codage (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic fournit des modèles compatibles Anthropic derrière le fournisseur synthetic :
- Fournisseur :
synthetic - Authentification :
SYNTHETIC_API_KEY - Exemple de modèle :
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI :
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax se configure via models.providers, car il utilise des points de terminaison personnalisés :
- MiniMax OAuth (Global) :
--auth-choice minimax-global-oauth - MiniMax OAuth (CN) :
--auth-choice minimax-cn-oauth - Clé d’API MiniMax (Global) :
--auth-choice minimax-global-api - Clé d’API MiniMax (CN) :
--auth-choice minimax-cn-api - Authentification :
MINIMAX_API_KEYpourminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYpourminimax-portal
Consultez /providers/minimax pour les détails de configuration, les options de modèles et les extraits de configuration.
Répartition des capacités détenue par le Plugin :
- Les valeurs par défaut texte/chat restent sur
minimax/MiniMax-M2.7 - La génération d’images est
minimax/image-01ouminimax-portal/image-01 - La compréhension d’images est
MiniMax-VL-01, détenue par le Plugin, sur les deux chemins d’authentification MiniMax - La recherche web reste sur l’identifiant de fournisseur
minimax
LM Studio
LM Studio est livré comme Plugin de fournisseur groupé qui utilise l’API native :
- Fournisseur :
lmstudio - Authentification :
LM_API_TOKEN - URL de base d’inférence par défaut :
http://localhost:1234/v1
Définissez ensuite un modèle (remplacez par l’un des identifiants renvoyés par http://localhost:1234/api/v1/models) :
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw utilise les points de terminaison natifs /api/v1/models et /api/v1/models/load de LM Studio pour la découverte et le chargement automatique, avec /v1/chat/completions pour l’inférence par défaut. Si vous voulez que le chargement JIT, le TTL et l’éviction automatique de LM Studio gèrent le cycle de vie des modèles, définissez models.providers.lmstudio.params.preload: false. Consultez /providers/lmstudio pour la configuration et le dépannage.
Ollama
Ollama est livré comme Plugin de fournisseur groupé et utilise l’API native d’Ollama :
- Fournisseur :
ollama - Authentification : aucune requise (serveur local)
- Exemple de modèle :
ollama/llama3.3 - Installation : https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama est détecté localement à http://127.0.0.1:11434 lorsque vous l’activez avec OLLAMA_API_KEY, et le Plugin de fournisseur groupé ajoute Ollama directement à openclaw onboard et au sélecteur de modèles. Consultez /providers/ollama pour l’intégration, le mode cloud/local et la configuration personnalisée.
vLLM
vLLM est livré comme Plugin de fournisseur groupé pour les serveurs locaux/auto-hébergés compatibles OpenAI :
- Fournisseur :
vllm - Authentification : facultative (dépend de votre serveur)
- URL de base par défaut :
http://127.0.0.1:8000/v1
Pour activer la découverte automatique localement (n’importe quelle valeur convient si votre serveur n’impose pas l’authentification) :
export VLLM_API_KEY="vllm-local"
Définissez ensuite un modèle (remplacez par l’un des identifiants renvoyés par /v1/models) :
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Consultez /providers/vllm pour plus de détails.
SGLang
SGLang est livré comme Plugin de fournisseur groupé pour les serveurs rapides auto-hébergés compatibles OpenAI :
- Fournisseur :
sglang - Authentification : facultative (dépend de votre serveur)
- URL de base par défaut :
http://127.0.0.1:30000/v1
Pour activer la découverte automatique localement (n’importe quelle valeur convient si votre serveur n’impose pas l’authentification) :
export SGLANG_API_KEY="sglang-local"
Définissez ensuite un modèle (remplacez par l’un des identifiants renvoyés par /v1/models) :
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Consultez /providers/sglang pour plus de détails.
Proxys locaux (LM Studio, vLLM, LiteLLM, etc.)
Exemple (compatible OpenAI) :
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Champs facultatifs par défaut
Pour les fournisseurs personnalisés, reasoning, input, cost, contextWindow et maxTokens sont facultatifs. Lorsqu’ils sont omis, OpenClaw utilise par défaut :
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Recommandation : définissez des valeurs explicites qui correspondent aux limites de votre proxy/modèle.
Règles de mise en forme des routes de proxy
- Pour
api: "openai-completions"sur les points de terminaison non natifs (toutbaseUrlnon vide dont l’hôte n’est pasapi.openai.com), OpenClaw forcecompat.supportsDeveloperRole: falseafin d’éviter les erreurs 400 du fournisseur pour les rôlesdevelopernon pris en charge. - Les routes de style proxy compatibles OpenAI ignorent aussi la mise en forme de requêtes native propre à OpenAI : pas de
service_tier, pas destoreResponses, pas destoreCompletions, pas d’indications de cache de prompt, pas de mise en forme de payload de compatibilité de raisonnement OpenAI, et pas d’en-têtes d’attribution OpenClaw masqués. - Pour les proxys Completions compatibles OpenAI qui nécessitent des champs propres au fournisseur, définissez
agents.defaults.models["provider/model"].params.extra_body(ouextraBody) pour fusionner du JSON supplémentaire dans le corps de requête sortant. - Pour les contrôles de modèle de chat vLLM, définissez
agents.defaults.models["provider/model"].params.chat_template_kwargs. Le Plugin vLLM groupé envoie automatiquementenable_thinking: falseetforce_nonempty_content: truepourvllm/nemotron-3-*lorsque le niveau de raisonnement de la session est désactivé. - Pour les modèles locaux lents ou les hôtes LAN/tailnet distants, définissez
models.providers.<id>.timeoutSeconds. Cela étend la gestion des requêtes HTTP du modèle fournisseur, y compris la connexion, les en-têtes, le streaming du corps et l’abandon total de la récupération protégée, sans augmenter le délai d’exécution global de l’agent. - Les appels HTTP au fournisseur de modèles autorisent les réponses DNS fake-IP de Surge, Clash et sing-box en
198.18.0.0/15etfc00::/7uniquement pour le nom d’hôtebaseUrldu fournisseur configuré. Les autres destinations privées, de loopback, link-local et de métadonnées nécessitent toujours une activation explicitemodels.providers.<id>.request.allowPrivateNetwork: true. - Si
baseUrlest vide/omis, OpenClaw conserve le comportement OpenAI par défaut (qui se résout enapi.openai.com). - Par sécurité, un
compat.supportsDeveloperRole: trueexplicite est toujours remplacé sur les points de terminaisonopenai-completionsnon natifs. - Pour
api: "anthropic-messages"sur les points de terminaison non directs (tout fournisseur autre que leanthropiccanonique, ou unmodels.providers.anthropic.baseUrlpersonnalisé dont l’hôte n’est pas un point de terminaison publicapi.anthropic.com), OpenClaw supprime les en-têtes bêta Anthropic implicites tels queclaude-code-20250219,interleaved-thinking-2025-05-14et les marqueurs OAuth, afin que les proxys personnalisés compatibles Anthropic ne rejettent pas des indicateurs bêta non pris en charge. Définissez explicitementmodels.providers.<id>.headers["anthropic-beta"]si votre proxy a besoin de fonctionnalités bêta spécifiques.
Exemples CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Voir aussi : Configuration pour des exemples de configuration complets.
Connexe
- Référence de configuration - clés de configuration des modèles
- Basculement de modèle - chaînes de repli et comportement de nouvelle tentative
- Modèles - configuration des modèles et alias
- Fournisseurs - guides de configuration par fournisseur