Concepts and configuration

Fournisseurs de modèles

Référence pour les fournisseurs LLM/modèles (pas les canaux de chat comme WhatsApp/Telegram). Pour les règles de sélection de modèles, consultez Modèles.

Règles rapides

Références de modèles et assistants CLI
  • Les références de modèles utilisent provider/model (exemple : opencode/claude-opus-4-6).
  • agents.defaults.models agit comme une liste d’autorisation lorsqu’il est défini.
  • Assistants CLI : openclaw onboard, openclaw models list, openclaw models set <provider/model>.
  • models.providers.*.contextWindow / contextTokens / maxTokens définissent les valeurs par défaut au niveau du fournisseur ; models.providers.*.models[].contextWindow / contextTokens / maxTokens les remplacent par modèle.
  • Règles de repli, sondes de délai de récupération et persistance des remplacements de session : Basculement de modèle.
Ajouter l’authentification d’un fournisseur ne change pas votre modèle principal

openclaw configure préserve un agents.defaults.model.primary existant lorsque vous ajoutez ou réauthentifiez un fournisseur. Les Plugins fournisseurs peuvent toujours renvoyer un modèle par défaut recommandé dans leur correctif de configuration d’authentification, mais configure traite cela comme « rendre ce modèle disponible » lorsqu’un modèle principal existe déjà, et non comme « remplacer le modèle principal actuel ».

Pour changer volontairement le modèle par défaut, utilisez openclaw models set <provider/model> ou openclaw models auth login --provider <id> --set-default.

Séparation fournisseur/runtime OpenAI

Les routes de la famille OpenAI sont propres à chaque préfixe :

  • openai/<model> avec agents.defaults.agentRuntime.id: "codex" utilise le harnais natif de serveur d’application Codex. C’est la configuration habituelle d’abonnement ChatGPT/Codex.
  • openai-codex/<model> utilise OAuth Codex dans PI.
  • openai/<model> sans remplacement de runtime Codex utilise le fournisseur direct OpenAI par clé API dans PI.

Consultez OpenAI et Harnais Codex. Si la séparation fournisseur/runtime prête à confusion, lisez d’abord Runtimes d’agent.

L’activation automatique des Plugins suit la même limite : openai-codex/<model> appartient au Plugin OpenAI, tandis que le Plugin Codex est activé par agentRuntime.id: "codex" ou les références historiques codex/<model>.

GPT-5.5 est disponible via le harnais natif de serveur d’application Codex lorsque agentRuntime.id: "codex" est défini, via openai-codex/gpt-5.5 dans PI pour OAuth Codex, et via openai/gpt-5.5 dans PI pour le trafic direct par clé API lorsque votre compte l’expose.

Runtimes CLI

Les runtimes CLI utilisent la même séparation : choisissez des références de modèles canoniques comme anthropic/claude-*, google/gemini-* ou openai/gpt-*, puis définissez agents.defaults.agentRuntime.id sur claude-cli, google-gemini-cli ou codex-cli lorsque vous voulez un backend CLI local.

Les références historiques claude-cli/*, google-gemini-cli/* et codex-cli/* migrent vers des références de fournisseurs canoniques, avec le runtime enregistré séparément.

Comportement fournisseur détenu par le Plugin

La plupart de la logique propre aux fournisseurs réside dans les Plugins fournisseurs (registerProvider(...)), tandis qu’OpenClaw conserve la boucle d’inférence générique. Les Plugins détiennent l’onboarding, les catalogues de modèles, la correspondance des variables d’environnement d’authentification, la normalisation transport/config, le nettoyage des schémas d’outils, la classification du basculement, le rafraîchissement OAuth, le reporting d’utilisation, les profils de pensée/raisonnement, et plus encore.

La liste complète des hooks SDK fournisseur et des exemples de Plugins intégrés se trouve dans Plugins fournisseurs. Un fournisseur qui nécessite un exécuteur de requêtes totalement personnalisé relève d’une surface d’extension distincte et plus profonde.

Rotation des clés API

Sources de clés et priorité

Configurez plusieurs clés via :

  • OPENCLAW_LIVE_&lt;PROVIDER&gt;_KEY (remplacement live unique, priorité la plus élevée)
  • &lt;PROVIDER&gt;_API_KEYS (liste séparée par virgules ou points-virgules)
  • &lt;PROVIDER&gt;_API_KEY (clé principale)
  • &lt;PROVIDER&gt;_API_KEY_* (liste numérotée, par exemple &lt;PROVIDER&gt;_API_KEY_1)

Pour les fournisseurs Google, GOOGLE_API_KEY est également inclus comme repli. L’ordre de sélection des clés préserve la priorité et déduplique les valeurs.

Quand la rotation se déclenche
  • Les requêtes sont retentées avec la clé suivante uniquement sur les réponses de limite de débit (par exemple 429, rate_limit, quota, resource exhausted, Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded ou les messages périodiques de limite d’utilisation).
  • Les échecs qui ne relèvent pas d’une limite de débit échouent immédiatement ; aucune rotation de clé n’est tentée.
  • Lorsque toutes les clés candidates échouent, l’erreur finale est renvoyée depuis la dernière tentative.

Fournisseurs intégrés (catalogue pi-ai)

OpenClaw est livré avec le catalogue pi-ai. Ces fournisseurs ne nécessitent aucune configuration models.providers ; définissez simplement l’authentification et choisissez un modèle.

OpenAI

  • Fournisseur : openai
  • Authentification : OPENAI_API_KEY
  • Rotation facultative : OPENAI_API_KEYS, OPENAI_API_KEY_1, OPENAI_API_KEY_2, plus OPENCLAW_LIVE_OPENAI_KEY (remplacement unique)
  • Exemples de modèles : openai/gpt-5.5, openai/gpt-5.4-mini
  • Vérifiez la disponibilité du compte/modèle avec openclaw models list --provider openai si une installation ou une clé API précise se comporte différemment.
  • CLI : openclaw onboard --auth-choice openai-api-key
  • Le transport par défaut est auto (WebSocket d’abord, repli SSE)
  • Remplacement par modèle via agents.defaults.models["openai/<model>"].params.transport ("sse", "websocket" ou "auto")
  • Le préchauffage WebSocket OpenAI Responses est activé par défaut via params.openaiWsWarmup (true/false)
  • Le traitement prioritaire OpenAI peut être activé via agents.defaults.models["openai/<model>"].params.serviceTier
  • /fast et params.fastMode associent les requêtes Responses directes openai/* à service_tier=priority sur api.openai.com
  • Utilisez params.serviceTier lorsque vous voulez un niveau explicite plutôt que le basculeur partagé /fast
  • Les en-têtes d’attribution OpenClaw masqués (originator, version, User-Agent) s’appliquent uniquement au trafic OpenAI natif vers api.openai.com, pas aux proxys génériques compatibles OpenAI
  • Les routes OpenAI natives conservent également store de Responses, les indications de cache de prompt et la mise en forme de payload compatible avec le raisonnement OpenAI ; les routes proxy ne le font pas
  • openai/gpt-5.3-codex-spark est volontairement supprimé dans OpenClaw, car les requêtes live à l’API OpenAI le rejettent et le catalogue Codex actuel ne l’expose pas
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • Fournisseur : anthropic
  • Authentification : ANTHROPIC_API_KEY
  • Rotation facultative : ANTHROPIC_API_KEYS, ANTHROPIC_API_KEY_1, ANTHROPIC_API_KEY_2, plus OPENCLAW_LIVE_ANTHROPIC_KEY (remplacement unique)
  • Exemple de modèle : anthropic/claude-opus-4-6
  • CLI : openclaw onboard --auth-choice apiKey
  • Les requêtes Anthropic publiques directes prennent en charge le basculeur partagé /fast et params.fastMode, y compris le trafic authentifié par clé API et OAuth envoyé à api.anthropic.com ; OpenClaw l’associe au service_tier Anthropic (auto contre standard_only)
  • La configuration Claude CLI préférée conserve la référence de modèle canonique et sélectionne le backend CLI séparément : anthropic/claude-opus-4-7 avec agents.defaults.agentRuntime.id: "claude-cli". Les références historiques claude-cli/claude-opus-4-7 fonctionnent toujours pour la compatibilité.
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex OAuth

  • Fournisseur : openai-codex
  • Authentification : OAuth (ChatGPT)
  • Référence de modèle PI : openai-codex/gpt-5.5
  • Référence du harnais natif de serveur d’application Codex : openai/gpt-5.5 avec agents.defaults.agentRuntime.id: "codex"
  • Documentation du harnais natif de serveur d’application Codex : Harnais Codex
  • Références de modèles historiques : codex/gpt-*
  • Limite de Plugin : openai-codex/* charge le Plugin OpenAI ; le Plugin natif de serveur d’application Codex n’est sélectionné que par le runtime de harnais Codex ou les références historiques codex/*.
  • CLI : openclaw onboard --auth-choice openai-codex ou openclaw models auth login --provider openai-codex
  • Le transport par défaut est auto (WebSocket d’abord, repli SSE)
  • Remplacement par modèle PI via agents.defaults.models["openai-codex/<model>"].params.transport ("sse", "websocket" ou "auto")
  • params.serviceTier est également transmis sur les requêtes Responses Codex natives (chatgpt.com/backend-api)
  • Les en-têtes d’attribution OpenClaw masqués (originator, version, User-Agent) ne sont ajoutés que sur le trafic Codex natif vers chatgpt.com/backend-api, pas aux proxys génériques compatibles OpenAI
  • Partage la même configuration de basculeur /fast et params.fastMode que openai/* direct ; OpenClaw l’associe à service_tier=priority
  • openai-codex/gpt-5.5 utilise le contextWindow = 400000 natif du catalogue Codex et le runtime par défaut contextTokens = 272000 ; remplacez le plafond de runtime avec models.providers.openai-codex.models[].contextTokens
  • Note de politique : OpenAI Codex OAuth est explicitement pris en charge pour les outils/workflows externes comme OpenClaw.
  • Pour la route courante abonnement plus runtime Codex natif, connectez-vous avec l’authentification openai-codex mais configurez openai/gpt-5.5 plus agents.defaults.agentRuntime.id: "codex".
  • Utilisez openai-codex/gpt-5.5 uniquement lorsque vous voulez la route OAuth/abonnement Codex via PI ; utilisez openai/gpt-5.5 sans le remplacement du runtime Codex lorsque votre configuration par clé API et votre catalogue local exposent la route d’API publique.
  • Les anciennes références openai-codex/gpt-5.1*, openai-codex/gpt-5.2* et openai-codex/gpt-5.3* sont supprimées, car les comptes ChatGPT/Codex OAuth les rejettent ; utilisez plutôt openai-codex/gpt-5.5 ou la route de runtime Codex native.
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

Autres options hébergées de type abonnement

OpenCode

  • Authentification : OPENCODE_API_KEY (ou OPENCODE_ZEN_API_KEY)
  • Fournisseur de runtime Zen : opencode
  • Fournisseur de runtime Go : opencode-go
  • Exemples de modèles : opencode/claude-opus-4-6, opencode-go/kimi-k2.6
  • CLI : openclaw onboard --auth-choice opencode-zen ou openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (clé API)

  • Fournisseur : google
  • Authentification : GEMINI_API_KEY
  • Rotation facultative : GEMINI_API_KEYS, GEMINI_API_KEY_1, GEMINI_API_KEY_2, repli GOOGLE_API_KEY, et OPENCLAW_LIVE_GEMINI_KEY (remplacement unique)
  • Modèles d’exemple : google/gemini-3.1-pro-preview, google/gemini-3-flash-preview
  • Compatibilité : la configuration OpenClaw héritée utilisant google/gemini-3.1-flash-preview est normalisée en google/gemini-3-flash-preview
  • Alias : google/gemini-3.1-pro est accepté et normalisé vers l’identifiant Gemini API actif de Google, google/gemini-3.1-pro-preview
  • CLI : openclaw onboard --auth-choice gemini-api-key
  • Réflexion : /think adaptive utilise la réflexion dynamique de Google. Gemini 3/3.1 omettent un thinkingLevel fixe ; Gemini 2.5 envoie thinkingBudget: -1.
  • Les exécutions Gemini directes acceptent aussi agents.defaults.models["google/<model>"].params.cachedContent (ou l’héritage cached_content) pour transmettre un identifiant natif du fournisseur cachedContents/... ; les lectures du cache Gemini apparaissent dans OpenClaw sous forme de cacheRead

Google Vertex et Gemini CLI

  • Fournisseurs : google-vertex, google-gemini-cli
  • Authentification : Vertex utilise gcloud ADC ; Gemini CLI utilise son flux OAuth

Gemini CLI OAuth est fourni dans le cadre du plugin google inclus.

  • Installer Gemini CLI

    brew

    brew install gemini-cli
    

    npm

    npm install -g @google/gemini-cli
    
  • Activer le plugin

    openclaw plugins enable google
    
  • Connexion

    openclaw models auth login --provider google-gemini-cli --set-default
    

    Modèle par défaut : google-gemini-cli/gemini-3-flash-preview. Vous ne collez pas d’identifiant client ni de secret dans openclaw.json. Le flux de connexion de la CLI stocke les jetons dans les profils d’authentification sur l’hôte Gateway.

  • Définir le projet (si nécessaire)

    Si les requêtes échouent après la connexion, définissez GOOGLE_CLOUD_PROJECT ou GOOGLE_CLOUD_PROJECT_ID sur l’hôte Gateway.

  • Les réponses JSON de Gemini CLI sont analysées depuis response ; l’utilisation se rabat sur stats, avec stats.cached normalisé en cacheRead OpenClaw.

    Z.AI (GLM)

    • Fournisseur : zai
    • Authentification : ZAI_API_KEY
    • Modèle d’exemple : zai/glm-5.1
    • CLI : openclaw onboard --auth-choice zai-api-key
      • Alias : z.ai/* et z-ai/* sont normalisés en zai/*
      • zai-api-key détecte automatiquement le point de terminaison Z.AI correspondant ; zai-coding-global, zai-coding-cn, zai-global et zai-cn forcent une surface spécifique

    Vercel AI Gateway

    • Fournisseur : vercel-ai-gateway
    • Authentification : AI_GATEWAY_API_KEY
    • Modèles d’exemple : vercel-ai-gateway/anthropic/claude-opus-4.6, vercel-ai-gateway/moonshotai/kimi-k2.6
    • CLI : openclaw onboard --auth-choice ai-gateway-api-key

    Kilo Gateway

    • Fournisseur : kilocode
    • Authentification : KILOCODE_API_KEY
    • Modèle d’exemple : kilocode/kilo/auto
    • CLI : openclaw onboard --auth-choice kilocode-api-key
    • URL de base : https://api.kilo.ai/api/gateway/
    • Le catalogue de repli statique inclut kilocode/kilo/auto ; la découverte active via https://api.kilo.ai/api/gateway/models peut étendre davantage le catalogue d’exécution.
    • Le routage amont exact derrière kilocode/kilo/auto appartient à Kilo Gateway et n’est pas codé en dur dans OpenClaw.

    Consultez /providers/kilocode pour les détails de configuration.

    Autres plugins de fournisseurs inclus

    Fournisseur Id Env d’authentification Modèle d’exemple
    BytePlus byteplus / byteplus-plan BYTEPLUS_API_KEY byteplus-plan/ark-code-latest
    Cerebras cerebras CEREBRAS_API_KEY cerebras/zai-glm-4.7
    Cloudflare AI Gateway cloudflare-ai-gateway CLOUDFLARE_AI_GATEWAY_API_KEY -
    DeepInfra deepinfra DEEPINFRA_API_KEY deepinfra/deepseek-ai/DeepSeek-V3.2
    DeepSeek deepseek DEEPSEEK_API_KEY deepseek/deepseek-v4-flash
    GitHub Copilot github-copilot COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN -
    Groq groq GROQ_API_KEY -
    Hugging Face Inference huggingface HUGGINGFACE_HUB_TOKEN ou HF_TOKEN huggingface/deepseek-ai/DeepSeek-R1
    Kilo Gateway kilocode KILOCODE_API_KEY kilocode/kilo/auto
    Kimi Coding kimi KIMI_API_KEY ou KIMICODE_API_KEY kimi/kimi-code
    MiniMax minimax / minimax-portal MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN minimax/MiniMax-M2.7
    Mistral mistral MISTRAL_API_KEY mistral/mistral-large-latest
    Moonshot moonshot MOONSHOT_API_KEY moonshot/kimi-k2.6
    NVIDIA nvidia NVIDIA_API_KEY nvidia/nvidia/nemotron-3-super-120b-a12b
    OpenRouter openrouter OPENROUTER_API_KEY openrouter/auto
    Qianfan qianfan QIANFAN_API_KEY qianfan/deepseek-v3.2
    Qwen Cloud qwen QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY qwen/qwen3.5-plus
    StepFun stepfun / stepfun-plan STEPFUN_API_KEY stepfun/step-3.5-flash
    Together together TOGETHER_API_KEY together/moonshotai/Kimi-K2.5
    Venice venice VENICE_API_KEY -
    Vercel AI Gateway vercel-ai-gateway AI_GATEWAY_API_KEY vercel-ai-gateway/anthropic/claude-opus-4.6
    Volcano Engine (Doubao) volcengine / volcengine-plan VOLCANO_ENGINE_API_KEY volcengine-plan/ark-code-latest
    xAI xai XAI_API_KEY xai/grok-4.3
    Xiaomi xiaomi XIAOMI_API_KEY xiaomi/mimo-v2-flash

    Particularités à connaître

    OpenRouter

    Applique ses en-têtes d’attribution d’application et les marqueurs Anthropic cache_control uniquement sur les routes openrouter.ai vérifiées. Les références DeepSeek, Moonshot et ZAI sont éligibles au TTL de cache pour la mise en cache des prompts gérée par OpenRouter, mais ne reçoivent pas les marqueurs de cache Anthropic. En tant que chemin proxy compatible OpenAI, il ignore le façonnage réservé à OpenAI natif (serviceTier, Responses store, indices de cache de prompt, compatibilité de raisonnement OpenAI). Les références adossées à Gemini conservent uniquement l’assainissement proxy-Gemini des signatures de pensée.

    Kilo Gateway

    Les références adossées à Gemini suivent le même chemin d’assainissement proxy-Gemini ; kilocode/kilo/auto et les autres références proxy ne prenant pas en charge le raisonnement ignorent l’injection de raisonnement proxy.

    MiniMax

    L’intégration par clé API écrit des définitions explicites de modèles de chat M2.7 en texte seul ; la compréhension d’image reste sur le fournisseur multimédia MiniMax-VL-01 détenu par le Plugin.

    NVIDIA

    Les identifiants de modèle utilisent un espace de noms nvidia/<vendor>/<model> (par exemple nvidia/nvidia/nemotron-... avec nvidia/moonshotai/kimi-k2.5) ; les sélecteurs préservent la composition littérale <provider>/<model-id> tandis que la clé canonique envoyée à l’API reste préfixée une seule fois.

    xAI

    Utilise le chemin Responses de xAI. grok-4.3 est le modèle de chat par défaut inclus. /fast ou params.fastMode: true réécrit grok-3, grok-3-mini, grok-4 et grok-4-0709 vers leurs variantes *-fast. tool_stream est activé par défaut ; désactivez-le via agents.defaults.models["xai/<model>"].params.tool_stream=false.

    Cerebras

    Livré comme Plugin fournisseur cerebras inclus. GLM utilise zai-glm-4.7 ; l’URL de base compatible OpenAI est https://api.cerebras.ai/v1.

    Fournisseurs via models.providers (URL personnalisée/de base)

    Utilisez models.providers (ou models.json) pour ajouter des fournisseurs personnalisés ou des proxys compatibles OpenAI/Anthropic.

    Beaucoup des Plugins fournisseurs inclus ci-dessous publient déjà un catalogue par défaut. Utilisez des entrées explicites models.providers.<id> uniquement lorsque vous voulez remplacer l’URL de base, les en-têtes ou la liste de modèles par défaut.

    Les vérifications de capacités de modèle du Gateway lisent aussi les métadonnées explicites models.providers.<id>.models[]. Si un modèle personnalisé ou proxy accepte les images, définissez input: ["text", "image"] sur ce modèle afin que WebChat et les chemins de pièces jointes d’origine nœud transmettent les images comme entrées natives de modèle au lieu de références multimédias en texte seul.

    Moonshot AI (Kimi)

    Moonshot est livré comme Plugin fournisseur inclus. Utilisez le fournisseur intégré par défaut, et ajoutez une entrée explicite models.providers.moonshot uniquement lorsque vous devez remplacer l’URL de base ou les métadonnées de modèle :

    • Fournisseur : moonshot
    • Authentification : MOONSHOT_API_KEY
    • Exemple de modèle : moonshot/kimi-k2.6
    • CLI : openclaw onboard --auth-choice moonshot-api-key ou openclaw onboard --auth-choice moonshot-api-key-cn

    Identifiants de modèles Kimi K2 :

    • moonshot/kimi-k2.6
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
    • moonshot/kimi-k2-turbo
    {
      agents: {
        defaults: { model: { primary: "moonshot/kimi-k2.6" } },
      },
      models: {
        mode: "merge",
        providers: {
          moonshot: {
            baseUrl: "https://api.moonshot.ai/v1",
            apiKey: "${MOONSHOT_API_KEY}",
            api: "openai-completions",
            models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
          },
        },
      },
    }
    

    Codage Kimi

    Kimi Coding utilise le point de terminaison compatible Anthropic de Moonshot AI :

    • Fournisseur : kimi
    • Authentification : KIMI_API_KEY
    • Exemple de modèle : kimi/kimi-code
    {
      env: { KIMI_API_KEY: "sk-..." },
      agents: {
        defaults: { model: { primary: "kimi/kimi-code" } },
      },
    }
    

    L’ancien kimi/k2p5 reste accepté comme identifiant de modèle de compatibilité.

    Volcano Engine (Doubao)

    Volcano Engine (火山引擎) donne accès à Doubao et à d’autres modèles en Chine.

    • Fournisseur : volcengine (codage : volcengine-plan)
    • Authentification : VOLCANO_ENGINE_API_KEY
    • Exemple de modèle : volcengine-plan/ark-code-latest
    • CLI : openclaw onboard --auth-choice volcengine-api-key
    {
      agents: {
        defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
      },
    }
    

    L’intégration utilise par défaut la surface de codage, mais le catalogue général volcengine/* est enregistré en même temps.

    Dans les sélecteurs de modèles d’intégration/configuration, le choix d’authentification Volcengine privilégie les lignes volcengine/* et volcengine-plan/*. Si ces modèles ne sont pas encore chargés, OpenClaw revient au catalogue non filtré au lieu d’afficher un sélecteur vide limité au fournisseur.

    Modèles standard

    • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
    • volcengine/doubao-seed-code-preview-251028
    • volcengine/kimi-k2-5-260127 (Kimi K2.5)
    • volcengine/glm-4-7-251222 (GLM 4.7)
    • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

    Modèles de codage (volcengine-plan)

    • volcengine-plan/ark-code-latest
    • volcengine-plan/doubao-seed-code
    • volcengine-plan/kimi-k2.5
    • volcengine-plan/kimi-k2-thinking
    • volcengine-plan/glm-4.7

    BytePlus (International)

    BytePlus ARK donne accès aux mêmes modèles que Volcano Engine pour les utilisateurs internationaux.

    • Fournisseur : byteplus (codage : byteplus-plan)
    • Authentification : BYTEPLUS_API_KEY
    • Exemple de modèle : byteplus-plan/ark-code-latest
    • CLI : openclaw onboard --auth-choice byteplus-api-key
    {
      agents: {
        defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
      },
    }
    

    L’intégration utilise par défaut la surface de codage, mais le catalogue général byteplus/* est enregistré en même temps.

    Dans les sélecteurs de modèles d’intégration/configuration, le choix d’authentification BytePlus privilégie les lignes byteplus/* et byteplus-plan/*. Si ces modèles ne sont pas encore chargés, OpenClaw revient au catalogue non filtré au lieu d’afficher un sélecteur vide limité au fournisseur.

    Modèles standard

    • byteplus/seed-1-8-251228 (Seed 1.8)
    • byteplus/kimi-k2-5-260127 (Kimi K2.5)
    • byteplus/glm-4-7-251222 (GLM 4.7)

    Modèles de codage (byteplus-plan)

    • byteplus-plan/ark-code-latest
    • byteplus-plan/doubao-seed-code
    • byteplus-plan/kimi-k2.5
    • byteplus-plan/kimi-k2-thinking
    • byteplus-plan/glm-4.7

    Synthetic

    Synthetic fournit des modèles compatibles Anthropic derrière le fournisseur synthetic :

    • Fournisseur : synthetic
    • Authentification : SYNTHETIC_API_KEY
    • Exemple de modèle : synthetic/hf:MiniMaxAI/MiniMax-M2.5
    • CLI : openclaw onboard --auth-choice synthetic-api-key
    {
      agents: {
        defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
      },
      models: {
        mode: "merge",
        providers: {
          synthetic: {
            baseUrl: "https://api.synthetic.new/anthropic",
            apiKey: "${SYNTHETIC_API_KEY}",
            api: "anthropic-messages",
            models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
          },
        },
      },
    }
    

    MiniMax

    MiniMax se configure via models.providers, car il utilise des points de terminaison personnalisés :

    • MiniMax OAuth (Global) : --auth-choice minimax-global-oauth
    • MiniMax OAuth (CN) : --auth-choice minimax-cn-oauth
    • Clé d’API MiniMax (Global) : --auth-choice minimax-global-api
    • Clé d’API MiniMax (CN) : --auth-choice minimax-cn-api
    • Authentification : MINIMAX_API_KEY pour minimax ; MINIMAX_OAUTH_TOKEN ou MINIMAX_API_KEY pour minimax-portal

    Consultez /providers/minimax pour les détails de configuration, les options de modèles et les extraits de configuration.

    Répartition des capacités détenue par le Plugin :

    • Les valeurs par défaut texte/chat restent sur minimax/MiniMax-M2.7
    • La génération d’images est minimax/image-01 ou minimax-portal/image-01
    • La compréhension d’images est MiniMax-VL-01, détenue par le Plugin, sur les deux chemins d’authentification MiniMax
    • La recherche web reste sur l’identifiant de fournisseur minimax

    LM Studio

    LM Studio est livré comme Plugin de fournisseur groupé qui utilise l’API native :

    • Fournisseur : lmstudio
    • Authentification : LM_API_TOKEN
    • URL de base d’inférence par défaut : http://localhost:1234/v1

    Définissez ensuite un modèle (remplacez par l’un des identifiants renvoyés par http://localhost:1234/api/v1/models) :

    {
      agents: {
        defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
      },
    }
    

    OpenClaw utilise les points de terminaison natifs /api/v1/models et /api/v1/models/load de LM Studio pour la découverte et le chargement automatique, avec /v1/chat/completions pour l’inférence par défaut. Si vous voulez que le chargement JIT, le TTL et l’éviction automatique de LM Studio gèrent le cycle de vie des modèles, définissez models.providers.lmstudio.params.preload: false. Consultez /providers/lmstudio pour la configuration et le dépannage.

    Ollama

    Ollama est livré comme Plugin de fournisseur groupé et utilise l’API native d’Ollama :

    • Fournisseur : ollama
    • Authentification : aucune requise (serveur local)
    • Exemple de modèle : ollama/llama3.3
    • Installation : https://ollama.com/download
    # Install Ollama, then pull a model:
    ollama pull llama3.3
    
    {
      agents: {
        defaults: { model: { primary: "ollama/llama3.3" } },
      },
    }
    

    Ollama est détecté localement à http://127.0.0.1:11434 lorsque vous l’activez avec OLLAMA_API_KEY, et le Plugin de fournisseur groupé ajoute Ollama directement à openclaw onboard et au sélecteur de modèles. Consultez /providers/ollama pour l’intégration, le mode cloud/local et la configuration personnalisée.

    vLLM

    vLLM est livré comme Plugin de fournisseur groupé pour les serveurs locaux/auto-hébergés compatibles OpenAI :

    • Fournisseur : vllm
    • Authentification : facultative (dépend de votre serveur)
    • URL de base par défaut : http://127.0.0.1:8000/v1

    Pour activer la découverte automatique localement (n’importe quelle valeur convient si votre serveur n’impose pas l’authentification) :

    export VLLM_API_KEY="vllm-local"
    

    Définissez ensuite un modèle (remplacez par l’un des identifiants renvoyés par /v1/models) :

    {
      agents: {
        defaults: { model: { primary: "vllm/your-model-id" } },
      },
    }
    

    Consultez /providers/vllm pour plus de détails.

    SGLang

    SGLang est livré comme Plugin de fournisseur groupé pour les serveurs rapides auto-hébergés compatibles OpenAI :

    • Fournisseur : sglang
    • Authentification : facultative (dépend de votre serveur)
    • URL de base par défaut : http://127.0.0.1:30000/v1

    Pour activer la découverte automatique localement (n’importe quelle valeur convient si votre serveur n’impose pas l’authentification) :

    export SGLANG_API_KEY="sglang-local"
    

    Définissez ensuite un modèle (remplacez par l’un des identifiants renvoyés par /v1/models) :

    {
      agents: {
        defaults: { model: { primary: "sglang/your-model-id" } },
      },
    }
    

    Consultez /providers/sglang pour plus de détails.

    Proxys locaux (LM Studio, vLLM, LiteLLM, etc.)

    Exemple (compatible OpenAI) :

    {
      agents: {
        defaults: {
          model: { primary: "lmstudio/my-local-model" },
          models: { "lmstudio/my-local-model": { alias: "Local" } },
        },
      },
      models: {
        providers: {
          lmstudio: {
            baseUrl: "http://localhost:1234/v1",
            apiKey: "${LM_API_TOKEN}",
            api: "openai-completions",
            timeoutSeconds: 300,
            models: [
              {
                id: "my-local-model",
                name: "Local Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 200000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    
    Champs facultatifs par défaut

    Pour les fournisseurs personnalisés, reasoning, input, cost, contextWindow et maxTokens sont facultatifs. Lorsqu’ils sont omis, OpenClaw utilise par défaut :

    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192

    Recommandation : définissez des valeurs explicites qui correspondent aux limites de votre proxy/modèle.

    Règles de mise en forme des routes de proxy
    • Pour api: "openai-completions" sur les points de terminaison non natifs (tout baseUrl non vide dont l’hôte n’est pas api.openai.com), OpenClaw force compat.supportsDeveloperRole: false afin d’éviter les erreurs 400 du fournisseur pour les rôles developer non pris en charge.
    • Les routes de style proxy compatibles OpenAI ignorent aussi la mise en forme de requêtes native propre à OpenAI : pas de service_tier, pas de store Responses, pas de store Completions, pas d’indications de cache de prompt, pas de mise en forme de payload de compatibilité de raisonnement OpenAI, et pas d’en-têtes d’attribution OpenClaw masqués.
    • Pour les proxys Completions compatibles OpenAI qui nécessitent des champs propres au fournisseur, définissez agents.defaults.models["provider/model"].params.extra_body (ou extraBody) pour fusionner du JSON supplémentaire dans le corps de requête sortant.
    • Pour les contrôles de modèle de chat vLLM, définissez agents.defaults.models["provider/model"].params.chat_template_kwargs. Le Plugin vLLM groupé envoie automatiquement enable_thinking: false et force_nonempty_content: true pour vllm/nemotron-3-* lorsque le niveau de raisonnement de la session est désactivé.
    • Pour les modèles locaux lents ou les hôtes LAN/tailnet distants, définissez models.providers.<id>.timeoutSeconds. Cela étend la gestion des requêtes HTTP du modèle fournisseur, y compris la connexion, les en-têtes, le streaming du corps et l’abandon total de la récupération protégée, sans augmenter le délai d’exécution global de l’agent.
    • Les appels HTTP au fournisseur de modèles autorisent les réponses DNS fake-IP de Surge, Clash et sing-box en 198.18.0.0/15 et fc00::/7 uniquement pour le nom d’hôte baseUrl du fournisseur configuré. Les autres destinations privées, de loopback, link-local et de métadonnées nécessitent toujours une activation explicite models.providers.<id>.request.allowPrivateNetwork: true.
    • Si baseUrl est vide/omis, OpenClaw conserve le comportement OpenAI par défaut (qui se résout en api.openai.com).
    • Par sécurité, un compat.supportsDeveloperRole: true explicite est toujours remplacé sur les points de terminaison openai-completions non natifs.
    • Pour api: "anthropic-messages" sur les points de terminaison non directs (tout fournisseur autre que le anthropic canonique, ou un models.providers.anthropic.baseUrl personnalisé dont l’hôte n’est pas un point de terminaison public api.anthropic.com), OpenClaw supprime les en-têtes bêta Anthropic implicites tels que claude-code-20250219, interleaved-thinking-2025-05-14 et les marqueurs OAuth, afin que les proxys personnalisés compatibles Anthropic ne rejettent pas des indicateurs bêta non pris en charge. Définissez explicitement models.providers.<id>.headers["anthropic-beta"] si votre proxy a besoin de fonctionnalités bêta spécifiques.

    Exemples CLI

    openclaw onboard --auth-choice opencode-zen
    openclaw models set opencode/claude-opus-4-6
    openclaw models list
    

    Voir aussi : Configuration pour des exemples de configuration complets.

    Connexe