Concepts and configuration

模型供應商

LLM/模型供應商的參考資料(不是 WhatsApp/Telegram 這類聊天頻道)。如需模型選擇規則,請參閱模型

快速規則

模型參照與 CLI 輔助工具
  • 模型參照使用 provider/model(範例:opencode/claude-opus-4-6)。
  • 設定後,agents.defaults.models 會作為允許清單。
  • CLI 輔助工具:openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • models.providers.*.contextWindow / contextTokens / maxTokens 會設定供應商層級的預設值;models.providers.*.models[].contextWindow / contextTokens / maxTokens 會針對每個模型覆寫它們。
  • 備援規則、冷卻探測,以及工作階段覆寫持久化:模型容錯移轉
新增供應商驗證不會變更你的主要模型

當你新增或重新驗證供應商時,openclaw configure 會保留既有的 agents.defaults.model.primary。Provider plugins 仍可在其驗證設定修補中傳回建議的預設模型,但在主要模型已存在時,configure 會將其視為「讓此模型可用」,而不是「取代目前的主要模型」。

若要刻意切換預設模型,請使用 openclaw models set <provider/model>openclaw models auth login --provider <id> --set-default

OpenAI 供應商/執行環境拆分

OpenAI 系列路由以特定前綴區分:

  • openai/<model> 加上 agents.defaults.agentRuntime.id: "codex" 會使用原生 Codex 應用程式伺服器工具鏈。這是一般的 ChatGPT/Codex 訂閱設定。
  • openai-codex/<model> 會在 PI 中使用 Codex OAuth。
  • 沒有 Codex 執行環境覆寫的 openai/<model> 會在 PI 中使用直接的 OpenAI API 金鑰供應商。

請參閱 OpenAICodex 工具鏈。如果供應商/執行環境拆分令人困惑,請先閱讀代理程式執行環境

Plugin 自動啟用遵循相同邊界:openai-codex/<model> 屬於 OpenAI Plugin,而 Codex Plugin 會由 agentRuntime.id: "codex" 或舊版 codex/<model> 參照啟用。

設定 agentRuntime.id: "codex" 時,GPT-5.5 可透過原生 Codex 應用程式伺服器工具鏈使用;在 PI 中,Codex OAuth 可透過 openai-codex/gpt-5.5 使用;當你的帳戶公開該模型時,直接 API 金鑰流量可透過 PI 中的 openai/gpt-5.5 使用。

CLI 執行環境

CLI 執行環境使用相同拆分:選擇標準模型參照,例如 anthropic/claude-*google/gemini-*openai/gpt-*,然後在你想使用本機 CLI 後端時,將 agents.defaults.agentRuntime.id 設為 claude-cligoogle-gemini-clicodex-cli

舊版 claude-cli/*google-gemini-cli/*codex-cli/* 參照會遷移回標準供應商參照,並另外記錄執行環境。

Plugin 擁有的供應商行為

大多數供應商專屬邏輯都位於 provider plugins(registerProvider(...))中,而 OpenClaw 保留通用推論迴圈。Plugins 擁有上線流程、模型目錄、驗證環境變數對應、傳輸/設定正規化、工具結構描述清理、容錯移轉分類、OAuth 重新整理、用量回報、thinking/reasoning 設定檔,以及更多內容。

provider-SDK hooks 和 bundled-plugin 範例的完整清單位於 Provider plugins。需要完全自訂請求執行器的供應商屬於另一個更深層的擴充介面。

API 金鑰輪替

金鑰來源與優先順序

透過以下方式設定多個金鑰:

  • OPENCLAW_LIVE_&lt;PROVIDER&gt;_KEY(單一即時覆寫,最高優先順序)
  • &lt;PROVIDER&gt;_API_KEYS(逗號或分號清單)
  • &lt;PROVIDER&gt;_API_KEY(主要金鑰)
  • &lt;PROVIDER&gt;_API_KEY_*(編號清單,例如 &lt;PROVIDER&gt;_API_KEY_1

對於 Google 供應商,GOOGLE_API_KEY 也會作為備援納入。金鑰選擇順序會保留優先順序並對值去重。

輪替何時啟動
  • 只有在速率限制回應時,請求才會使用下一個金鑰重試(例如 429rate_limitquotaresource exhaustedToo many concurrent requestsThrottlingExceptionconcurrency limit reachedworkers_ai ... quota limit exceeded,或定期的用量限制訊息)。
  • 非速率限制失敗會立即失敗;不會嘗試金鑰輪替。
  • 當所有候選金鑰都失敗時,會傳回最後一次嘗試的最終錯誤。

內建供應商(pi-ai 目錄)

OpenClaw 隨附 pi-ai 目錄。這些供應商不需要任何 models.providers 設定;只要設定驗證並選擇模型即可。

OpenAI

  • 供應商:openai
  • 驗證:OPENAI_API_KEY
  • 選用輪替:OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2,加上 OPENCLAW_LIVE_OPENAI_KEY(單一覆寫)
  • 範例模型:openai/gpt-5.5openai/gpt-5.4-mini
  • 如果特定安裝或 API 金鑰的行為不同,請使用 openclaw models list --provider openai 驗證帳戶/模型可用性。
  • CLI:openclaw onboard --auth-choice openai-api-key
  • 預設傳輸為 auto(優先 WebSocket,SSE 備援)
  • 透過 agents.defaults.models["openai/<model>"].params.transport 針對每個模型覆寫("sse""websocket""auto"
  • OpenAI Responses WebSocket 預熱預設會透過 params.openaiWsWarmup 啟用(true/false
  • OpenAI 優先處理可透過 agents.defaults.models["openai/<model>"].params.serviceTier 啟用
  • /fastparams.fastMode 會將直接的 openai/* Responses 請求對應到 api.openai.com 上的 service_tier=priority
  • 當你想要明確層級,而不是共享的 /fast 切換時,請使用 params.serviceTier
  • 隱藏的 OpenClaw 歸因標頭(originatorversionUser-Agent)只套用於前往 api.openai.com 的原生 OpenAI 流量,不適用於通用 OpenAI 相容代理
  • 原生 OpenAI 路由也會保留 Responses store、提示快取提示,以及 OpenAI reasoning 相容酬載塑形;代理路由不會
  • openai/gpt-5.3-codex-spark 在 OpenClaw 中刻意被抑制,因為即時 OpenAI API 請求會拒絕它,且目前的 Codex 目錄不公開它
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • 供應商:anthropic
  • 驗證:ANTHROPIC_API_KEY
  • 選用輪替:ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2,加上 OPENCLAW_LIVE_ANTHROPIC_KEY(單一覆寫)
  • 範例模型:anthropic/claude-opus-4-6
  • CLI:openclaw onboard --auth-choice apiKey
  • 直接公開 Anthropic 請求支援共享的 /fast 切換和 params.fastMode,包括傳送到 api.anthropic.com 的 API 金鑰和 OAuth 驗證流量;OpenClaw 會將其對應到 Anthropic service_tierautostandard_only
  • 建議的 Claude CLI 設定會保留標準模型參照,並另外選擇 CLI 後端:anthropic/claude-opus-4-7 搭配 agents.defaults.agentRuntime.id: "claude-cli"。舊版 claude-cli/claude-opus-4-7 參照仍可相容使用。
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex OAuth

  • 供應商:openai-codex
  • 驗證:OAuth (ChatGPT)
  • PI 模型參照:openai-codex/gpt-5.5
  • 原生 Codex 應用程式伺服器工具鏈參照:openai/gpt-5.5 搭配 agents.defaults.agentRuntime.id: "codex"
  • 原生 Codex 應用程式伺服器工具鏈文件:Codex 工具鏈
  • 舊版模型參照:codex/gpt-*
  • Plugin 邊界:openai-codex/* 會載入 OpenAI Plugin;原生 Codex 應用程式伺服器 Plugin 只會由 Codex 工具鏈執行環境或舊版 codex/* 參照選取。
  • CLI:openclaw onboard --auth-choice openai-codexopenclaw models auth login --provider openai-codex
  • 預設傳輸為 auto(優先 WebSocket,SSE 備援)
  • 透過 agents.defaults.models["openai-codex/<model>"].params.transport 針對每個 PI 模型覆寫("sse""websocket""auto"
  • params.serviceTier 也會在原生 Codex Responses 請求(chatgpt.com/backend-api)上轉送
  • 隱藏的 OpenClaw 歸因標頭(originatorversionUser-Agent)只會附加到前往 chatgpt.com/backend-api 的原生 Codex 流量,不適用於通用 OpenAI 相容代理
  • 與直接 openai/* 共用相同的 /fast 切換和 params.fastMode 設定;OpenClaw 會將其對應到 service_tier=priority
  • openai-codex/gpt-5.5 使用 Codex 目錄原生的 contextWindow = 400000 和預設執行環境 contextTokens = 272000;可使用 models.providers.openai-codex.models[].contextTokens 覆寫執行環境上限
  • 政策備註:OpenAI Codex OAuth 明確支援 OpenClaw 這類外部工具/工作流程。
  • 對於常見的訂閱加原生 Codex 執行環境路由,請使用 openai-codex 驗證登入,但設定 openai/gpt-5.5 加上 agents.defaults.agentRuntime.id: "codex"
  • 只有當你想透過 PI 使用 Codex OAuth/訂閱路由時,才使用 openai-codex/gpt-5.5;當你的 API 金鑰設定和本機目錄公開公用 API 路由時,請使用不含 Codex 執行環境覆寫的 openai/gpt-5.5
  • 較舊的 openai-codex/gpt-5.1*openai-codex/gpt-5.2*openai-codex/gpt-5.3* 參照已被抑制,因為 ChatGPT/Codex OAuth 帳戶會拒絕它們;請改用 openai-codex/gpt-5.5 或原生 Codex 執行環境路由。
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

其他訂閱式託管選項

OpenCode

  • 驗證:OPENCODE_API_KEY(或 OPENCODE_ZEN_API_KEY
  • Zen 執行環境供應商:opencode
  • Go 執行環境供應商:opencode-go
  • 範例模型:opencode/claude-opus-4-6opencode-go/kimi-k2.6
  • CLI:openclaw onboard --auth-choice opencode-zenopenclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(API 金鑰)

  • 提供者:google
  • 驗證:GEMINI_API_KEY
  • 選用輪替:GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEY 後援,以及 OPENCLAW_LIVE_GEMINI_KEY(單一覆寫)
  • 範例模型:google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 相容性:使用 google/gemini-3.1-flash-preview 的舊版 OpenClaw 設定會正規化為 google/gemini-3-flash-preview
  • 別名:接受 google/gemini-3.1-pro,並正規化為 Google 的即時 Gemini API id:google/gemini-3.1-pro-preview
  • CLI:openclaw onboard --auth-choice gemini-api-key
  • 思考:/think adaptive 使用 Google 動態思考。Gemini 3/3.1 會省略固定的 thinkingLevel;Gemini 2.5 會傳送 thinkingBudget: -1
  • 直接 Gemini 執行也接受 agents.defaults.models["google/<model>"].params.cachedContent(或舊版 cached_content),以轉發提供者原生的 cachedContents/... 控制代碼;Gemini 快取命中會顯示為 OpenClaw cacheRead

Google Vertex 和 Gemini CLI

  • 提供者:google-vertexgoogle-gemini-cli
  • 驗證:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程

Gemini CLI OAuth 會作為內建 google Plugin 的一部分提供。

  • 安裝 Gemini CLI

    brew

    brew install gemini-cli
    

    npm

    npm install -g @google/gemini-cli
    
  • 啟用 Plugin

    openclaw plugins enable google
    
  • 登入

    openclaw models auth login --provider google-gemini-cli --set-default
    

    預設模型:google-gemini-cli/gemini-3-flash-preview。你不需要將用戶端 id 或密鑰貼到 openclaw.json。CLI 登入流程會將權杖儲存在 Gateway 主機上的驗證設定檔中。

  • 設定專案(如有需要)

    如果登入後請求失敗,請在 Gateway 主機上設定 GOOGLE_CLOUD_PROJECTGOOGLE_CLOUD_PROJECT_ID

  • Gemini CLI JSON 回覆會從 response 解析;用量會後援到 stats,並將 stats.cached 正規化為 OpenClaw cacheRead

    Z.AI (GLM)

    • 提供者:zai
    • 驗證:ZAI_API_KEY
    • 範例模型:zai/glm-5.1
    • CLI:openclaw onboard --auth-choice zai-api-key
      • 別名:z.ai/*z-ai/* 會正規化為 zai/*
      • zai-api-key 會自動偵測相符的 Z.AI 端點;zai-coding-globalzai-coding-cnzai-globalzai-cn 會強制使用特定介面

    Vercel AI Gateway

    • 提供者:vercel-ai-gateway
    • 驗證:AI_GATEWAY_API_KEY
    • 範例模型:vercel-ai-gateway/anthropic/claude-opus-4.6vercel-ai-gateway/moonshotai/kimi-k2.6
    • CLI:openclaw onboard --auth-choice ai-gateway-api-key

    Kilo Gateway

    • 提供者:kilocode
    • 驗證:KILOCODE_API_KEY
    • 範例模型:kilocode/kilo/auto
    • CLI:openclaw onboard --auth-choice kilocode-api-key
    • 基底 URL:https://api.kilo.ai/api/gateway/
    • 靜態後援目錄隨附 kilocode/kilo/auto;即時 https://api.kilo.ai/api/gateway/models 探索可以進一步擴充執行階段目錄。
    • kilocode/kilo/auto 背後的確切上游路由由 Kilo Gateway 擁有,不是在 OpenClaw 中硬編碼。

    設定詳細資訊請參閱 /providers/kilocode

    其他內建提供者 Plugin

    提供者 Id 驗證環境變數 範例模型
    BytePlus byteplus / byteplus-plan BYTEPLUS_API_KEY byteplus-plan/ark-code-latest
    Cerebras cerebras CEREBRAS_API_KEY cerebras/zai-glm-4.7
    Cloudflare AI Gateway cloudflare-ai-gateway CLOUDFLARE_AI_GATEWAY_API_KEY -
    DeepInfra deepinfra DEEPINFRA_API_KEY deepinfra/deepseek-ai/DeepSeek-V3.2
    DeepSeek deepseek DEEPSEEK_API_KEY deepseek/deepseek-v4-flash
    GitHub Copilot github-copilot COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN -
    Groq groq GROQ_API_KEY -
    Hugging Face Inference huggingface HUGGINGFACE_HUB_TOKENHF_TOKEN huggingface/deepseek-ai/DeepSeek-R1
    Kilo Gateway kilocode KILOCODE_API_KEY kilocode/kilo/auto
    Kimi Coding kimi KIMI_API_KEYKIMICODE_API_KEY kimi/kimi-code
    MiniMax minimax / minimax-portal MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN minimax/MiniMax-M2.7
    Mistral mistral MISTRAL_API_KEY mistral/mistral-large-latest
    Moonshot moonshot MOONSHOT_API_KEY moonshot/kimi-k2.6
    NVIDIA nvidia NVIDIA_API_KEY nvidia/nvidia/nemotron-3-super-120b-a12b
    OpenRouter openrouter OPENROUTER_API_KEY openrouter/auto
    Qianfan qianfan QIANFAN_API_KEY qianfan/deepseek-v3.2
    Qwen Cloud qwen QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY qwen/qwen3.5-plus
    StepFun stepfun / stepfun-plan STEPFUN_API_KEY stepfun/step-3.5-flash
    Together together TOGETHER_API_KEY together/moonshotai/Kimi-K2.5
    Venice venice VENICE_API_KEY -
    Vercel AI Gateway vercel-ai-gateway AI_GATEWAY_API_KEY vercel-ai-gateway/anthropic/claude-opus-4.6
    Volcano Engine (Doubao) volcengine / volcengine-plan VOLCANO_ENGINE_API_KEY volcengine-plan/ark-code-latest
    xAI xai XAI_API_KEY xai/grok-4.3
    Xiaomi xiaomi XIAOMI_API_KEY xiaomi/mimo-v2-flash

    值得知道的特殊情況

    OpenRouter

    僅在已驗證的 openrouter.ai 路由上套用其應用程式歸因標頭與 Anthropic cache_control 標記。DeepSeek、Moonshot 和 ZAI 參照符合由 OpenRouter 管理的提示快取 cache-TTL 資格,但不會收到 Anthropic 快取標記。作為代理式 OpenAI 相容路徑,它會略過僅限原生 OpenAI 的成形處理(serviceTier、Responses store、提示快取提示、OpenAI 推理相容性)。Gemini 支援的參照只保留代理 Gemini 思維簽章清理。

    Kilo Gateway

    Gemini 支援的參照遵循相同的代理 Gemini 清理路徑;kilocode/kilo/auto 和其他不支援代理推理的參照會略過代理推理注入。

    MiniMax

    API 金鑰上手流程會寫入明確的純文字 M2.7 聊天模型定義;圖像理解仍使用 Plugin 擁有的 MiniMax-VL-01 媒體提供者。

    NVIDIA

    模型 ID 使用 nvidia/<vendor>/<model> 命名空間(例如 nvidia/nvidia/nemotron-...nvidia/moonshotai/kimi-k2.5 並列);選擇器會保留字面上的 <provider>/<model-id> 組合,而傳送到 API 的標準鍵仍維持單一前綴。

    xAI

    使用 xAI Responses 路徑。grok-4.3 是內建的預設聊天模型。/fastparams.fastMode: true 會將 grok-3grok-3-minigrok-4grok-4-0709 改寫為其 *-fast 變體。tool_stream 預設開啟;可透過 agents.defaults.models["xai/<model>"].params.tool_stream=false 停用。

    Cerebras

    以內建的 cerebras 提供者 Plugin 隨附。GLM 使用 zai-glm-4.7;OpenAI 相容的基底 URL 是 https://api.cerebras.ai/v1

    透過 models.providers 使用提供者(自訂/基底 URL)

    使用 models.providers(或 models.json)新增自訂提供者或 OpenAI/Anthropic 相容代理。

    下方許多內建提供者 Plugin 已經發布預設目錄。只有在你想覆寫預設基底 URL、標頭或模型清單時,才使用明確的 models.providers.<id> 項目。

    Gateway 模型能力檢查也會讀取明確的 models.providers.<id>.models[] 中繼資料。如果自訂或代理模型接受圖像,請在該模型上設定 input: ["text", "image"],讓 WebChat 和 Node 來源附件路徑以原生模型輸入傳遞圖像,而不是純文字媒體參照。

    Moonshot AI (Kimi)

    Moonshot 以內建提供者 Plugin 隨附。預設使用內建提供者,只有在需要覆寫基底 URL 或模型中繼資料時,才新增明確的 models.providers.moonshot 項目:

    • 提供者:moonshot
    • 驗證:MOONSHOT_API_KEY
    • 範例模型:moonshot/kimi-k2.6
    • CLI:openclaw onboard --auth-choice moonshot-api-keyopenclaw onboard --auth-choice moonshot-api-key-cn

    Kimi K2 模型 ID:

    • moonshot/kimi-k2.6
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
    • moonshot/kimi-k2-turbo
    {
      agents: {
        defaults: { model: { primary: "moonshot/kimi-k2.6" } },
      },
      models: {
        mode: "merge",
        providers: {
          moonshot: {
            baseUrl: "https://api.moonshot.ai/v1",
            apiKey: "${MOONSHOT_API_KEY}",
            api: "openai-completions",
            models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
          },
        },
      },
    }
    

    Kimi Coding

    Kimi Coding 使用 Moonshot AI 的 Anthropic 相容端點:

    • 提供者:kimi
    • 驗證:KIMI_API_KEY
    • 範例模型:kimi/kimi-code
    {
      env: { KIMI_API_KEY: "sk-..." },
      agents: {
        defaults: { model: { primary: "kimi/kimi-code" } },
      },
    }
    

    Legacy kimi/k2p5 仍可作為相容性模型 ID 接受。

    Volcano Engine (Doubao)

    Volcano Engine (火山引擎) 在中國提供 Doubao 與其他模型的存取能力。

    • 提供者:volcengine(編碼:volcengine-plan
    • 驗證:VOLCANO_ENGINE_API_KEY
    • 範例模型:volcengine-plan/ark-code-latest
    • CLI:openclaw onboard --auth-choice volcengine-api-key
    {
      agents: {
        defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
      },
    }
    

    入門設定預設使用編碼介面,但一般 volcengine/* 目錄也會同時註冊。

    在入門設定/設定模型選擇器中,Volcengine 驗證選項會優先顯示 volcengine/*volcengine-plan/* 兩種列。如果這些模型尚未載入,OpenClaw 會改為回退到未篩選的目錄,而不是顯示空的提供者範圍選擇器。

    標準模型

    • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
    • volcengine/doubao-seed-code-preview-251028
    • volcengine/kimi-k2-5-260127 (Kimi K2.5)
    • volcengine/glm-4-7-251222 (GLM 4.7)
    • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

    編碼模型 (volcengine-plan)

    • volcengine-plan/ark-code-latest
    • volcengine-plan/doubao-seed-code
    • volcengine-plan/kimi-k2.5
    • volcengine-plan/kimi-k2-thinking
    • volcengine-plan/glm-4.7

    BytePlus(國際)

    BytePlus ARK 為國際使用者提供與 Volcano Engine 相同模型的存取能力。

    • 提供者:byteplus(編碼:byteplus-plan
    • 驗證:BYTEPLUS_API_KEY
    • 範例模型:byteplus-plan/ark-code-latest
    • CLI:openclaw onboard --auth-choice byteplus-api-key
    {
      agents: {
        defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
      },
    }
    

    入門設定預設使用編碼介面,但一般 byteplus/* 目錄也會同時註冊。

    在入門設定/設定模型選擇器中,BytePlus 驗證選項會優先顯示 byteplus/*byteplus-plan/* 兩種列。如果這些模型尚未載入,OpenClaw 會改為回退到未篩選的目錄,而不是顯示空的提供者範圍選擇器。

    標準模型

    • byteplus/seed-1-8-251228 (Seed 1.8)
    • byteplus/kimi-k2-5-260127 (Kimi K2.5)
    • byteplus/glm-4-7-251222 (GLM 4.7)

    編碼模型 (byteplus-plan)

    • byteplus-plan/ark-code-latest
    • byteplus-plan/doubao-seed-code
    • byteplus-plan/kimi-k2.5
    • byteplus-plan/kimi-k2-thinking
    • byteplus-plan/glm-4.7

    Synthetic

    Synthetic 透過 synthetic 提供者提供 Anthropic 相容模型:

    • 提供者:synthetic
    • 驗證:SYNTHETIC_API_KEY
    • 範例模型:synthetic/hf:MiniMaxAI/MiniMax-M2.5
    • CLI:openclaw onboard --auth-choice synthetic-api-key
    {
      agents: {
        defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
      },
      models: {
        mode: "merge",
        providers: {
          synthetic: {
            baseUrl: "https://api.synthetic.new/anthropic",
            apiKey: "${SYNTHETIC_API_KEY}",
            api: "anthropic-messages",
            models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
          },
        },
      },
    }
    

    MiniMax

    MiniMax 透過 models.providers 設定,因為它使用自訂端點:

    • MiniMax OAuth(全球):--auth-choice minimax-global-oauth
    • MiniMax OAuth(中國):--auth-choice minimax-cn-oauth
    • MiniMax API 金鑰(全球):--auth-choice minimax-global-api
    • MiniMax API 金鑰(中國):--auth-choice minimax-cn-api
    • 驗證:minimax 使用 MINIMAX_API_KEYminimax-portal 使用 MINIMAX_OAUTH_TOKENMINIMAX_API_KEY

    如需設定詳細資訊、模型選項與設定片段,請參閱 /providers/minimax

    Plugin 擁有的能力分割:

    • 文字/聊天預設值維持在 minimax/MiniMax-M2.7
    • 圖片生成是 minimax/image-01minimax-portal/image-01
    • 圖片理解是 Plugin 擁有的 MiniMax-VL-01,適用於兩種 MiniMax 驗證路徑
    • 網頁搜尋維持在提供者 ID minimax

    LM Studio

    LM Studio 以內建提供者 Plugin 形式提供,並使用原生 API:

    • 提供者:lmstudio
    • 驗證:LM_API_TOKEN
    • 預設推論基礎 URL:http://localhost:1234/v1

    接著設定模型(請替換為 http://localhost:1234/api/v1/models 傳回的其中一個 ID):

    {
      agents: {
        defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
      },
    }
    

    OpenClaw 使用 LM Studio 的原生 /api/v1/models/api/v1/models/load 進行探索與自動載入,並預設使用 /v1/chat/completions 進行推論。如果你想讓 LM Studio JIT 載入、TTL 與自動逐出負責模型生命週期,請設定 models.providers.lmstudio.params.preload: false。如需設定與疑難排解,請參閱 /providers/lmstudio

    Ollama

    Ollama 以內建提供者 Plugin 形式提供,並使用 Ollama 的原生 API:

    # Install Ollama, then pull a model:
    ollama pull llama3.3
    
    {
      agents: {
        defaults: { model: { primary: "ollama/llama3.3" } },
      },
    }
    

    當你使用 OLLAMA_API_KEY 選擇加入時,Ollama 會在本機 http://127.0.0.1:11434 被偵測到,且內建提供者 Plugin 會將 Ollama 直接加入 openclaw onboard 與模型選擇器。如需入門設定、雲端/本機模式與自訂設定,請參閱 /providers/ollama

    vLLM

    vLLM 以內建提供者 Plugin 形式提供,用於本機/自行託管的 OpenAI 相容伺服器:

    • 提供者:vllm
    • 驗證:選用(取決於你的伺服器)
    • 預設基礎 URL:http://127.0.0.1:8000/v1

    若要選擇加入本機自動探索(如果你的伺服器未強制驗證,任何值都可使用):

    export VLLM_API_KEY="vllm-local"
    

    接著設定模型(請替換為 /v1/models 傳回的其中一個 ID):

    {
      agents: {
        defaults: { model: { primary: "vllm/your-model-id" } },
      },
    }
    

    詳細資訊請參閱 /providers/vllm

    SGLang

    SGLang 以內建提供者 Plugin 形式提供,用於快速自行託管的 OpenAI 相容伺服器:

    • 提供者:sglang
    • 驗證:選用(取決於你的伺服器)
    • 預設基礎 URL:http://127.0.0.1:30000/v1

    若要選擇加入本機自動探索(如果你的伺服器未強制驗證,任何值都可使用):

    export SGLANG_API_KEY="sglang-local"
    

    接著設定模型(請替換為 /v1/models 傳回的其中一個 ID):

    {
      agents: {
        defaults: { model: { primary: "sglang/your-model-id" } },
      },
    }
    

    詳細資訊請參閱 /providers/sglang

    本機 Proxy(LM Studio、vLLM、LiteLLM 等)

    範例(OpenAI 相容):

    {
      agents: {
        defaults: {
          model: { primary: "lmstudio/my-local-model" },
          models: { "lmstudio/my-local-model": { alias: "Local" } },
        },
      },
      models: {
        providers: {
          lmstudio: {
            baseUrl: "http://localhost:1234/v1",
            apiKey: "${LM_API_TOKEN}",
            api: "openai-completions",
            timeoutSeconds: 300,
            models: [
              {
                id: "my-local-model",
                name: "Local Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 200000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    
    預設選用欄位

    對於自訂提供者,reasoninginputcostcontextWindowmaxTokens 是選用的。省略時,OpenClaw 預設為:

    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192

    建議:設定與你的 Proxy/模型限制相符的明確值。

    Proxy 路由塑形規則
    • 對於非原生端點上的 api: "openai-completions"(任何非空白 baseUrl,且其主機不是 api.openai.com),OpenClaw 會強制 compat.supportsDeveloperRole: false,以避免因不支援的 developer 角色造成提供者 400 錯誤。
    • Proxy 風格的 OpenAI 相容路由也會略過僅限原生 OpenAI 的請求塑形:沒有 service_tier、沒有 Responses store、沒有 Completions store、沒有提示快取提示、沒有 OpenAI reasoning 相容酬載塑形,也沒有隱藏的 OpenClaw 歸因標頭。
    • 對於需要供應商特定欄位的 OpenAI 相容 Completions Proxy,請設定 agents.defaults.models["provider/model"].params.extra_body(或 extraBody),將額外 JSON 合併到對外請求本文中。
    • 對於 vLLM 聊天範本控制,請設定 agents.defaults.models["provider/model"].params.chat_template_kwargs。當工作階段 thinking 等級關閉時,內建 vLLM Plugin 會自動為 vllm/nemotron-3-* 傳送 enable_thinking: falseforce_nonempty_content: true
    • 對於速度較慢的本機模型或遠端 LAN/tailnet 主機,請設定 models.providers.<id>.timeoutSeconds。這會延長提供者模型 HTTP 請求處理,包括連線、標頭、本文串流與總受保護 fetch 中止時間,而不會增加整個代理程式執行階段逾時。
    • 模型提供者 HTTP 呼叫只允許為已設定的提供者 baseUrl 主機名稱使用 198.18.0.0/15fc00::/7 中的 Surge、Clash 與 sing-box 假 IP DNS 回應。其他私有、loopback、link-local 與 metadata 目的地仍需要明確選擇加入 models.providers.<id>.request.allowPrivateNetwork: true
    • 如果 baseUrl 為空白/省略,OpenClaw 會保留預設 OpenAI 行為(解析至 api.openai.com)。
    • 為了安全,在非原生 openai-completions 端點上,明確的 compat.supportsDeveloperRole: true 仍會被覆寫。
    • 對於非直連端點上的 api: "anthropic-messages"(canonical anthropic 以外的任何提供者,或自訂 models.providers.anthropic.baseUrl,且其主機不是公開 api.anthropic.com 端點),OpenClaw 會抑制隱含的 Anthropic beta 標頭,例如 claude-code-20250219interleaved-thinking-2025-05-14 與 OAuth 標記,因此自訂 Anthropic 相容 Proxy 不會拒絕不支援的 beta 旗標。如果你的 Proxy 需要特定 beta 功能,請明確設定 models.providers.<id>.headers["anthropic-beta"]

    CLI 範例

    openclaw onboard --auth-choice opencode-zen
    openclaw models set opencode/claude-opus-4-6
    openclaw models list
    

    另請參閱:設定 以取得完整設定範例。

    相關