Concepts and configuration
模型供應商
LLM/模型供應商的參考資料(不是 WhatsApp/Telegram 這類聊天頻道)。如需模型選擇規則,請參閱模型。
快速規則
模型參照與 CLI 輔助工具
- 模型參照使用
provider/model(範例:opencode/claude-opus-4-6)。 - 設定後,
agents.defaults.models會作為允許清單。 - CLI 輔助工具:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 models.providers.*.contextWindow/contextTokens/maxTokens會設定供應商層級的預設值;models.providers.*.models[].contextWindow/contextTokens/maxTokens會針對每個模型覆寫它們。- 備援規則、冷卻探測,以及工作階段覆寫持久化:模型容錯移轉。
新增供應商驗證不會變更你的主要模型
當你新增或重新驗證供應商時,openclaw configure 會保留既有的 agents.defaults.model.primary。Provider plugins 仍可在其驗證設定修補中傳回建議的預設模型,但在主要模型已存在時,configure 會將其視為「讓此模型可用」,而不是「取代目前的主要模型」。
若要刻意切換預設模型,請使用 openclaw models set <provider/model> 或 openclaw models auth login --provider <id> --set-default。
OpenAI 供應商/執行環境拆分
OpenAI 系列路由以特定前綴區分:
openai/<model>加上agents.defaults.agentRuntime.id: "codex"會使用原生 Codex 應用程式伺服器工具鏈。這是一般的 ChatGPT/Codex 訂閱設定。openai-codex/<model>會在 PI 中使用 Codex OAuth。- 沒有 Codex 執行環境覆寫的
openai/<model>會在 PI 中使用直接的 OpenAI API 金鑰供應商。
請參閱 OpenAI 和 Codex 工具鏈。如果供應商/執行環境拆分令人困惑,請先閱讀代理程式執行環境。
Plugin 自動啟用遵循相同邊界:openai-codex/<model> 屬於 OpenAI Plugin,而 Codex Plugin 會由 agentRuntime.id: "codex" 或舊版 codex/<model> 參照啟用。
設定 agentRuntime.id: "codex" 時,GPT-5.5 可透過原生 Codex 應用程式伺服器工具鏈使用;在 PI 中,Codex OAuth 可透過 openai-codex/gpt-5.5 使用;當你的帳戶公開該模型時,直接 API 金鑰流量可透過 PI 中的 openai/gpt-5.5 使用。
CLI 執行環境
CLI 執行環境使用相同拆分:選擇標準模型參照,例如 anthropic/claude-*、google/gemini-* 或 openai/gpt-*,然後在你想使用本機 CLI 後端時,將 agents.defaults.agentRuntime.id 設為 claude-cli、google-gemini-cli 或 codex-cli。
舊版 claude-cli/*、google-gemini-cli/* 和 codex-cli/* 參照會遷移回標準供應商參照,並另外記錄執行環境。
Plugin 擁有的供應商行為
大多數供應商專屬邏輯都位於 provider plugins(registerProvider(...))中,而 OpenClaw 保留通用推論迴圈。Plugins 擁有上線流程、模型目錄、驗證環境變數對應、傳輸/設定正規化、工具結構描述清理、容錯移轉分類、OAuth 重新整理、用量回報、thinking/reasoning 設定檔,以及更多內容。
provider-SDK hooks 和 bundled-plugin 範例的完整清單位於 Provider plugins。需要完全自訂請求執行器的供應商屬於另一個更深層的擴充介面。
API 金鑰輪替
金鑰來源與優先順序
透過以下方式設定多個金鑰:
OPENCLAW_LIVE_<PROVIDER>_KEY(單一即時覆寫,最高優先順序)<PROVIDER>_API_KEYS(逗號或分號清單)<PROVIDER>_API_KEY(主要金鑰)<PROVIDER>_API_KEY_*(編號清單,例如<PROVIDER>_API_KEY_1)
對於 Google 供應商,GOOGLE_API_KEY 也會作為備援納入。金鑰選擇順序會保留優先順序並對值去重。
輪替何時啟動
- 只有在速率限制回應時,請求才會使用下一個金鑰重試(例如
429、rate_limit、quota、resource exhausted、Too many concurrent requests、ThrottlingException、concurrency limit reached、workers_ai ... quota limit exceeded,或定期的用量限制訊息)。 - 非速率限制失敗會立即失敗;不會嘗試金鑰輪替。
- 當所有候選金鑰都失敗時,會傳回最後一次嘗試的最終錯誤。
內建供應商(pi-ai 目錄)
OpenClaw 隨附 pi-ai 目錄。這些供應商不需要任何 models.providers 設定;只要設定驗證並選擇模型即可。
OpenAI
- 供應商:
openai - 驗證:
OPENAI_API_KEY - 選用輪替:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2,加上OPENCLAW_LIVE_OPENAI_KEY(單一覆寫) - 範例模型:
openai/gpt-5.5、openai/gpt-5.4-mini - 如果特定安裝或 API 金鑰的行為不同,請使用
openclaw models list --provider openai驗證帳戶/模型可用性。 - CLI:
openclaw onboard --auth-choice openai-api-key - 預設傳輸為
auto(優先 WebSocket,SSE 備援) - 透過
agents.defaults.models["openai/<model>"].params.transport針對每個模型覆寫("sse"、"websocket"或"auto") - OpenAI Responses WebSocket 預熱預設會透過
params.openaiWsWarmup啟用(true/false) - OpenAI 優先處理可透過
agents.defaults.models["openai/<model>"].params.serviceTier啟用 /fast和params.fastMode會將直接的openai/*Responses 請求對應到api.openai.com上的service_tier=priority- 當你想要明確層級,而不是共享的
/fast切換時,請使用params.serviceTier - 隱藏的 OpenClaw 歸因標頭(
originator、version、User-Agent)只套用於前往api.openai.com的原生 OpenAI 流量,不適用於通用 OpenAI 相容代理 - 原生 OpenAI 路由也會保留 Responses
store、提示快取提示,以及 OpenAI reasoning 相容酬載塑形;代理路由不會 openai/gpt-5.3-codex-spark在 OpenClaw 中刻意被抑制,因為即時 OpenAI API 請求會拒絕它,且目前的 Codex 目錄不公開它
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- 供應商:
anthropic - 驗證:
ANTHROPIC_API_KEY - 選用輪替:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2,加上OPENCLAW_LIVE_ANTHROPIC_KEY(單一覆寫) - 範例模型:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 直接公開 Anthropic 請求支援共享的
/fast切換和params.fastMode,包括傳送到api.anthropic.com的 API 金鑰和 OAuth 驗證流量;OpenClaw 會將其對應到 Anthropicservice_tier(auto與standard_only) - 建議的 Claude CLI 設定會保留標準模型參照,並另外選擇 CLI
後端:
anthropic/claude-opus-4-7搭配agents.defaults.agentRuntime.id: "claude-cli"。舊版claude-cli/claude-opus-4-7參照仍可相容使用。
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- 供應商:
openai-codex - 驗證:OAuth (ChatGPT)
- PI 模型參照:
openai-codex/gpt-5.5 - 原生 Codex 應用程式伺服器工具鏈參照:
openai/gpt-5.5搭配agents.defaults.agentRuntime.id: "codex" - 原生 Codex 應用程式伺服器工具鏈文件:Codex 工具鏈
- 舊版模型參照:
codex/gpt-* - Plugin 邊界:
openai-codex/*會載入 OpenAI Plugin;原生 Codex 應用程式伺服器 Plugin 只會由 Codex 工具鏈執行環境或舊版codex/*參照選取。 - CLI:
openclaw onboard --auth-choice openai-codex或openclaw models auth login --provider openai-codex - 預設傳輸為
auto(優先 WebSocket,SSE 備援) - 透過
agents.defaults.models["openai-codex/<model>"].params.transport針對每個 PI 模型覆寫("sse"、"websocket"或"auto") params.serviceTier也會在原生 Codex Responses 請求(chatgpt.com/backend-api)上轉送- 隱藏的 OpenClaw 歸因標頭(
originator、version、User-Agent)只會附加到前往chatgpt.com/backend-api的原生 Codex 流量,不適用於通用 OpenAI 相容代理 - 與直接
openai/*共用相同的/fast切換和params.fastMode設定;OpenClaw 會將其對應到service_tier=priority openai-codex/gpt-5.5使用 Codex 目錄原生的contextWindow = 400000和預設執行環境contextTokens = 272000;可使用models.providers.openai-codex.models[].contextTokens覆寫執行環境上限- 政策備註:OpenAI Codex OAuth 明確支援 OpenClaw 這類外部工具/工作流程。
- 對於常見的訂閱加原生 Codex 執行環境路由,請使用
openai-codex驗證登入,但設定openai/gpt-5.5加上agents.defaults.agentRuntime.id: "codex"。 - 只有當你想透過 PI 使用 Codex OAuth/訂閱路由時,才使用
openai-codex/gpt-5.5;當你的 API 金鑰設定和本機目錄公開公用 API 路由時,請使用不含 Codex 執行環境覆寫的openai/gpt-5.5。 - 較舊的
openai-codex/gpt-5.1*、openai-codex/gpt-5.2*和openai-codex/gpt-5.3*參照已被抑制,因為 ChatGPT/Codex OAuth 帳戶會拒絕它們;請改用openai-codex/gpt-5.5或原生 Codex 執行環境路由。
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
其他訂閱式託管選項
Z.AI Coding Plan 或一般 API 端點。
MiniMax Coding Plan OAuth 或 API 金鑰存取。
Qwen Cloud 供應商介面,加上 Alibaba DashScope 與 Coding Plan 端點對應。
OpenCode
- 驗證:
OPENCODE_API_KEY(或OPENCODE_ZEN_API_KEY) - Zen 執行環境供應商:
opencode - Go 執行環境供應商:
opencode-go - 範例模型:
opencode/claude-opus-4-6、opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zen或openclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini(API 金鑰)
- 提供者:
google - 驗證:
GEMINI_API_KEY - 選用輪替:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEY後援,以及OPENCLAW_LIVE_GEMINI_KEY(單一覆寫) - 範例模型:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 相容性:使用
google/gemini-3.1-flash-preview的舊版 OpenClaw 設定會正規化為google/gemini-3-flash-preview - 別名:接受
google/gemini-3.1-pro,並正規化為 Google 的即時 Gemini API id:google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - 思考:
/think adaptive使用 Google 動態思考。Gemini 3/3.1 會省略固定的thinkingLevel;Gemini 2.5 會傳送thinkingBudget: -1。 - 直接 Gemini 執行也接受
agents.defaults.models["google/<model>"].params.cachedContent(或舊版cached_content),以轉發提供者原生的cachedContents/...控制代碼;Gemini 快取命中會顯示為 OpenClawcacheRead
Google Vertex 和 Gemini CLI
- 提供者:
google-vertex、google-gemini-cli - 驗證:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程
Gemini CLI OAuth 會作為內建 google Plugin 的一部分提供。
安裝 Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
啟用 Plugin
openclaw plugins enable google
登入
openclaw models auth login --provider google-gemini-cli --set-default
預設模型:google-gemini-cli/gemini-3-flash-preview。你不需要將用戶端 id 或密鑰貼到 openclaw.json。CLI 登入流程會將權杖儲存在 Gateway 主機上的驗證設定檔中。
設定專案(如有需要)
如果登入後請求失敗,請在 Gateway 主機上設定 GOOGLE_CLOUD_PROJECT 或 GOOGLE_CLOUD_PROJECT_ID。
Gemini CLI JSON 回覆會從 response 解析;用量會後援到 stats,並將 stats.cached 正規化為 OpenClaw cacheRead。
Z.AI (GLM)
- 提供者:
zai - 驗證:
ZAI_API_KEY - 範例模型:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- 別名:
z.ai/*和z-ai/*會正規化為zai/* zai-api-key會自動偵測相符的 Z.AI 端點;zai-coding-global、zai-coding-cn、zai-global和zai-cn會強制使用特定介面
- 別名:
Vercel AI Gateway
- 提供者:
vercel-ai-gateway - 驗證:
AI_GATEWAY_API_KEY - 範例模型:
vercel-ai-gateway/anthropic/claude-opus-4.6、vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- 提供者:
kilocode - 驗證:
KILOCODE_API_KEY - 範例模型:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - 基底 URL:
https://api.kilo.ai/api/gateway/ - 靜態後援目錄隨附
kilocode/kilo/auto;即時https://api.kilo.ai/api/gateway/models探索可以進一步擴充執行階段目錄。 kilocode/kilo/auto背後的確切上游路由由 Kilo Gateway 擁有,不是在 OpenClaw 中硬編碼。
設定詳細資訊請參閱 /providers/kilocode。
其他內建提供者 Plugin
| 提供者 | Id | 驗證環境變數 | 範例模型 |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY 或 KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
值得知道的特殊情況
OpenRouter
僅在已驗證的 openrouter.ai 路由上套用其應用程式歸因標頭與 Anthropic cache_control 標記。DeepSeek、Moonshot 和 ZAI 參照符合由 OpenRouter 管理的提示快取 cache-TTL 資格,但不會收到 Anthropic 快取標記。作為代理式 OpenAI 相容路徑,它會略過僅限原生 OpenAI 的成形處理(serviceTier、Responses store、提示快取提示、OpenAI 推理相容性)。Gemini 支援的參照只保留代理 Gemini 思維簽章清理。
Kilo Gateway
Gemini 支援的參照遵循相同的代理 Gemini 清理路徑;kilocode/kilo/auto 和其他不支援代理推理的參照會略過代理推理注入。
MiniMax
API 金鑰上手流程會寫入明確的純文字 M2.7 聊天模型定義;圖像理解仍使用 Plugin 擁有的 MiniMax-VL-01 媒體提供者。
NVIDIA
模型 ID 使用 nvidia/<vendor>/<model> 命名空間(例如 nvidia/nvidia/nemotron-... 與 nvidia/moonshotai/kimi-k2.5 並列);選擇器會保留字面上的 <provider>/<model-id> 組合,而傳送到 API 的標準鍵仍維持單一前綴。
xAI
使用 xAI Responses 路徑。grok-4.3 是內建的預設聊天模型。/fast 或 params.fastMode: true 會將 grok-3、grok-3-mini、grok-4 和 grok-4-0709 改寫為其 *-fast 變體。tool_stream 預設開啟;可透過 agents.defaults.models["xai/<model>"].params.tool_stream=false 停用。
Cerebras
以內建的 cerebras 提供者 Plugin 隨附。GLM 使用 zai-glm-4.7;OpenAI 相容的基底 URL 是 https://api.cerebras.ai/v1。
透過 models.providers 使用提供者(自訂/基底 URL)
使用 models.providers(或 models.json)新增自訂提供者或 OpenAI/Anthropic 相容代理。
下方許多內建提供者 Plugin 已經發布預設目錄。只有在你想覆寫預設基底 URL、標頭或模型清單時,才使用明確的 models.providers.<id> 項目。
Gateway 模型能力檢查也會讀取明確的 models.providers.<id>.models[] 中繼資料。如果自訂或代理模型接受圖像,請在該模型上設定 input: ["text", "image"],讓 WebChat 和 Node 來源附件路徑以原生模型輸入傳遞圖像,而不是純文字媒體參照。
Moonshot AI (Kimi)
Moonshot 以內建提供者 Plugin 隨附。預設使用內建提供者,只有在需要覆寫基底 URL 或模型中繼資料時,才新增明確的 models.providers.moonshot 項目:
- 提供者:
moonshot - 驗證:
MOONSHOT_API_KEY - 範例模型:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-key或openclaw onboard --auth-choice moonshot-api-key-cn
Kimi K2 模型 ID:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Kimi Coding
Kimi Coding 使用 Moonshot AI 的 Anthropic 相容端點:
- 提供者:
kimi - 驗證:
KIMI_API_KEY - 範例模型:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
Legacy kimi/k2p5 仍可作為相容性模型 ID 接受。
Volcano Engine (Doubao)
Volcano Engine (火山引擎) 在中國提供 Doubao 與其他模型的存取能力。
- 提供者:
volcengine(編碼:volcengine-plan) - 驗證:
VOLCANO_ENGINE_API_KEY - 範例模型:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
入門設定預設使用編碼介面,但一般 volcengine/* 目錄也會同時註冊。
在入門設定/設定模型選擇器中,Volcengine 驗證選項會優先顯示 volcengine/* 與 volcengine-plan/* 兩種列。如果這些模型尚未載入,OpenClaw 會改為回退到未篩選的目錄,而不是顯示空的提供者範圍選擇器。
標準模型
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
編碼模型 (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus(國際)
BytePlus ARK 為國際使用者提供與 Volcano Engine 相同模型的存取能力。
- 提供者:
byteplus(編碼:byteplus-plan) - 驗證:
BYTEPLUS_API_KEY - 範例模型:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
入門設定預設使用編碼介面,但一般 byteplus/* 目錄也會同時註冊。
在入門設定/設定模型選擇器中,BytePlus 驗證選項會優先顯示 byteplus/* 與 byteplus-plan/* 兩種列。如果這些模型尚未載入,OpenClaw 會改為回退到未篩選的目錄,而不是顯示空的提供者範圍選擇器。
標準模型
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
編碼模型 (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic 透過 synthetic 提供者提供 Anthropic 相容模型:
- 提供者:
synthetic - 驗證:
SYNTHETIC_API_KEY - 範例模型:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax 透過 models.providers 設定,因為它使用自訂端點:
- MiniMax OAuth(全球):
--auth-choice minimax-global-oauth - MiniMax OAuth(中國):
--auth-choice minimax-cn-oauth - MiniMax API 金鑰(全球):
--auth-choice minimax-global-api - MiniMax API 金鑰(中國):
--auth-choice minimax-cn-api - 驗證:
minimax使用MINIMAX_API_KEY;minimax-portal使用MINIMAX_OAUTH_TOKEN或MINIMAX_API_KEY
如需設定詳細資訊、模型選項與設定片段,請參閱 /providers/minimax。
Plugin 擁有的能力分割:
- 文字/聊天預設值維持在
minimax/MiniMax-M2.7 - 圖片生成是
minimax/image-01或minimax-portal/image-01 - 圖片理解是 Plugin 擁有的
MiniMax-VL-01,適用於兩種 MiniMax 驗證路徑 - 網頁搜尋維持在提供者 ID
minimax
LM Studio
LM Studio 以內建提供者 Plugin 形式提供,並使用原生 API:
- 提供者:
lmstudio - 驗證:
LM_API_TOKEN - 預設推論基礎 URL:
http://localhost:1234/v1
接著設定模型(請替換為 http://localhost:1234/api/v1/models 傳回的其中一個 ID):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw 使用 LM Studio 的原生 /api/v1/models 與 /api/v1/models/load 進行探索與自動載入,並預設使用 /v1/chat/completions 進行推論。如果你想讓 LM Studio JIT 載入、TTL 與自動逐出負責模型生命週期,請設定 models.providers.lmstudio.params.preload: false。如需設定與疑難排解,請參閱 /providers/lmstudio。
Ollama
Ollama 以內建提供者 Plugin 形式提供,並使用 Ollama 的原生 API:
- 提供者:
ollama - 驗證:不需要(本機伺服器)
- 範例模型:
ollama/llama3.3 - 安裝:https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
當你使用 OLLAMA_API_KEY 選擇加入時,Ollama 會在本機 http://127.0.0.1:11434 被偵測到,且內建提供者 Plugin 會將 Ollama 直接加入 openclaw onboard 與模型選擇器。如需入門設定、雲端/本機模式與自訂設定,請參閱 /providers/ollama。
vLLM
vLLM 以內建提供者 Plugin 形式提供,用於本機/自行託管的 OpenAI 相容伺服器:
- 提供者:
vllm - 驗證:選用(取決於你的伺服器)
- 預設基礎 URL:
http://127.0.0.1:8000/v1
若要選擇加入本機自動探索(如果你的伺服器未強制驗證,任何值都可使用):
export VLLM_API_KEY="vllm-local"
接著設定模型(請替換為 /v1/models 傳回的其中一個 ID):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
詳細資訊請參閱 /providers/vllm。
SGLang
SGLang 以內建提供者 Plugin 形式提供,用於快速自行託管的 OpenAI 相容伺服器:
- 提供者:
sglang - 驗證:選用(取決於你的伺服器)
- 預設基礎 URL:
http://127.0.0.1:30000/v1
若要選擇加入本機自動探索(如果你的伺服器未強制驗證,任何值都可使用):
export SGLANG_API_KEY="sglang-local"
接著設定模型(請替換為 /v1/models 傳回的其中一個 ID):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
詳細資訊請參閱 /providers/sglang。
本機 Proxy(LM Studio、vLLM、LiteLLM 等)
範例(OpenAI 相容):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
預設選用欄位
對於自訂提供者,reasoning、input、cost、contextWindow 與 maxTokens 是選用的。省略時,OpenClaw 預設為:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
建議:設定與你的 Proxy/模型限制相符的明確值。
Proxy 路由塑形規則
- 對於非原生端點上的
api: "openai-completions"(任何非空白baseUrl,且其主機不是api.openai.com),OpenClaw 會強制compat.supportsDeveloperRole: false,以避免因不支援的developer角色造成提供者 400 錯誤。 - Proxy 風格的 OpenAI 相容路由也會略過僅限原生 OpenAI 的請求塑形:沒有
service_tier、沒有 Responsesstore、沒有 Completionsstore、沒有提示快取提示、沒有 OpenAI reasoning 相容酬載塑形,也沒有隱藏的 OpenClaw 歸因標頭。 - 對於需要供應商特定欄位的 OpenAI 相容 Completions Proxy,請設定
agents.defaults.models["provider/model"].params.extra_body(或extraBody),將額外 JSON 合併到對外請求本文中。 - 對於 vLLM 聊天範本控制,請設定
agents.defaults.models["provider/model"].params.chat_template_kwargs。當工作階段 thinking 等級關閉時,內建 vLLM Plugin 會自動為vllm/nemotron-3-*傳送enable_thinking: false與force_nonempty_content: true。 - 對於速度較慢的本機模型或遠端 LAN/tailnet 主機,請設定
models.providers.<id>.timeoutSeconds。這會延長提供者模型 HTTP 請求處理,包括連線、標頭、本文串流與總受保護 fetch 中止時間,而不會增加整個代理程式執行階段逾時。 - 模型提供者 HTTP 呼叫只允許為已設定的提供者
baseUrl主機名稱使用198.18.0.0/15與fc00::/7中的 Surge、Clash 與 sing-box 假 IP DNS 回應。其他私有、loopback、link-local 與 metadata 目的地仍需要明確選擇加入models.providers.<id>.request.allowPrivateNetwork: true。 - 如果
baseUrl為空白/省略,OpenClaw 會保留預設 OpenAI 行為(解析至api.openai.com)。 - 為了安全,在非原生
openai-completions端點上,明確的compat.supportsDeveloperRole: true仍會被覆寫。 - 對於非直連端點上的
api: "anthropic-messages"(canonicalanthropic以外的任何提供者,或自訂models.providers.anthropic.baseUrl,且其主機不是公開api.anthropic.com端點),OpenClaw 會抑制隱含的 Anthropic beta 標頭,例如claude-code-20250219、interleaved-thinking-2025-05-14與 OAuth 標記,因此自訂 Anthropic 相容 Proxy 不會拒絕不支援的 beta 旗標。如果你的 Proxy 需要特定 beta 功能,請明確設定models.providers.<id>.headers["anthropic-beta"]。
CLI 範例
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
另請參閱:設定 以取得完整設定範例。