Concepts and configuration
Nhà cung cấp mô hình
Tham khảo cho nhà cung cấp LLM/mô hình (không phải các kênh trò chuyện như WhatsApp/Telegram). Để biết quy tắc chọn mô hình, xem Mô hình.
Quy tắc nhanh
Tham chiếu mô hình và trình hỗ trợ CLI
- Tham chiếu mô hình dùng
provider/model(ví dụ:opencode/claude-opus-4-6). agents.defaults.modelshoạt động như danh sách cho phép khi được đặt.- Trình hỗ trợ CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensđặt mặc định cấp nhà cung cấp;models.providers.*.models[].contextWindow/contextTokens/maxTokensghi đè chúng theo từng mô hình.- Quy tắc dự phòng, thăm dò thời gian chờ, và lưu trữ ghi đè phiên: Chuyển đổi dự phòng mô hình.
Thêm xác thực nhà cung cấp không thay đổi mô hình chính của bạn
openclaw configure giữ nguyên agents.defaults.model.primary hiện có khi bạn thêm hoặc xác thực lại một nhà cung cấp. Plugin nhà cung cấp vẫn có thể trả về một mô hình mặc định được khuyến nghị trong bản vá cấu hình xác thực của chúng, nhưng configure xem điều đó là "làm cho mô hình này khả dụng" khi đã có mô hình chính, không phải "thay thế mô hình chính hiện tại."
Để chủ động chuyển mô hình mặc định, dùng openclaw models set <provider/model> hoặc openclaw models auth login --provider <id> --set-default.
Tách nhà cung cấp/runtime OpenAI
Các tuyến thuộc họ OpenAI phụ thuộc vào tiền tố cụ thể:
openai/<model>cùng vớiagents.defaults.agentRuntime.id: "codex"dùng harness app-server Codex gốc. Đây là thiết lập đăng ký ChatGPT/Codex thông thường.openai-codex/<model>dùng Codex OAuth trong PI.openai/<model>không có ghi đè runtime Codex dùng nhà cung cấp khóa API OpenAI trực tiếp trong PI.
Xem OpenAI và Harness Codex. Nếu việc tách nhà cung cấp/runtime gây khó hiểu, hãy đọc Runtime tác tử trước.
Tự động bật Plugin tuân theo cùng ranh giới: openai-codex/<model> thuộc về Plugin OpenAI, trong khi Plugin Codex được bật bởi agentRuntime.id: "codex" hoặc các tham chiếu codex/<model> cũ.
GPT-5.5 khả dụng thông qua harness app-server Codex gốc khi đặt agentRuntime.id: "codex", thông qua openai-codex/gpt-5.5 trong PI cho Codex OAuth, và thông qua openai/gpt-5.5 trong PI cho lưu lượng khóa API trực tiếp khi tài khoản của bạn cung cấp quyền đó.
Runtime CLI
Runtime CLI dùng cùng cách tách: chọn các tham chiếu mô hình chuẩn như anthropic/claude-*, google/gemini-*, hoặc openai/gpt-*, rồi đặt agents.defaults.agentRuntime.id thành claude-cli, google-gemini-cli, hoặc codex-cli khi bạn muốn một backend CLI cục bộ.
Các tham chiếu cũ claude-cli/*, google-gemini-cli/*, và codex-cli/* được di chuyển trở lại thành tham chiếu nhà cung cấp chuẩn, với runtime được ghi riêng.
Hành vi nhà cung cấp do Plugin sở hữu
Phần lớn logic đặc thù theo nhà cung cấp nằm trong các Plugin nhà cung cấp (registerProvider(...)) trong khi OpenClaw giữ vòng lặp suy luận chung. Plugin sở hữu onboarding, danh mục mô hình, ánh xạ biến môi trường xác thực, chuẩn hóa transport/cấu hình, dọn dẹp schema công cụ, phân loại chuyển đổi dự phòng, làm mới OAuth, báo cáo mức sử dụng, hồ sơ thinking/reasoning, và nhiều hơn nữa.
Danh sách đầy đủ các hook provider-SDK và ví dụ Plugin đi kèm nằm trong Plugin nhà cung cấp. Một nhà cung cấp cần executor yêu cầu hoàn toàn tùy chỉnh là một bề mặt mở rộng riêng, sâu hơn.
Xoay vòng khóa API
Nguồn khóa và mức ưu tiên
Cấu hình nhiều khóa qua:
OPENCLAW_LIVE_<PROVIDER>_KEY(ghi đè live đơn, ưu tiên cao nhất)<PROVIDER>_API_KEYS(danh sách phân tách bằng dấu phẩy hoặc dấu chấm phẩy)<PROVIDER>_API_KEY(khóa chính)<PROVIDER>_API_KEY_*(danh sách đánh số, ví dụ<PROVIDER>_API_KEY_1)
Với nhà cung cấp Google, GOOGLE_API_KEY cũng được bao gồm làm dự phòng. Thứ tự chọn khóa giữ nguyên ưu tiên và loại bỏ giá trị trùng lặp.
Khi nào xoay vòng bắt đầu
- Yêu cầu chỉ được thử lại với khóa tiếp theo trên các phản hồi giới hạn tốc độ (ví dụ
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded, hoặc các thông báo giới hạn mức sử dụng định kỳ). - Các lỗi không phải giới hạn tốc độ thất bại ngay; không thử xoay vòng khóa.
- Khi tất cả khóa ứng viên đều thất bại, lỗi cuối cùng được trả về từ lần thử cuối.
Nhà cung cấp tích hợp sẵn (danh mục pi-ai)
OpenClaw đi kèm danh mục pi-ai. Các nhà cung cấp này không yêu cầu cấu hình models.providers; chỉ cần đặt xác thực + chọn mô hình.
OpenAI
- Nhà cung cấp:
openai - Xác thực:
OPENAI_API_KEY - Xoay vòng tùy chọn:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, cộng vớiOPENCLAW_LIVE_OPENAI_KEY(ghi đè đơn) - Mô hình ví dụ:
openai/gpt-5.5,openai/gpt-5.4-mini - Xác minh tính khả dụng của tài khoản/mô hình bằng
openclaw models list --provider openainếu một bản cài đặt hoặc khóa API cụ thể hoạt động khác. - CLI:
openclaw onboard --auth-choice openai-api-key - Transport mặc định là
auto(ưu tiên WebSocket, dự phòng SSE) - Ghi đè theo từng mô hình qua
agents.defaults.models["openai/<model>"].params.transport("sse","websocket", hoặc"auto") - Khởi động trước WebSocket OpenAI Responses mặc định được bật qua
params.openaiWsWarmup(true/false) - Có thể bật xử lý ưu tiên OpenAI qua
agents.defaults.models["openai/<model>"].params.serviceTier /fastvàparams.fastModeánh xạ các yêu cầu Responses trực tiếpopenai/*sangservice_tier=prioritytrênapi.openai.com- Dùng
params.serviceTierkhi bạn muốn một tầng tường minh thay vì công tắc/fastdùng chung - Các header quy thuộc OpenClaw ẩn (
originator,version,User-Agent) chỉ áp dụng trên lưu lượng OpenAI gốc tớiapi.openai.com, không áp dụng cho proxy tương thích OpenAI chung - Các tuyến OpenAI gốc cũng giữ
storecủa Responses, gợi ý prompt-cache, và định dạng payload tương thích reasoning của OpenAI; các tuyến proxy thì không openai/gpt-5.3-codex-sparkbị ẩn có chủ ý trong OpenClaw vì yêu cầu API OpenAI live từ chối nó và danh mục Codex hiện tại không cung cấp nó
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Nhà cung cấp:
anthropic - Xác thực:
ANTHROPIC_API_KEY - Xoay vòng tùy chọn:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, cộng vớiOPENCLAW_LIVE_ANTHROPIC_KEY(ghi đè đơn) - Mô hình ví dụ:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Các yêu cầu Anthropic công khai trực tiếp hỗ trợ công tắc
/fastdùng chung vàparams.fastMode, bao gồm lưu lượng được xác thực bằng khóa API và OAuth gửi tớiapi.anthropic.com; OpenClaw ánh xạ điều đó sangservice_tiercủa Anthropic (autoso vớistandard_only) - Cấu hình Claude CLI được ưu tiên giữ tham chiếu mô hình chuẩn và chọn backend CLI riêng:
anthropic/claude-opus-4-7vớiagents.defaults.agentRuntime.id: "claude-cli". Các tham chiếu cũclaude-cli/claude-opus-4-7vẫn hoạt động để tương thích.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- Nhà cung cấp:
openai-codex - Xác thực: OAuth (ChatGPT)
- Tham chiếu mô hình PI:
openai-codex/gpt-5.5 - Tham chiếu harness app-server Codex gốc:
openai/gpt-5.5vớiagents.defaults.agentRuntime.id: "codex" - Tài liệu harness app-server Codex gốc: Harness Codex
- Tham chiếu mô hình cũ:
codex/gpt-* - Ranh giới Plugin:
openai-codex/*tải Plugin OpenAI; Plugin app-server Codex gốc chỉ được chọn bởi runtime harness Codex hoặc các tham chiếu cũcodex/*. - CLI:
openclaw onboard --auth-choice openai-codexhoặcopenclaw models auth login --provider openai-codex - Transport mặc định là
auto(ưu tiên WebSocket, dự phòng SSE) - Ghi đè theo từng mô hình PI qua
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", hoặc"auto") params.serviceTiercũng được chuyển tiếp trên các yêu cầu Codex Responses gốc (chatgpt.com/backend-api)- Các header quy thuộc OpenClaw ẩn (
originator,version,User-Agent) chỉ được gắn trên lưu lượng Codex gốc tớichatgpt.com/backend-api, không áp dụng cho proxy tương thích OpenAI chung - Chia sẻ cùng công tắc
/fastvà cấu hìnhparams.fastModenhưopenai/*trực tiếp; OpenClaw ánh xạ điều đó sangservice_tier=priority openai-codex/gpt-5.5dùngcontextWindow = 400000gốc của danh mục Codex và runtime mặc địnhcontextTokens = 272000; ghi đè giới hạn runtime bằngmodels.providers.openai-codex.models[].contextTokens- Ghi chú chính sách: OpenAI Codex OAuth được hỗ trợ tường minh cho các công cụ/quy trình bên ngoài như OpenClaw.
- Với tuyến đăng ký cộng runtime Codex gốc phổ biến, đăng nhập bằng xác thực
openai-codexnhưng cấu hìnhopenai/gpt-5.5cộng vớiagents.defaults.agentRuntime.id: "codex". - Chỉ dùng
openai-codex/gpt-5.5khi bạn muốn tuyến Codex OAuth/đăng ký qua PI; dùngopenai/gpt-5.5không có ghi đè runtime Codex khi thiết lập khóa API và danh mục cục bộ của bạn cung cấp tuyến API công khai. - Các tham chiếu cũ
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*, vàopenai-codex/gpt-5.3*bị ẩn vì tài khoản ChatGPT/Codex OAuth từ chối chúng; hãy dùngopenai-codex/gpt-5.5hoặc tuyến runtime Codex gốc thay thế.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Tùy chọn lưu trữ kiểu đăng ký khác
Z.AI Coding Plan hoặc endpoint API chung.
Truy cập MiniMax Coding Plan OAuth hoặc khóa API.
Bề mặt nhà cung cấp Qwen Cloud cộng với ánh xạ endpoint Alibaba DashScope và Coding Plan.
OpenCode
- Xác thực:
OPENCODE_API_KEY(hoặcOPENCODE_ZEN_API_KEY) - Nhà cung cấp runtime Zen:
opencode - Nhà cung cấp runtime Go:
opencode-go - Mô hình ví dụ:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenhoặcopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (khóa API)
- Nhà cung cấp:
google - Xác thực:
GEMINI_API_KEY - Luân phiên tùy chọn:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, phương án dự phòngGOOGLE_API_KEY, vàOPENCLAW_LIVE_GEMINI_KEY(ghi đè đơn lẻ) - Mô hình ví dụ:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Khả năng tương thích: cấu hình OpenClaw cũ dùng
google/gemini-3.1-flash-previewđược chuẩn hóa thànhgoogle/gemini-3-flash-preview - Bí danh:
google/gemini-3.1-prođược chấp nhận và chuẩn hóa thành id API Gemini trực tiếp của Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Suy luận:
/think adaptivedùng suy luận động của Google. Gemini 3/3.1 bỏ quathinkingLevelcố định; Gemini 2.5 gửithinkingBudget: -1. - Các lần chạy Gemini trực tiếp cũng chấp nhận
agents.defaults.models["google/<model>"].params.cachedContent(hoặccached_contentcũ) để chuyển tiếp handlecachedContents/...gốc của nhà cung cấp; các lượt trúng bộ nhớ đệm Gemini hiển thị dưới dạng OpenClawcacheRead
Google Vertex và Gemini CLI
- Nhà cung cấp:
google-vertex,google-gemini-cli - Xác thực: Vertex dùng gcloud ADC; Gemini CLI dùng luồng OAuth của nó
Gemini CLI OAuth được phát hành như một phần của Plugin google được đóng gói kèm.
Install Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Enable plugin
openclaw plugins enable google
Login
openclaw models auth login --provider google-gemini-cli --set-default
Mô hình mặc định: google-gemini-cli/gemini-3-flash-preview. Bạn không dán client id hoặc secret vào openclaw.json. Luồng đăng nhập CLI lưu token trong hồ sơ xác thực trên máy chủ Gateway.
Set project (if needed)
Nếu yêu cầu thất bại sau khi đăng nhập, hãy đặt GOOGLE_CLOUD_PROJECT hoặc GOOGLE_CLOUD_PROJECT_ID trên máy chủ Gateway.
Phản hồi JSON của Gemini CLI được phân tích từ response; mức sử dụng dự phòng sang stats, với stats.cached được chuẩn hóa thành OpenClaw cacheRead.
Z.AI (GLM)
- Nhà cung cấp:
zai - Xác thực:
ZAI_API_KEY - Mô hình ví dụ:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Bí danh:
z.ai/*vàz-ai/*chuẩn hóa thànhzai/* zai-api-keytự động phát hiện endpoint Z.AI tương ứng;zai-coding-global,zai-coding-cn,zai-global, vàzai-cnbuộc dùng một bề mặt cụ thể
- Bí danh:
Vercel AI Gateway
- Nhà cung cấp:
vercel-ai-gateway - Xác thực:
AI_GATEWAY_API_KEY - Mô hình ví dụ:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Nhà cung cấp:
kilocode - Xác thực:
KILOCODE_API_KEY - Mô hình ví dụ:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL cơ sở:
https://api.kilo.ai/api/gateway/ - Danh mục dự phòng tĩnh đi kèm
kilocode/kilo/auto; cơ chế khám phá trực tiếphttps://api.kilo.ai/api/gateway/modelscó thể mở rộng thêm danh mục thời gian chạy. - Định tuyến upstream chính xác phía sau
kilocode/kilo/autothuộc quyền sở hữu của Kilo Gateway, không được mã hóa cứng trong OpenClaw.
Xem /providers/kilocode để biết chi tiết thiết lập.
Các Plugin nhà cung cấp khác được đóng gói kèm
| Nhà cung cấp | Id | Biến môi trường xác thực | Mô hình ví dụ |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN hoặc HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY hoặc KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Các điểm đặc thù nên biết
OpenRouter
Chỉ áp dụng các header quy thuộc ứng dụng và marker Anthropic cache_control trên các route openrouter.ai đã xác minh. Các ref DeepSeek, Moonshot và ZAI đủ điều kiện cache-TTL cho cơ chế lưu bộ nhớ đệm prompt do OpenRouter quản lý nhưng không nhận marker cache của Anthropic. Là một đường dẫn kiểu proxy tương thích OpenAI, nó bỏ qua định hình chỉ dành riêng cho OpenAI gốc (serviceTier, Responses store, gợi ý prompt-cache, tương thích reasoning của OpenAI). Các ref dựa trên Gemini chỉ giữ cơ chế làm sạch chữ ký suy nghĩ proxy-Gemini.
Kilo Gateway
Các ref dựa trên Gemini đi theo cùng đường dẫn làm sạch proxy-Gemini; kilocode/kilo/auto và các ref khác không hỗ trợ proxy-reasoning sẽ bỏ qua việc chèn reasoning proxy.
MiniMax
Onboarding bằng khóa API ghi các định nghĩa mô hình chat M2.7 chỉ văn bản rõ ràng; khả năng hiểu hình ảnh vẫn nằm trên nhà cung cấp media MiniMax-VL-01 do plugin sở hữu.
NVIDIA
ID mô hình dùng namespace nvidia/<vendor>/<model> (ví dụ nvidia/nvidia/nemotron-... cùng với nvidia/moonshotai/kimi-k2.5); các trình chọn giữ nguyên thành phần <provider>/<model-id> theo nghĩa đen, trong khi khóa chuẩn gửi đến API vẫn chỉ có một tiền tố.
xAI
Dùng đường dẫn Responses của xAI. grok-4.3 là mô hình chat mặc định được đóng gói kèm. /fast hoặc params.fastMode: true ghi lại grok-3, grok-3-mini, grok-4 và grok-4-0709 thành các biến thể *-fast tương ứng. tool_stream bật mặc định; tắt qua agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
Được phân phối dưới dạng plugin nhà cung cấp cerebras đóng gói kèm. GLM dùng zai-glm-4.7; URL cơ sở tương thích OpenAI là https://api.cerebras.ai/v1.
Nhà cung cấp qua models.providers (tùy chỉnh/URL cơ sở)
Dùng models.providers (hoặc models.json) để thêm nhà cung cấp tùy chỉnh hoặc proxy tương thích OpenAI/Anthropic.
Nhiều plugin nhà cung cấp đóng gói kèm bên dưới đã công bố một danh mục mặc định. Chỉ dùng các mục models.providers.<id> rõ ràng khi bạn muốn ghi đè URL cơ sở mặc định, header hoặc danh sách mô hình.
Các kiểm tra năng lực mô hình của Gateway cũng đọc metadata models.providers.<id>.models[] rõ ràng. Nếu một mô hình tùy chỉnh hoặc proxy chấp nhận hình ảnh, đặt input: ["text", "image"] trên mô hình đó để WebChat và các đường dẫn tệp đính kèm bắt nguồn từ node truyền hình ảnh dưới dạng đầu vào mô hình gốc thay vì ref media chỉ văn bản.
Moonshot AI (Kimi)
Moonshot được phân phối dưới dạng plugin nhà cung cấp đóng gói kèm. Mặc định hãy dùng nhà cung cấp tích hợp sẵn và chỉ thêm mục models.providers.moonshot rõ ràng khi bạn cần ghi đè URL cơ sở hoặc metadata mô hình:
- Nhà cung cấp:
moonshot - Xác thực:
MOONSHOT_API_KEY - Mô hình ví dụ:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyhoặcopenclaw onboard --auth-choice moonshot-api-key-cn
ID mô hình Kimi K2:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Kimi coding
Kimi Coding dùng endpoint tương thích Anthropic của Moonshot AI:
- Nhà cung cấp:
kimi - Xác thực:
KIMI_API_KEY - Mô hình ví dụ:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
Mã model tương thích cũ kimi/k2p5 vẫn được chấp nhận.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) cung cấp quyền truy cập Doubao và các model khác tại Trung Quốc.
- Nhà cung cấp:
volcengine(lập trình:volcengine-plan) - Xác thực:
VOLCANO_ENGINE_API_KEY - Model ví dụ:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
Onboarding mặc định dùng bề mặt lập trình, nhưng catalog volcengine/* chung cũng được đăng ký cùng lúc.
Trong bộ chọn model khi onboarding/cấu hình, lựa chọn xác thực Volcengine ưu tiên cả các hàng volcengine/* và volcengine-plan/*. Nếu các model đó chưa được tải, OpenClaw sẽ quay về catalog chưa lọc thay vì hiển thị bộ chọn rỗng theo phạm vi nhà cung cấp.
Model tiêu chuẩn
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Model lập trình (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Quốc tế)
BytePlus ARK cung cấp quyền truy cập các model giống Volcano Engine cho người dùng quốc tế.
- Nhà cung cấp:
byteplus(lập trình:byteplus-plan) - Xác thực:
BYTEPLUS_API_KEY - Model ví dụ:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
Onboarding mặc định dùng bề mặt lập trình, nhưng catalog byteplus/* chung cũng được đăng ký cùng lúc.
Trong bộ chọn model khi onboarding/cấu hình, lựa chọn xác thực BytePlus ưu tiên cả các hàng byteplus/* và byteplus-plan/*. Nếu các model đó chưa được tải, OpenClaw sẽ quay về catalog chưa lọc thay vì hiển thị bộ chọn rỗng theo phạm vi nhà cung cấp.
Model tiêu chuẩn
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Model lập trình (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic cung cấp các model tương thích Anthropic phía sau nhà cung cấp synthetic:
- Nhà cung cấp:
synthetic - Xác thực:
SYNTHETIC_API_KEY - Model ví dụ:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax được cấu hình qua models.providers vì nó dùng endpoint tùy chỉnh:
- MiniMax OAuth (Toàn cầu):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Khóa API MiniMax (Toàn cầu):
--auth-choice minimax-global-api - Khóa API MiniMax (CN):
--auth-choice minimax-cn-api - Xác thực:
MINIMAX_API_KEYchominimax;MINIMAX_OAUTH_TOKENhoặcMINIMAX_API_KEYchominimax-portal
Xem /providers/minimax để biết chi tiết thiết lập, tùy chọn model và đoạn cấu hình.
Phân tách năng lực do plugin sở hữu:
- Mặc định văn bản/trò chuyện vẫn dùng
minimax/MiniMax-M2.7 - Tạo ảnh là
minimax/image-01hoặcminimax-portal/image-01 - Hiểu ảnh là
MiniMax-VL-01do plugin sở hữu trên cả hai đường dẫn xác thực MiniMax - Tìm kiếm web vẫn dùng id nhà cung cấp
minimax
LM Studio
LM Studio được phân phối dưới dạng plugin nhà cung cấp đi kèm, dùng API native:
- Nhà cung cấp:
lmstudio - Xác thực:
LM_API_TOKEN - URL cơ sở suy luận mặc định:
http://localhost:1234/v1
Sau đó đặt một model (thay bằng một trong các ID do http://localhost:1234/api/v1/models trả về):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw dùng /api/v1/models và /api/v1/models/load native của LM Studio để khám phá + tự động tải, với /v1/chat/completions cho suy luận theo mặc định. Nếu bạn muốn LM Studio JIT loading, TTL và tự động loại bỏ sở hữu vòng đời model, hãy đặt models.providers.lmstudio.params.preload: false. Xem /providers/lmstudio để biết cách thiết lập và khắc phục sự cố.
Ollama
Ollama được phân phối dưới dạng plugin nhà cung cấp đi kèm và dùng API native của Ollama:
- Nhà cung cấp:
ollama - Xác thực: Không bắt buộc (máy chủ cục bộ)
- Model ví dụ:
ollama/llama3.3 - Cài đặt: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama được phát hiện cục bộ tại http://127.0.0.1:11434 khi bạn chọn tham gia bằng OLLAMA_API_KEY, và plugin nhà cung cấp đi kèm thêm Ollama trực tiếp vào openclaw onboard và bộ chọn model. Xem /providers/ollama để biết onboarding, chế độ đám mây/cục bộ và cấu hình tùy chỉnh.
vLLM
vLLM được phân phối dưới dạng plugin nhà cung cấp đi kèm cho các máy chủ cục bộ/tự lưu trữ tương thích OpenAI:
- Nhà cung cấp:
vllm - Xác thực: Tùy chọn (phụ thuộc vào máy chủ của bạn)
- URL cơ sở mặc định:
http://127.0.0.1:8000/v1
Để chọn tham gia tự động khám phá cục bộ (bất kỳ giá trị nào cũng được nếu máy chủ của bạn không bắt buộc xác thực):
export VLLM_API_KEY="vllm-local"
Sau đó đặt một model (thay bằng một trong các ID do /v1/models trả về):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Xem /providers/vllm để biết chi tiết.
SGLang
SGLang được phân phối dưới dạng plugin nhà cung cấp đi kèm cho các máy chủ tự lưu trữ nhanh tương thích OpenAI:
- Nhà cung cấp:
sglang - Xác thực: Tùy chọn (phụ thuộc vào máy chủ của bạn)
- URL cơ sở mặc định:
http://127.0.0.1:30000/v1
Để chọn tham gia tự động khám phá cục bộ (bất kỳ giá trị nào cũng được nếu máy chủ của bạn không bắt buộc xác thực):
export SGLANG_API_KEY="sglang-local"
Sau đó đặt một model (thay bằng một trong các ID do /v1/models trả về):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Xem /providers/sglang để biết chi tiết.
Proxy cục bộ (LM Studio, vLLM, LiteLLM, v.v.)
Ví dụ (tương thích OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Trường tùy chọn mặc định
Với nhà cung cấp tùy chỉnh, reasoning, input, cost, contextWindow và maxTokens là tùy chọn. Khi bị bỏ qua, OpenClaw mặc định là:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Khuyến nghị: đặt các giá trị rõ ràng khớp với giới hạn proxy/model của bạn.
Quy tắc định hình tuyến proxy
- Với
api: "openai-completions"trên endpoint không native (bất kỳbaseUrlkhông rỗng nào có host không phảiapi.openai.com), OpenClaw buộccompat.supportsDeveloperRole: falseđể tránh lỗi 400 của nhà cung cấp do không hỗ trợ vai tròdeveloper. - Các tuyến kiểu proxy tương thích OpenAI cũng bỏ qua định hình yêu cầu chỉ dành cho OpenAI native: không
service_tier, không Responsesstore, không Completionsstore, không gợi ý prompt-cache, không định hình payload tương thích suy luận OpenAI, và không có header ghi nhận OpenClaw ẩn. - Với proxy Completions tương thích OpenAI cần các trường riêng của nhà cung cấp, đặt
agents.defaults.models["provider/model"].params.extra_body(hoặcextraBody) để hợp nhất JSON bổ sung vào thân yêu cầu gửi ra. - Với điều khiển chat-template của vLLM, đặt
agents.defaults.models["provider/model"].params.chat_template_kwargs. Plugin vLLM đi kèm tự động gửienable_thinking: falsevàforce_nonempty_content: truechovllm/nemotron-3-*khi cấp độ suy luận của phiên đang tắt. - Với các model cục bộ chậm hoặc host LAN/tailnet từ xa, đặt
models.providers.<id>.timeoutSeconds. Thiết lập này mở rộng việc xử lý yêu cầu HTTP model của nhà cung cấp, bao gồm kết nối, header, streaming thân và hủy guarded-fetch tổng thể, mà không tăng toàn bộ thời gian chờ runtime của agent. - Các lệnh gọi HTTP của nhà cung cấp model cho phép câu trả lời DNS fake-IP của Surge, Clash và sing-box trong
198.18.0.0/15vàfc00::/7chỉ cho tên hostbaseUrlcủa nhà cung cấp đã cấu hình. Các đích private, loopback, link-local và metadata khác vẫn cần chọn tham gia rõ ràng bằngmodels.providers.<id>.request.allowPrivateNetwork: true. - Nếu
baseUrlrỗng/bị bỏ qua, OpenClaw giữ hành vi OpenAI mặc định (phân giải tớiapi.openai.com). - Vì an toàn,
compat.supportsDeveloperRole: truerõ ràng vẫn bị ghi đè trên các endpointopenai-completionskhông native. - Với
api: "anthropic-messages"trên endpoint không trực tiếp (bất kỳ nhà cung cấp nào ngoàianthropicchuẩn, hoặcmodels.providers.anthropic.baseUrltùy chỉnh có host không phải endpoint công khaiapi.anthropic.com), OpenClaw chặn các header beta Anthropic ngầm định nhưclaude-code-20250219,interleaved-thinking-2025-05-14và marker OAuth, để proxy tùy chỉnh tương thích Anthropic không từ chối các cờ beta không được hỗ trợ. Đặt rõ ràngmodels.providers.<id>.headers["anthropic-beta"]nếu proxy của bạn cần tính năng beta cụ thể.
Ví dụ CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Xem thêm: Cấu hình để có ví dụ cấu hình đầy đủ.
Liên quan
- Tham chiếu cấu hình - khóa cấu hình model
- Chuyển đổi dự phòng model - chuỗi dự phòng và hành vi thử lại
- Model - cấu hình model và bí danh
- Nhà cung cấp - hướng dẫn thiết lập theo từng nhà cung cấp