Concepts and configuration
Penyedia model
Referensi untuk penyedia LLM/model (bukan kanal chat seperti WhatsApp/Telegram). Untuk aturan pemilihan model, lihat Model.
Aturan cepat
Model refs and CLI helpers
- Ref model menggunakan
provider/model(contoh:opencode/claude-opus-4-6). agents.defaults.modelsberfungsi sebagai allowlist saat ditetapkan.- Pembantu CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensmenetapkan default tingkat penyedia;models.providers.*.models[].contextWindow/contextTokens/maxTokensmenimpanya per model.- Aturan fallback, probe cooldown, dan persistensi penimpaan sesi: Failover model.
Adding provider auth does not change your primary model
openclaw configure mempertahankan agents.defaults.model.primary yang sudah ada saat Anda menambahkan atau mengautentikasi ulang penyedia. Plugin penyedia masih dapat mengembalikan model default yang direkomendasikan dalam patch konfigurasi autentikasinya, tetapi configure memperlakukannya sebagai "jadikan model ini tersedia" saat model utama sudah ada, bukan "ganti model utama saat ini."
Untuk sengaja mengganti model default, gunakan openclaw models set <provider/model> atau openclaw models auth login --provider <id> --set-default.
OpenAI provider/runtime split
Rute keluarga OpenAI bersifat spesifik prefiks:
openai/<model>ditambahagents.defaults.agentRuntime.id: "codex"menggunakan harness app-server Codex native. Ini adalah penyiapan langganan ChatGPT/Codex yang umum.openai-codex/<model>menggunakan OAuth Codex di PI.openai/<model>tanpa penimpaan runtime Codex menggunakan penyedia kunci API OpenAI langsung di PI.
Lihat OpenAI dan Harness Codex. Jika pemisahan penyedia/runtime membingungkan, baca Runtime agen terlebih dahulu.
Pengaktifan otomatis Plugin mengikuti batas yang sama: openai-codex/<model> milik Plugin OpenAI, sedangkan Plugin Codex diaktifkan oleh agentRuntime.id: "codex" atau ref lama codex/<model>.
GPT-5.5 tersedia melalui harness app-server Codex native saat agentRuntime.id: "codex" ditetapkan, melalui openai-codex/gpt-5.5 di PI untuk OAuth Codex, dan melalui openai/gpt-5.5 di PI untuk traffic kunci API langsung saat akun Anda mengeksposnya.
CLI runtimes
Runtime CLI menggunakan pemisahan yang sama: pilih ref model kanonis seperti anthropic/claude-*, google/gemini-*, atau openai/gpt-*, lalu tetapkan agents.defaults.agentRuntime.id ke claude-cli, google-gemini-cli, atau codex-cli saat Anda menginginkan backend CLI lokal.
Ref lama claude-cli/*, google-gemini-cli/*, dan codex-cli/* bermigrasi kembali ke ref penyedia kanonis dengan runtime dicatat secara terpisah.
Perilaku penyedia milik Plugin
Sebagian besar logika spesifik penyedia berada di Plugin penyedia (registerProvider(...)) sementara OpenClaw mempertahankan loop inferensi generik. Plugin memiliki onboarding, katalog model, pemetaan env-var autentikasi, normalisasi transport/konfigurasi, pembersihan skema alat, klasifikasi failover, penyegaran OAuth, pelaporan penggunaan, profil pemikiran/penalaran, dan lainnya.
Daftar lengkap hook SDK penyedia dan contoh Plugin bawaan tersedia di Plugin penyedia. Penyedia yang membutuhkan eksekutor permintaan yang sepenuhnya kustom adalah permukaan ekstensi yang terpisah dan lebih dalam.
Rotasi kunci API
Key sources and priority
Konfigurasikan beberapa kunci melalui:
OPENCLAW_LIVE_<PROVIDER>_KEY(penimpaan live tunggal, prioritas tertinggi)<PROVIDER>_API_KEYS(daftar dipisahkan koma atau titik koma)<PROVIDER>_API_KEY(kunci utama)<PROVIDER>_API_KEY_*(daftar bernomor, misalnya<PROVIDER>_API_KEY_1)
Untuk penyedia Google, GOOGLE_API_KEY juga disertakan sebagai fallback. Urutan pemilihan kunci mempertahankan prioritas dan menghapus duplikasi nilai.
Saat rotasi aktif
- Permintaan dicoba ulang dengan kunci berikutnya hanya pada respons batas laju (misalnya
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded, atau pesan batas penggunaan berkala). - Kegagalan yang bukan batas laju langsung gagal; rotasi kunci tidak dicoba.
- Saat semua kunci kandidat gagal, kesalahan akhir dikembalikan dari percobaan terakhir.
Penyedia bawaan (katalog pi-ai)
OpenClaw disertakan dengan katalog pi-ai. Penyedia ini tidak memerlukan konfigurasi models.providers; cukup atur autentikasi + pilih model.
OpenAI
- Penyedia:
openai - Autentikasi:
OPENAI_API_KEY - Rotasi opsional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, ditambahOPENCLAW_LIVE_OPENAI_KEY(penggantian tunggal) - Contoh model:
openai/gpt-5.5,openai/gpt-5.4-mini - Verifikasi ketersediaan akun/model dengan
openclaw models list --provider openaijika instalasi atau kunci API tertentu berperilaku berbeda. - CLI:
openclaw onboard --auth-choice openai-api-key - Transport default adalah
auto(WebSocket lebih dulu, fallback SSE) - Timpa per model melalui
agents.defaults.models["openai/<model>"].params.transport("sse","websocket", atau"auto") - Pemanasan WebSocket OpenAI Responses secara default diaktifkan melalui
params.openaiWsWarmup(true/false) - Pemrosesan prioritas OpenAI dapat diaktifkan melalui
agents.defaults.models["openai/<model>"].params.serviceTier /fastdanparams.fastModememetakan permintaan Responsesopenai/*langsung keservice_tier=prioritypadaapi.openai.com- Gunakan
params.serviceTiersaat Anda menginginkan tingkat eksplisit, bukan toggle/fastbersama - Header atribusi OpenClaw tersembunyi (
originator,version,User-Agent) hanya berlaku pada lalu lintas OpenAI native keapi.openai.com, bukan proxy generik yang kompatibel dengan OpenAI - Rute OpenAI native juga mempertahankan
storeResponses, petunjuk prompt-cache, dan pembentukan payload kompatibilitas penalaran OpenAI; rute proxy tidak openai/gpt-5.3-codex-sparksengaja ditekan di OpenClaw karena permintaan API OpenAI langsung menolaknya dan katalog Codex saat ini tidak mengeksposnya
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Penyedia:
anthropic - Autentikasi:
ANTHROPIC_API_KEY - Rotasi opsional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, ditambahOPENCLAW_LIVE_ANTHROPIC_KEY(penggantian tunggal) - Contoh model:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Permintaan Anthropic publik langsung mendukung toggle
/fastbersama danparams.fastMode, termasuk lalu lintas yang diautentikasi dengan kunci API dan OAuth yang dikirim keapi.anthropic.com; OpenClaw memetakannya keservice_tierAnthropic (autovsstandard_only) - Konfigurasi Claude CLI yang disarankan mempertahankan ref model kanonis dan memilih backend CLI
secara terpisah:
anthropic/claude-opus-4-7denganagents.defaults.agentRuntime.id: "claude-cli". Ref lamaclaude-cli/claude-opus-4-7tetap berfungsi untuk kompatibilitas.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- Penyedia:
openai-codex - Autentikasi: OAuth (ChatGPT)
- Ref model PI:
openai-codex/gpt-5.5 - Ref harness server aplikasi Codex native:
openai/gpt-5.5denganagents.defaults.agentRuntime.id: "codex" - Dokumentasi harness server aplikasi Codex native: Harness Codex
- Ref model lama:
codex/gpt-* - Batas Plugin:
openai-codex/*memuat Plugin OpenAI; Plugin server aplikasi Codex native hanya dipilih oleh runtime harness Codex atau ref lamacodex/*. - CLI:
openclaw onboard --auth-choice openai-codexatauopenclaw models auth login --provider openai-codex - Transport default adalah
auto(WebSocket lebih dulu, fallback SSE) - Timpa per model PI melalui
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", atau"auto") params.serviceTierjuga diteruskan pada permintaan Codex Responses native (chatgpt.com/backend-api)- Header atribusi OpenClaw tersembunyi (
originator,version,User-Agent) hanya dilampirkan pada lalu lintas Codex native kechatgpt.com/backend-api, bukan proxy generik yang kompatibel dengan OpenAI - Berbagi toggle
/fastdan konfigurasiparams.fastModeyang sama denganopenai/*langsung; OpenClaw memetakannya keservice_tier=priority openai-codex/gpt-5.5menggunakancontextWindow = 400000native dari katalog Codex dan runtime defaultcontextTokens = 272000; timpa batas runtime denganmodels.providers.openai-codex.models[].contextTokens- Catatan kebijakan: OpenAI Codex OAuth didukung secara eksplisit untuk alat/alur kerja eksternal seperti OpenClaw.
- Untuk rute langganan umum plus runtime Codex native, masuk dengan autentikasi
openai-codextetapi konfigurasikanopenai/gpt-5.5ditambahagents.defaults.agentRuntime.id: "codex". - Gunakan
openai-codex/gpt-5.5hanya saat Anda menginginkan rute Codex OAuth/langganan melalui PI; gunakanopenai/gpt-5.5tanpa penggantian runtime Codex saat penyiapan kunci API dan katalog lokal Anda mengekspos rute API publik. - Ref lama
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*, danopenai-codex/gpt-5.3*ditekan karena akun ChatGPT/Codex OAuth menolaknya; gunakanopenai-codex/gpt-5.5atau rute runtime Codex native sebagai gantinya.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Opsi hosted gaya langganan lainnya
Z.AI Coding Plan atau endpoint API umum.
OAuth MiniMax Coding Plan atau akses kunci API.
Permukaan penyedia Qwen Cloud ditambah pemetaan endpoint Alibaba DashScope dan Coding Plan.
OpenCode
- Autentikasi:
OPENCODE_API_KEY(atauOPENCODE_ZEN_API_KEY) - Penyedia runtime Zen:
opencode - Penyedia runtime Go:
opencode-go - Contoh model:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenatauopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (kunci API)
- Penyedia:
google - Autentikasi:
GEMINI_API_KEY - Rotasi opsional: fallback
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEY, danOPENCLAW_LIVE_GEMINI_KEY(override tunggal) - Model contoh:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Kompatibilitas: konfigurasi OpenClaw lama yang menggunakan
google/gemini-3.1-flash-previewdinormalisasi menjadigoogle/gemini-3-flash-preview - Alias:
google/gemini-3.1-proditerima dan dinormalisasi menjadi id Gemini API live Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Berpikir:
/think adaptivemenggunakan dynamic thinking Google. Gemini 3/3.1 menghilangkanthinkingLeveltetap; Gemini 2.5 mengirimthinkingBudget: -1. - Eksekusi Gemini langsung juga menerima
agents.defaults.models["google/<model>"].params.cachedContent(ataucached_contentlama) untuk meneruskan handlecachedContents/...native penyedia; hit cache Gemini muncul sebagai OpenClawcacheRead
Google Vertex dan Gemini CLI
- Penyedia:
google-vertex,google-gemini-cli - Autentikasi: Vertex menggunakan gcloud ADC; Gemini CLI menggunakan alur OAuth-nya
OAuth Gemini CLI dikirim sebagai bagian dari Plugin google bawaan.
Instal Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Aktifkan Plugin
openclaw plugins enable google
Login
openclaw models auth login --provider google-gemini-cli --set-default
Model default: google-gemini-cli/gemini-3-flash-preview. Anda tidak menempelkan client id atau secret ke openclaw.json. Alur login CLI menyimpan token di profil autentikasi pada host gateway.
Atur proyek (jika diperlukan)
Jika permintaan gagal setelah login, atur GOOGLE_CLOUD_PROJECT atau GOOGLE_CLOUD_PROJECT_ID pada host gateway.
Balasan JSON Gemini CLI diuraikan dari response; penggunaan fallback ke stats, dengan stats.cached dinormalisasi menjadi OpenClaw cacheRead.
Z.AI (GLM)
- Penyedia:
zai - Autentikasi:
ZAI_API_KEY - Model contoh:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Alias:
z.ai/*danz-ai/*dinormalisasi menjadizai/* zai-api-keymendeteksi otomatis endpoint Z.AI yang cocok;zai-coding-global,zai-coding-cn,zai-global, danzai-cnmemaksa surface tertentu
- Alias:
Vercel AI Gateway
- Penyedia:
vercel-ai-gateway - Autentikasi:
AI_GATEWAY_API_KEY - Model contoh:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Penyedia:
kilocode - Autentikasi:
KILOCODE_API_KEY - Model contoh:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL dasar:
https://api.kilo.ai/api/gateway/ - Katalog fallback statis mengirimkan
kilocode/kilo/auto; discovery livehttps://api.kilo.ai/api/gateway/modelsdapat memperluas katalog runtime lebih lanjut. - Routing upstream persis di balik
kilocode/kilo/autodimiliki oleh Kilo Gateway, bukan di-hard-code di OpenClaw.
Lihat /providers/kilocode untuk detail penyiapan.
Plugin penyedia bawaan lainnya
| Penyedia | Id | Env autentikasi | Model contoh |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN atau HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY atau KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Keunikan yang perlu diketahui
OpenRouter
Menerapkan header atribusi aplikasinya dan penanda Anthropic cache_control hanya pada rute openrouter.ai yang terverifikasi. Referensi DeepSeek, Moonshot, dan ZAI memenuhi syarat cache-TTL untuk penyimpanan cache prompt yang dikelola OpenRouter, tetapi tidak menerima penanda cache Anthropic. Sebagai jalur bergaya proksi yang kompatibel dengan OpenAI, jalur ini melewati pembentukan khusus OpenAI native (serviceTier, Responses store, petunjuk cache prompt, kompatibilitas penalaran OpenAI). Referensi berbasis Gemini hanya mempertahankan sanitasi tanda tangan pemikiran proksi-Gemini.
Kilo Gateway
Referensi berbasis Gemini mengikuti jalur sanitasi proksi-Gemini yang sama; kilocode/kilo/auto dan referensi lain yang tidak mendukung penalaran proksi melewati injeksi penalaran proksi.
MiniMax
Onboarding kunci API menulis definisi model chat M2.7 khusus teks secara eksplisit; pemahaman gambar tetap berada pada penyedia media MiniMax-VL-01 milik Plugin.
NVIDIA
ID model menggunakan namespace nvidia/<vendor>/<model> (misalnya nvidia/nvidia/nemotron-... bersama nvidia/moonshotai/kimi-k2.5); pemilih mempertahankan komposisi literal <provider>/<model-id> sementara kunci kanonis yang dikirim ke API tetap berawalan tunggal.
xAI
Menggunakan jalur Responses xAI. grok-4.3 adalah model chat default yang dibundel. /fast atau params.fastMode: true menulis ulang grok-3, grok-3-mini, grok-4, dan grok-4-0709 ke varian *-fast masing-masing. tool_stream aktif secara default; nonaktifkan melalui agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
Dikirim sebagai Plugin penyedia cerebras yang dibundel. GLM menggunakan zai-glm-4.7; URL dasar yang kompatibel dengan OpenAI adalah https://api.cerebras.ai/v1.
Penyedia melalui models.providers (URL khusus/dasar)
Gunakan models.providers (atau models.json) untuk menambahkan penyedia khusus atau proksi yang kompatibel dengan OpenAI/Anthropic.
Banyak Plugin penyedia yang dibundel di bawah ini sudah menerbitkan katalog default. Gunakan entri models.providers.<id> eksplisit hanya ketika Anda ingin menimpa URL dasar default, header, atau daftar model.
Pemeriksaan kapabilitas model Gateway juga membaca metadata models.providers.<id>.models[] eksplisit. Jika model khusus atau proksi menerima gambar, tetapkan input: ["text", "image"] pada model tersebut agar WebChat dan jalur lampiran yang berasal dari Node meneruskan gambar sebagai input model native, bukan referensi media khusus teks.
Moonshot AI (Kimi)
Moonshot dikirim sebagai Plugin penyedia yang dibundel. Gunakan penyedia bawaan secara default, dan tambahkan entri models.providers.moonshot eksplisit hanya ketika Anda perlu menimpa URL dasar atau metadata model:
- Penyedia:
moonshot - Autentikasi:
MOONSHOT_API_KEY - Contoh model:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyatauopenclaw onboard --auth-choice moonshot-api-key-cn
ID model Kimi K2:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Kimi coding
Kimi Coding menggunakan endpoint Moonshot AI yang kompatibel dengan Anthropic:
- Penyedia:
kimi - Autentikasi:
KIMI_API_KEY - Contoh model:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
kimi/k2p5 lama tetap diterima sebagai id model kompatibilitas.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) menyediakan akses ke Doubao dan model lain di Tiongkok.
- Penyedia:
volcengine(coding:volcengine-plan) - Autentikasi:
VOLCANO_ENGINE_API_KEY - Contoh model:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
Onboarding secara default menggunakan permukaan coding, tetapi katalog umum volcengine/* didaftarkan pada saat yang sama.
Di pemilih model onboarding/konfigurasi, pilihan autentikasi Volcengine memprioritaskan baris volcengine/* dan volcengine-plan/*. Jika model tersebut belum dimuat, OpenClaw kembali ke katalog tanpa filter alih-alih menampilkan pemilih kosong yang dibatasi penyedia.
Standard models
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Coding models (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internasional)
BytePlus ARK menyediakan akses ke model yang sama seperti Volcano Engine untuk pengguna internasional.
- Penyedia:
byteplus(coding:byteplus-plan) - Autentikasi:
BYTEPLUS_API_KEY - Contoh model:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
Onboarding secara default menggunakan permukaan coding, tetapi katalog umum byteplus/* didaftarkan pada saat yang sama.
Di pemilih model onboarding/konfigurasi, pilihan autentikasi BytePlus memprioritaskan baris byteplus/* dan byteplus-plan/*. Jika model tersebut belum dimuat, OpenClaw kembali ke katalog tanpa filter alih-alih menampilkan pemilih kosong yang dibatasi penyedia.
Standard models
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Coding models (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic menyediakan model yang kompatibel dengan Anthropic di balik penyedia synthetic:
- Penyedia:
synthetic - Autentikasi:
SYNTHETIC_API_KEY - Contoh model:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax dikonfigurasi melalui models.providers karena menggunakan endpoint kustom:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Kunci API MiniMax (Global):
--auth-choice minimax-global-api - Kunci API MiniMax (CN):
--auth-choice minimax-cn-api - Autentikasi:
MINIMAX_API_KEYuntukminimax;MINIMAX_OAUTH_TOKENatauMINIMAX_API_KEYuntukminimax-portal
Lihat /providers/minimax untuk detail penyiapan, opsi model, dan cuplikan konfigurasi.
Pemisahan kapabilitas milik Plugin:
- Default teks/chat tetap pada
minimax/MiniMax-M2.7 - Pembuatan gambar adalah
minimax/image-01atauminimax-portal/image-01 - Pemahaman gambar adalah
MiniMax-VL-01milik Plugin pada kedua jalur autentikasi MiniMax - Pencarian web tetap pada id penyedia
minimax
LM Studio
LM Studio dikirim sebagai Plugin penyedia bawaan yang menggunakan API native:
- Penyedia:
lmstudio - Autentikasi:
LM_API_TOKEN - URL dasar inferensi default:
http://localhost:1234/v1
Lalu tetapkan model (ganti dengan salah satu ID yang dikembalikan oleh http://localhost:1234/api/v1/models):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw menggunakan /api/v1/models dan /api/v1/models/load native LM Studio untuk penemuan + pemuatan otomatis, dengan /v1/chat/completions untuk inferensi secara default. Jika Anda ingin pemuatan JIT, TTL, dan auto-evict LM Studio mengelola siklus hidup model, tetapkan models.providers.lmstudio.params.preload: false. Lihat /providers/lmstudio untuk penyiapan dan pemecahan masalah.
Ollama
Ollama dikirim sebagai Plugin penyedia bawaan dan menggunakan API native Ollama:
- Penyedia:
ollama - Autentikasi: Tidak diperlukan (server lokal)
- Contoh model:
ollama/llama3.3 - Instalasi: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama terdeteksi secara lokal di http://127.0.0.1:11434 ketika Anda ikut serta dengan OLLAMA_API_KEY, dan Plugin penyedia bawaan menambahkan Ollama langsung ke openclaw onboard dan pemilih model. Lihat /providers/ollama untuk onboarding, mode cloud/lokal, dan konfigurasi kustom.
vLLM
vLLM dikirim sebagai Plugin penyedia bawaan untuk server lokal/self-hosted yang kompatibel dengan OpenAI:
- Penyedia:
vllm - Autentikasi: Opsional (bergantung pada server Anda)
- URL dasar default:
http://127.0.0.1:8000/v1
Untuk ikut serta dalam penemuan otomatis secara lokal (nilai apa pun berfungsi jika server Anda tidak memberlakukan autentikasi):
export VLLM_API_KEY="vllm-local"
Lalu tetapkan model (ganti dengan salah satu ID yang dikembalikan oleh /v1/models):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Lihat /providers/vllm untuk detail.
SGLang
SGLang dikirim sebagai Plugin penyedia bawaan untuk server self-hosted cepat yang kompatibel dengan OpenAI:
- Penyedia:
sglang - Autentikasi: Opsional (bergantung pada server Anda)
- URL dasar default:
http://127.0.0.1:30000/v1
Untuk ikut serta dalam penemuan otomatis secara lokal (nilai apa pun berfungsi jika server Anda tidak memberlakukan autentikasi):
export SGLANG_API_KEY="sglang-local"
Lalu tetapkan model (ganti dengan salah satu ID yang dikembalikan oleh /v1/models):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Lihat /providers/sglang untuk detail.
Proksi lokal (LM Studio, vLLM, LiteLLM, dll.)
Contoh (kompatibel dengan OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Default optional fields
Untuk penyedia kustom, reasoning, input, cost, contextWindow, dan maxTokens bersifat opsional. Jika dihilangkan, OpenClaw secara default menggunakan:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Direkomendasikan: tetapkan nilai eksplisit yang sesuai dengan batas proxy/model Anda.
Proxy-route shaping rules
- Untuk
api: "openai-completions"pada endpoint non-native (baseUrltidak kosong apa pun yang host-nya bukanapi.openai.com), OpenClaw memaksacompat.supportsDeveloperRole: falseuntuk menghindari galat 400 penyedia untuk perandeveloperyang tidak didukung. - Rute bergaya proxy yang kompatibel dengan OpenAI juga melewati pembentukan permintaan khusus OpenAI native: tanpa
service_tier, tanpa Responsesstore, tanpa Completionsstore, tanpa petunjuk prompt-cache, tanpa pembentukan payload kompatibilitas reasoning OpenAI, dan tanpa header atribusi OpenClaw tersembunyi. - Untuk proksi Completions yang kompatibel dengan OpenAI yang memerlukan field khusus vendor, tetapkan
agents.defaults.models["provider/model"].params.extra_body(atauextraBody) untuk menggabungkan JSON tambahan ke body permintaan keluar. - Untuk kontrol chat-template vLLM, tetapkan
agents.defaults.models["provider/model"].params.chat_template_kwargs. Plugin vLLM bawaan secara otomatis mengirimenable_thinking: falsedanforce_nonempty_content: trueuntukvllm/nemotron-3-*ketika level thinking sesi mati. - Untuk model lokal lambat atau host LAN/tailnet jarak jauh, tetapkan
models.providers.<id>.timeoutSeconds. Ini memperpanjang penanganan permintaan HTTP model penyedia, termasuk koneksi, header, streaming body, dan total penghentian guarded-fetch, tanpa meningkatkan batas waktu runtime agen keseluruhan. - Panggilan HTTP penyedia model mengizinkan jawaban DNS fake-IP Surge, Clash, dan sing-box dalam
198.18.0.0/15danfc00::/7hanya untuk nama hostbaseUrlpenyedia yang dikonfigurasi. Tujuan privat, loopback, link-local, dan metadata lainnya tetap memerlukan opt-in eksplisitmodels.providers.<id>.request.allowPrivateNetwork: true. - Jika
baseUrlkosong/dihilangkan, OpenClaw mempertahankan perilaku default OpenAI (yang diselesaikan keapi.openai.com). - Demi keamanan,
compat.supportsDeveloperRole: trueeksplisit tetap ditimpa pada endpointopenai-completionsnon-native. - Untuk
api: "anthropic-messages"pada endpoint non-langsung (penyedia apa pun selainanthropickanonis, ataumodels.providers.anthropic.baseUrlkustom yang host-nya bukan endpoint publikapi.anthropic.com), OpenClaw menekan header beta Anthropic implisit seperticlaude-code-20250219,interleaved-thinking-2025-05-14, dan penanda OAuth, sehingga proksi kustom yang kompatibel dengan Anthropic tidak menolak flag beta yang tidak didukung. Tetapkanmodels.providers.<id>.headers["anthropic-beta"]secara eksplisit jika proxy Anda memerlukan fitur beta tertentu.
Contoh CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Lihat juga: Konfigurasi untuk contoh konfigurasi lengkap.
Terkait
- Referensi konfigurasi - kunci konfigurasi model
- Failover model - rantai fallback dan perilaku percobaan ulang
- Model - konfigurasi dan alias model
- Penyedia - panduan penyiapan per penyedia