Concepts and configuration
Model sağlayıcıları
LLM/model sağlayıcıları için başvuru (WhatsApp/Telegram gibi sohbet kanalları değil). Model seçimi kuralları için bkz. Modeller.
Hızlı kurallar
Model referansları ve CLI yardımcıları
- Model referansları
provider/modelbiçimini kullanır (örnek:opencode/claude-opus-4-6). agents.defaults.modelsayarlandığında izin listesi gibi davranır.- CLI yardımcıları:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokenssağlayıcı düzeyindeki varsayılanları ayarlar;models.providers.*.models[].contextWindow/contextTokens/maxTokensbunları model bazında geçersiz kılar.- Geri dönüş kuralları, bekleme süresi yoklamaları ve oturum geçersiz kılma kalıcılığı: Model yük devretme.
Sağlayıcı kimlik doğrulaması eklemek birincil modelinizi değiştirmez
openclaw configure, bir sağlayıcı eklediğinizde veya yeniden kimlik doğrulaması yaptığınızda mevcut bir agents.defaults.model.primary değerini korur. Sağlayıcı Plugin’leri, kimlik doğrulama yapılandırma yamalarında yine de önerilen bir varsayılan model döndürebilir, ancak configure bunu birincil model zaten varsa "bu modeli kullanılabilir yap" olarak değerlendirir; "geçerli birincil modeli değiştir" olarak değil.
Varsayılan modeli bilinçli olarak değiştirmek için openclaw models set <provider/model> veya openclaw models auth login --provider <id> --set-default kullanın.
OpenAI sağlayıcı/çalışma zamanı ayrımı
OpenAI ailesi rotaları öneke özeldir:
openai/<model>veagents.defaults.agentRuntime.id: "codex"yerel Codex uygulama sunucusu donanımını kullanır. Bu, olağan ChatGPT/Codex abonelik kurulumudur.openai-codex/<model>PI içinde Codex OAuth kullanır.- Codex çalışma zamanı geçersiz kılması olmadan
openai/<model>, PI içindeki doğrudan OpenAI API anahtarı sağlayıcısını kullanır.
Bkz. OpenAI ve Codex donanımı. Sağlayıcı/çalışma zamanı ayrımı kafa karıştırıyorsa önce Ajan çalışma zamanları bölümünü okuyun.
Plugin otomatik etkinleştirme aynı sınırı izler: openai-codex/<model> OpenAI Plugin’ine aittir; Codex Plugin’i ise agentRuntime.id: "codex" veya eski codex/<model> referanslarıyla etkinleştirilir.
GPT-5.5, agentRuntime.id: "codex" ayarlandığında yerel Codex uygulama sunucusu donanımı üzerinden, Codex OAuth için PI içinde openai-codex/gpt-5.5 üzerinden ve hesabınız bunu sunduğunda doğrudan API anahtarı trafiği için PI içinde openai/gpt-5.5 üzerinden kullanılabilir.
CLI çalışma zamanları
CLI çalışma zamanları aynı ayrımı kullanır: anthropic/claude-*, google/gemini-* veya openai/gpt-* gibi kanonik model referanslarını seçin, ardından yerel bir CLI arka ucu istediğinizde agents.defaults.agentRuntime.id değerini claude-cli, google-gemini-cli veya codex-cli olarak ayarlayın.
Eski claude-cli/*, google-gemini-cli/* ve codex-cli/* referansları, çalışma zamanı ayrı olarak kaydedilerek yeniden kanonik sağlayıcı referanslarına taşınır.
Plugin’e ait sağlayıcı davranışı
Sağlayıcıya özgü mantığın çoğu sağlayıcı Plugin’lerinde (registerProvider(...)) yaşarken OpenClaw genel çıkarım döngüsünü tutar. Plugin’ler katılımı, model kataloglarını, kimlik doğrulama ortam değişkeni eşlemesini, aktarım/yapılandırma normalleştirmesini, araç şeması temizliğini, yük devretme sınıflandırmasını, OAuth yenilemeyi, kullanım raporlamayı, düşünme/akıl yürütme profillerini ve daha fazlasını sahiplenir.
Sağlayıcı SDK hook’larının ve paketlenmiş Plugin örneklerinin tam listesi Sağlayıcı Plugin’leri içinde yer alır. Tamamen özel bir istek yürütücüsüne ihtiyaç duyan bir sağlayıcı ayrı ve daha derin bir uzantı yüzeyidir.
API anahtarı rotasyonu
Anahtar kaynakları ve öncelik
Birden çok anahtarı şu yollarla yapılandırın:
OPENCLAW_LIVE_<PROVIDER>_KEY(tek canlı geçersiz kılma, en yüksek öncelik)<PROVIDER>_API_KEYS(virgül veya noktalı virgül listesi)<PROVIDER>_API_KEY(birincil anahtar)<PROVIDER>_API_KEY_*(numaralı liste, ör.<PROVIDER>_API_KEY_1)
Google sağlayıcıları için GOOGLE_API_KEY de geri dönüş olarak dahil edilir. Anahtar seçimi sırası önceliği korur ve değerlerin yinelenenlerini kaldırır.
Rotasyon ne zaman devreye girer
- İstekler yalnızca hız sınırı yanıtlarında sonraki anahtarla yeniden denenir (örneğin
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededveya dönemsel kullanım sınırı iletileri). - Hız sınırı dışındaki hatalar hemen başarısız olur; anahtar rotasyonu denenmez.
- Tüm aday anahtarlar başarısız olduğunda, son hata son denemeden döndürülür.
Yerleşik sağlayıcılar (pi-ai kataloğu)
OpenClaw pi-ai kataloğuyla birlikte gelir. Bu sağlayıcılar hiçbir models.providers yapılandırması gerektirmez; yalnızca kimlik doğrulamasını ayarlayın ve bir model seçin.
OpenAI
- Sağlayıcı:
openai - Kimlik doğrulama:
OPENAI_API_KEY - İsteğe bağlı rotasyon:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, ayrıcaOPENCLAW_LIVE_OPENAI_KEY(tek geçersiz kılma) - Örnek modeller:
openai/gpt-5.5,openai/gpt-5.4-mini - Belirli bir kurulum veya API anahtarı farklı davranıyorsa hesap/model kullanılabilirliğini
openclaw models list --provider openaiile doğrulayın. - CLI:
openclaw onboard --auth-choice openai-api-key - Varsayılan aktarım
autoolur (önce WebSocket, SSE geri dönüşü) - Model bazında
agents.defaults.models["openai/<model>"].params.transportüzerinden geçersiz kılın ("sse","websocket"veya"auto") - OpenAI Responses WebSocket ısınması varsayılan olarak
params.openaiWsWarmup(true/false) üzerinden etkinleştirilir - OpenAI öncelikli işleme
agents.defaults.models["openai/<model>"].params.serviceTierüzerinden etkinleştirilebilir /fastveparams.fastMode, doğrudanopenai/*Responses istekleriniapi.openai.comüzerindeservice_tier=prioritydeğerine eşler- Paylaşılan
/fastanahtarı yerine açık bir katman istediğinizdeparams.serviceTierkullanın - Gizli OpenClaw atıf başlıkları (
originator,version,User-Agent) genel OpenAI uyumlu proxy’lere değil, yalnızcaapi.openai.comüzerindeki yerel OpenAI trafiğine uygulanır - Yerel OpenAI rotaları ayrıca Responses
store, istem önbelleği ipuçları ve OpenAI akıl yürütme uyumluluğu yük şekillendirmesini korur; proxy rotaları korumaz openai/gpt-5.3-codex-spark, canlı OpenAI API istekleri bunu reddettiği ve mevcut Codex kataloğu bunu sunmadığı için OpenClaw içinde bilinçli olarak bastırılır
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Sağlayıcı:
anthropic - Kimlik doğrulama:
ANTHROPIC_API_KEY - İsteğe bağlı rotasyon:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, ayrıcaOPENCLAW_LIVE_ANTHROPIC_KEY(tek geçersiz kılma) - Örnek model:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Doğrudan herkese açık Anthropic istekleri,
api.anthropic.comadresine gönderilen API anahtarı ve OAuth kimlik doğrulamalı trafik dahil olmak üzere paylaşılan/fastanahtarını veparams.fastModedeğerini destekler; OpenClaw bunu Anthropicservice_tierdeğerine eşler (autovestandard_only) - Tercih edilen Claude CLI yapılandırması model referansını kanonik tutar ve CLI
arka ucunu ayrı seçer:
agents.defaults.agentRuntime.id: "claude-cli"ileanthropic/claude-opus-4-7. Eskiclaude-cli/claude-opus-4-7referansları uyumluluk için çalışmaya devam eder.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- Sağlayıcı:
openai-codex - Kimlik doğrulama: OAuth (ChatGPT)
- PI model referansı:
openai-codex/gpt-5.5 - Yerel Codex uygulama sunucusu donanımı referansı:
agents.defaults.agentRuntime.id: "codex"ileopenai/gpt-5.5 - Yerel Codex uygulama sunucusu donanımı belgeleri: Codex donanımı
- Eski model referansları:
codex/gpt-* - Plugin sınırı:
openai-codex/*OpenAI Plugin’ini yükler; yerel Codex uygulama sunucusu Plugin’i yalnızca Codex donanımı çalışma zamanı veya eskicodex/*referanslarıyla seçilir. - CLI:
openclaw onboard --auth-choice openai-codexveyaopenclaw models auth login --provider openai-codex - Varsayılan aktarım
autoolur (önce WebSocket, SSE geri dönüşü) - PI modeli bazında
agents.defaults.models["openai-codex/<model>"].params.transportüzerinden geçersiz kılın ("sse","websocket"veya"auto") params.serviceTier, yerel Codex Responses isteklerinde de iletilir (chatgpt.com/backend-api)- Gizli OpenClaw atıf başlıkları (
originator,version,User-Agent) genel OpenAI uyumlu proxy’lere değil, yalnızcachatgpt.com/backend-apiüzerindeki yerel Codex trafiğine eklenir - Doğrudan
openai/*ile aynı/fastanahtarını veparams.fastModeyapılandırmasını paylaşır; OpenClaw bunuservice_tier=prioritydeğerine eşler openai-codex/gpt-5.5, Codex kataloğunun yerelcontextWindow = 400000değerini ve varsayılan çalışma zamanıcontextTokens = 272000değerini kullanır; çalışma zamanı sınırınımodels.providers.openai-codex.models[].contextTokensile geçersiz kılın- İlke notu: OpenAI Codex OAuth, OpenClaw gibi harici araçlar/iş akışları için açıkça desteklenir.
- Yaygın abonelik artı yerel Codex çalışma zamanı rotası için
openai-codexkimlik doğrulamasıyla oturum açın, ancakopenai/gpt-5.5veagents.defaults.agentRuntime.id: "codex"yapılandırın. openai-codex/gpt-5.5değerini yalnızca PI üzerinden Codex OAuth/abonelik rotasını istediğinizde kullanın; API anahtarı kurulumunuz ve yerel kataloğunuz herkese açık API rotasını sunduğunda Codex çalışma zamanı geçersiz kılması olmadanopenai/gpt-5.5kullanın.- Daha eski
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*veopenai-codex/gpt-5.3*referansları ChatGPT/Codex OAuth hesapları bunları reddettiği için bastırılır; bunun yerineopenai-codex/gpt-5.5veya yerel Codex çalışma zamanı rotasını kullanın.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Diğer abonelik tarzı barındırılan seçenekler
Z.AI Coding Plan veya genel API uç noktaları.
MiniMax Coding Plan OAuth veya API anahtarı erişimi.
Qwen Cloud sağlayıcı yüzeyi ile Alibaba DashScope ve Coding Plan uç noktası eşlemesi.
OpenCode
- Kimlik doğrulama:
OPENCODE_API_KEY(veyaOPENCODE_ZEN_API_KEY) - Zen çalışma zamanı sağlayıcısı:
opencode - Go çalışma zamanı sağlayıcısı:
opencode-go - Örnek modeller:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenveyaopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (API anahtarı)
- Sağlayıcı:
google - Kimlik doğrulama:
GEMINI_API_KEY - İsteğe bağlı rotasyon:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEYyedeği veOPENCLAW_LIVE_GEMINI_KEY(tekil geçersiz kılma) - Örnek modeller:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Uyumluluk:
google/gemini-3.1-flash-previewkullanan eski OpenClaw yapılandırmasıgoogle/gemini-3-flash-previewolarak normalleştirilir - Takma ad:
google/gemini-3.1-prokabul edilir ve Google'ın canlı Gemini API kimliği olangoogle/gemini-3.1-pro-previewolarak normalleştirilir - CLI:
openclaw onboard --auth-choice gemini-api-key - Düşünme:
/think adaptive, Google dinamik düşünmesini kullanır. Gemini 3/3.1 sabit birthinkingLeveliçermez; Gemini 2.5thinkingBudget: -1gönderir. - Doğrudan Gemini çalıştırmaları, sağlayıcıya özgü bir
cachedContents/...tanıtıcısını iletmek içinagents.defaults.models["google/<model>"].params.cachedContent(veya eskicached_content) değerini de kabul eder; Gemini önbellek isabetleri OpenClawcacheReadolarak görünür
Google Vertex ve Gemini CLI
- Sağlayıcılar:
google-vertex,google-gemini-cli - Kimlik doğrulama: Vertex gcloud ADC kullanır; Gemini CLI kendi OAuth akışını kullanır
Gemini CLI OAuth, paketlenen google Plugin kapsamında gönderilir.
Gemini CLI'yi yükle
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Plugin'i etkinleştir
openclaw plugins enable google
Oturum aç
openclaw models auth login --provider google-gemini-cli --set-default
Varsayılan model: google-gemini-cli/gemini-3-flash-preview. openclaw.json içine bir istemci kimliği veya gizli anahtar yapıştırmazsınız. CLI oturum açma akışı, tokenları Gateway ana makinesindeki kimlik doğrulama profillerinde saklar.
Projeyi ayarla (gerekirse)
Oturum açtıktan sonra istekler başarısız olursa Gateway ana makinesinde GOOGLE_CLOUD_PROJECT veya GOOGLE_CLOUD_PROJECT_ID ayarlayın.
Gemini CLI JSON yanıtları response üzerinden ayrıştırılır; kullanım stats değerine geri döner ve stats.cached, OpenClaw cacheRead olarak normalleştirilir.
Z.AI (GLM)
- Sağlayıcı:
zai - Kimlik doğrulama:
ZAI_API_KEY - Örnek model:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Takma adlar:
z.ai/*vez-ai/*,zai/*olarak normalleştirilir zai-api-keyeşleşen Z.AI uç noktasını otomatik algılar;zai-coding-global,zai-coding-cn,zai-globalvezai-cnbelirli bir yüzeyi zorunlu kılar
- Takma adlar:
Vercel AI Gateway
- Sağlayıcı:
vercel-ai-gateway - Kimlik doğrulama:
AI_GATEWAY_API_KEY - Örnek modeller:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Sağlayıcı:
kilocode - Kimlik doğrulama:
KILOCODE_API_KEY - Örnek model:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Temel URL:
https://api.kilo.ai/api/gateway/ - Statik yedek katalog
kilocode/kilo/autoile birlikte gönderilir; canlıhttps://api.kilo.ai/api/gateway/modelskeşfi çalışma zamanı kataloğunu daha da genişletebilir. kilocode/kilo/autoarkasındaki tam üst akış yönlendirmesi OpenClaw içinde sabit kodlanmamıştır; Kilo Gateway tarafından sahiplenilir.
Kurulum ayrıntıları için /providers/kilocode sayfasına bakın.
Diğer paketlenmiş sağlayıcı Plugin'leri
| Sağlayıcı | Kimlik | Kimlik doğrulama env | Örnek model |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN veya HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY veya KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Bilmeye değer tuhaflıklar
OpenRouter
Uygulama atıf başlıklarını ve Anthropic cache_control işaretleyicilerini yalnızca doğrulanmış openrouter.ai rotalarında uygular. DeepSeek, Moonshot ve ZAI referansları, OpenRouter tarafından yönetilen prompt önbelleklemesi için cache-TTL kullanımına uygundur ancak Anthropic önbellek işaretleyicileri almaz. Proxy tarzı OpenAI uyumlu bir yol olarak, yerel OpenAI’ye özgü biçimlendirmeyi (serviceTier, Responses store, prompt-cache ipuçları, OpenAI reasoning-compat) atlar. Gemini destekli referanslar yalnızca proxy-Gemini düşünce imzası temizliğini korur.
Kilo Gateway
Gemini destekli referanslar aynı proxy-Gemini temizleme yolunu izler; kilocode/kilo/auto ve proxy reasoning desteklemeyen diğer referanslar proxy reasoning enjeksiyonunu atlar.
MiniMax
API anahtarıyla onboarding, açıkça yalnızca metin M2.7 sohbet modeli tanımları yazar; görüntü anlama, Plugin’e ait MiniMax-VL-01 medya sağlayıcısında kalır.
NVIDIA
Model kimlikleri bir nvidia/<vendor>/<model> ad alanı kullanır (örneğin nvidia/moonshotai/kimi-k2.5 ile birlikte nvidia/nvidia/nemotron-...); seçiciler gerçek <provider>/<model-id> bileşimini korurken API’ye gönderilen kanonik anahtar tek önekli kalır.
xAI
xAI Responses yolunu kullanır. grok-4.3, paketle gelen varsayılan sohbet modelidir. /fast veya params.fastMode: true, grok-3, grok-3-mini, grok-4 ve grok-4-0709 değerlerini *-fast varyantlarına yeniden yazar. tool_stream varsayılan olarak açıktır; agents.defaults.models["xai/<model>"].params.tool_stream=false ile devre dışı bırakın.
Cerebras
Paketle gelen cerebras sağlayıcı Plugin’i olarak gönderilir. GLM, zai-glm-4.7 kullanır; OpenAI uyumlu temel URL https://api.cerebras.ai/v1 şeklindedir.
models.providers üzerinden sağlayıcılar (özel/temel URL)
Özel sağlayıcılar veya OpenAI/Anthropic uyumlu proxy’ler eklemek için models.providers (veya models.json) kullanın.
Aşağıdaki paketle gelen sağlayıcı Plugin’lerinin birçoğu zaten varsayılan bir katalog yayımlar. Açık models.providers.<id> girdilerini yalnızca varsayılan temel URL’yi, başlıkları veya model listesini geçersiz kılmak istediğinizde kullanın.
Gateway model yetenek denetimleri, açık models.providers.<id>.models[] meta verilerini de okur. Özel veya proxy bir model görüntü kabul ediyorsa, WebChat ve node kaynaklı ek yollarının görüntüleri yalnızca metin medya referansları yerine yerel model girdileri olarak geçirmesi için o modelde input: ["text", "image"] ayarlayın.
Moonshot AI (Kimi)
Moonshot, paketle gelen bir sağlayıcı Plugin’i olarak gönderilir. Varsayılan olarak yerleşik sağlayıcıyı kullanın ve açık bir models.providers.moonshot girdisini yalnızca temel URL’yi veya model meta verilerini geçersiz kılmanız gerektiğinde ekleyin:
- Sağlayıcı:
moonshot - Kimlik doğrulama:
MOONSHOT_API_KEY - Örnek model:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyveyaopenclaw onboard --auth-choice moonshot-api-key-cn
Kimi K2 model kimlikleri:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Kimi kodlama
Kimi Coding, Moonshot AI’ın Anthropic uyumlu uç noktasını kullanır:
- Sağlayıcı:
kimi - Kimlik doğrulama:
KIMI_API_KEY - Örnek model:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
Eski kimi/k2p5, uyumluluk model kimliği olarak kabul edilmeye devam eder.
Volcano Engine (Doubao)
Volcano Engine (火山引擎), Çin'de Doubao ve diğer modellere erişim sağlar.
- Sağlayıcı:
volcengine(kodlama:volcengine-plan) - Kimlik doğrulama:
VOLCANO_ENGINE_API_KEY - Örnek model:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
İlk kurulum varsayılan olarak kodlama yüzeyini kullanır, ancak genel volcengine/* kataloğu da aynı anda kaydedilir.
İlk kurulum/yapılandırma model seçicilerinde, Volcengine kimlik doğrulama seçimi hem volcengine/* hem de volcengine-plan/* satırlarını tercih eder. Bu modeller henüz yüklenmemişse OpenClaw, boş bir sağlayıcı kapsamlı seçici göstermek yerine filtrelenmemiş kataloğa geri döner.
Standart modeller
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Kodlama modelleri (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Uluslararası)
BytePlus ARK, uluslararası kullanıcılar için Volcano Engine ile aynı modellere erişim sağlar.
- Sağlayıcı:
byteplus(kodlama:byteplus-plan) - Kimlik doğrulama:
BYTEPLUS_API_KEY - Örnek model:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
İlk kurulum varsayılan olarak kodlama yüzeyini kullanır, ancak genel byteplus/* kataloğu da aynı anda kaydedilir.
İlk kurulum/yapılandırma model seçicilerinde, BytePlus kimlik doğrulama seçimi hem byteplus/* hem de byteplus-plan/* satırlarını tercih eder. Bu modeller henüz yüklenmemişse OpenClaw, boş bir sağlayıcı kapsamlı seçici göstermek yerine filtrelenmemiş kataloğa geri döner.
Standart modeller
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Kodlama modelleri (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic, synthetic sağlayıcısının arkasında Anthropic uyumlu modeller sağlar:
- Sağlayıcı:
synthetic - Kimlik doğrulama:
SYNTHETIC_API_KEY - Örnek model:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax, özel uç noktalar kullandığı için models.providers üzerinden yapılandırılır:
- MiniMax OAuth (Küresel):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API anahtarı (Küresel):
--auth-choice minimax-global-api - MiniMax API anahtarı (CN):
--auth-choice minimax-cn-api - Kimlik doğrulama:
minimaxiçinMINIMAX_API_KEY;minimax-portaliçinMINIMAX_OAUTH_TOKENveyaMINIMAX_API_KEY
Kurulum ayrıntıları, model seçenekleri ve yapılandırma parçaları için /providers/minimax sayfasına bakın.
Plugin'e ait yetenek ayrımı:
- Metin/sohbet varsayılanları
minimax/MiniMax-M2.7üzerinde kalır - Görüntü üretimi
minimax/image-01veyaminimax-portal/image-01olur - Görüntü anlama, her iki MiniMax kimlik doğrulama yolunda da Plugin'e ait
MiniMax-VL-01olur - Web araması sağlayıcı kimliği
minimaxüzerinde kalır
LM Studio
LM Studio, yerel API'yi kullanan paketle gelen bir sağlayıcı Plugin'i olarak gönderilir:
- Sağlayıcı:
lmstudio - Kimlik doğrulama:
LM_API_TOKEN - Varsayılan çıkarım temel URL'si:
http://localhost:1234/v1
Ardından bir model ayarlayın (http://localhost:1234/api/v1/models tarafından döndürülen kimliklerden biriyle değiştirin):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw, keşif + otomatik yükleme için LM Studio'nun yerel /api/v1/models ve /api/v1/models/load uç noktalarını, çıkarım içinse varsayılan olarak /v1/chat/completions uç noktasını kullanır. LM Studio JIT yüklemesinin, TTL'nin ve otomatik çıkarma işleminin model yaşam döngüsünü yönetmesini istiyorsanız models.providers.lmstudio.params.preload: false ayarlayın. Kurulum ve sorun giderme için /providers/lmstudio sayfasına bakın.
Ollama
Ollama, paketle gelen bir sağlayıcı Plugin'i olarak gönderilir ve Ollama'nın yerel API'sini kullanır:
- Sağlayıcı:
ollama - Kimlik doğrulama: Gerekmez (yerel sunucu)
- Örnek model:
ollama/llama3.3 - Kurulum: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama, OLLAMA_API_KEY ile etkinleştirdiğinizde http://127.0.0.1:11434 adresinde yerel olarak algılanır ve paketle gelen sağlayıcı Plugin'i Ollama'yı doğrudan openclaw onboard ve model seçiciye ekler. İlk kurulum, bulut/yerel mod ve özel yapılandırma için /providers/ollama sayfasına bakın.
vLLM
vLLM, yerel/kendi barındırılan OpenAI uyumlu sunucular için paketle gelen bir sağlayıcı Plugin'i olarak gönderilir:
- Sağlayıcı:
vllm - Kimlik doğrulama: İsteğe bağlı (sunucunuza bağlıdır)
- Varsayılan temel URL:
http://127.0.0.1:8000/v1
Yerel olarak otomatik keşfi etkinleştirmek için (sunucunuz kimlik doğrulamayı zorunlu kılmıyorsa herhangi bir değer çalışır):
export VLLM_API_KEY="vllm-local"
Ardından bir model ayarlayın (/v1/models tarafından döndürülen kimliklerden biriyle değiştirin):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Ayrıntılar için /providers/vllm sayfasına bakın.
SGLang
SGLang, hızlı kendi barındırılan OpenAI uyumlu sunucular için paketle gelen bir sağlayıcı Plugin'i olarak gönderilir:
- Sağlayıcı:
sglang - Kimlik doğrulama: İsteğe bağlı (sunucunuza bağlıdır)
- Varsayılan temel URL:
http://127.0.0.1:30000/v1
Yerel olarak otomatik keşfi etkinleştirmek için (sunucunuz kimlik doğrulamayı zorunlu kılmıyorsa herhangi bir değer çalışır):
export SGLANG_API_KEY="sglang-local"
Ardından bir model ayarlayın (/v1/models tarafından döndürülen kimliklerden biriyle değiştirin):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Ayrıntılar için /providers/sglang sayfasına bakın.
Yerel proxy'ler (LM Studio, vLLM, LiteLLM vb.)
Örnek (OpenAI uyumlu):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Varsayılan isteğe bağlı alanlar
Özel sağlayıcılar için reasoning, input, cost, contextWindow ve maxTokens isteğe bağlıdır. Atlandıklarında OpenClaw varsayılan olarak şunları kullanır:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Önerilen: proxy/model sınırlarınızla eşleşen açık değerler ayarlayın.
Proxy rota şekillendirme kuralları
- Yerel olmayan uç noktalarda
api: "openai-completions"için (baseUrlboş değilse ve ana makinesiapi.openai.comdeğilse), OpenClaw desteklenmeyendeveloperrolleri için sağlayıcı 400 hatalarını önlemek amacıylacompat.supportsDeveloperRole: falsedeğerini zorunlu kılar. - Proxy tarzı OpenAI uyumlu rotalar ayrıca yalnızca yerel OpenAI'ye özgü istek şekillendirmeyi atlar:
service_tieryok, Responsesstoreyok, Completionsstoreyok, istem önbelleği ipuçları yok, OpenAI düşünme uyumluluğu yük şekillendirmesi yok ve gizli OpenClaw atıf başlıkları yok. - Satıcıya özgü alanlara ihtiyaç duyan OpenAI uyumlu Completions proxy'leri için, giden istek gövdesine ek JSON birleştirmek üzere
agents.defaults.models["provider/model"].params.extra_body(veyaextraBody) ayarlayın. - vLLM sohbet şablonu denetimleri için
agents.defaults.models["provider/model"].params.chat_template_kwargsayarlayın. Paketle gelen vLLM Plugin'i, oturum düşünme düzeyi kapalıykenvllm/nemotron-3-*için otomatik olarakenable_thinking: falseveforce_nonempty_content: truegönderir. - Yavaş yerel modeller veya uzak LAN/tailnet ana makineleri için
models.providers.<id>.timeoutSecondsayarlayın. Bu, tüm agent çalışma zamanı zaman aşımını artırmadan bağlantı, başlıklar, gövde akışı ve toplam korumalı getirme iptali dahil sağlayıcı model HTTP isteği işlemeyi uzatır. - Model sağlayıcı HTTP çağrıları, Surge, Clash ve sing-box sahte IP DNS yanıtlarına yalnızca yapılandırılmış sağlayıcı
baseUrlana makine adı için198.18.0.0/15vefc00::/7içinde izin verir. Diğer özel, loopback, bağlantı yerel ve metadata hedefleri hâlâ açık birmodels.providers.<id>.request.allowPrivateNetwork: trueetkinleştirmesi gerektirir. baseUrlboşsa/atlanmışsa OpenClaw varsayılan OpenAI davranışını korur (bu daapi.openai.comolarak çözümlenir).- Güvenlik için, açık bir
compat.supportsDeveloperRole: trueyine de yerel olmayanopenai-completionsuç noktalarında geçersiz kılınır. - Yerel olmayan uç noktalarda
api: "anthropic-messages"için (kanonikanthropicdışındaki herhangi bir sağlayıcı veya ana makinesi herkese açık birapi.anthropic.comuç noktası olmayan özel birmodels.providers.anthropic.baseUrl), OpenClawclaude-code-20250219,interleaved-thinking-2025-05-14ve OAuth işaretleri gibi örtük Anthropic beta başlıklarını bastırır; böylece özel Anthropic uyumlu proxy'ler desteklenmeyen beta bayraklarını reddetmez. Proxy'nizin belirli beta özelliklerine ihtiyacı varsamodels.providers.<id>.headers["anthropic-beta"]değerini açıkça ayarlayın.
CLI örnekleri
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Ayrıca bkz.: tam yapılandırma örnekleri için Yapılandırma.
İlgili
- Yapılandırma referansı - model yapılandırma anahtarları
- Model failover - geri dönüş zincirleri ve yeniden deneme davranışı
- Modeller - model yapılandırması ve takma adlar
- Sağlayıcılar - sağlayıcı bazında kurulum kılavuzları