Concepts and configuration
Постачальники моделей
Довідник для провайдерів LLM/моделей (не каналів чату на кшталт WhatsApp/Telegram). Правила вибору моделей див. у Моделі.
Короткі правила
Посилання на моделі та помічники CLI
- Посилання на моделі використовують
provider/model(приклад:opencode/claude-opus-4-6). agents.defaults.modelsдіє як список дозволених, коли його задано.- Помічники CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensзадають типові значення на рівні провайдера;models.providers.*.models[].contextWindow/contextTokens/maxTokensперевизначають їх для окремої моделі.- Правила резервного перемикання, перевірки cooldown і збереження перевизначень сеансу: Відмовостійке перемикання моделей.
Додавання автентифікації провайдера не змінює вашу основну модель
openclaw configure зберігає наявне agents.defaults.model.primary, коли ви додаєте або повторно автентифікуєте провайдера. Provider plugins усе ще можуть повертати рекомендовану типову модель у своєму патчі конфігурації автентифікації, але configure трактує це як «зробити цю модель доступною», якщо основна модель уже існує, а не як «замінити поточну основну модель».
Щоб навмисно перемкнути типову модель, використовуйте openclaw models set <provider/model> або openclaw models auth login --provider <id> --set-default.
Поділ провайдера OpenAI і runtime
Маршрути сімейства OpenAI залежать від префікса:
openai/<model>плюсagents.defaults.agentRuntime.id: "codex"використовує нативний app-server harness Codex. Це звичайне налаштування підписки ChatGPT/Codex.openai-codex/<model>використовує Codex OAuth у PI.openai/<model>без перевизначення runtime Codex використовує прямий провайдер OpenAI з API-ключем у PI.
Див. OpenAI і Codex harness. Якщо поділ провайдера/runtime незрозумілий, спочатку прочитайте Runtime агентів.
Автоматичне вмикання Plugin дотримується тієї самої межі: openai-codex/<model> належить до OpenAI plugin, тоді як Codex plugin вмикається через agentRuntime.id: "codex" або застарілі посилання codex/<model>.
GPT-5.5 доступна через нативний app-server harness Codex, коли задано agentRuntime.id: "codex", через openai-codex/gpt-5.5 у PI для Codex OAuth і через openai/gpt-5.5 у PI для прямого трафіку з API-ключем, якщо ваш обліковий запис це надає.
Runtime CLI
Runtime CLI використовують той самий поділ: виберіть канонічні посилання на моделі, як-от anthropic/claude-*, google/gemini-* або openai/gpt-*, а потім задайте agents.defaults.agentRuntime.id як claude-cli, google-gemini-cli або codex-cli, коли потрібен локальний бекенд CLI.
Застарілі посилання claude-cli/*, google-gemini-cli/* і codex-cli/* мігрують назад до канонічних посилань провайдерів із runtime, записаним окремо.
Поведінка провайдера, якою володіє Plugin
Більшість специфічної для провайдера логіки живе в provider plugins (registerProvider(...)), тоді як OpenClaw зберігає загальний цикл inference. Plugins володіють onboarding, каталогами моделей, зіставленням env-var автентифікації, нормалізацією transport/config, очищенням tool-schema, класифікацією failover, оновленням OAuth, звітуванням про використання, профілями thinking/reasoning тощо.
Повний список хуків provider-SDK і прикладів bundled-plugin наведено в Provider plugins. Провайдер, якому потрібен повністю власний виконавець запитів, є окремою, глибшою поверхнею розширення.
Ротація API-ключів
Джерела ключів і пріоритет
Налаштуйте кілька ключів через:
OPENCLAW_LIVE_<PROVIDER>_KEY(одне live-перевизначення, найвищий пріоритет)<PROVIDER>_API_KEYS(список через кому або крапку з комою)<PROVIDER>_API_KEY(основний ключ)<PROVIDER>_API_KEY_*(нумерований список, наприклад<PROVIDER>_API_KEY_1)
Для провайдерів Google GOOGLE_API_KEY також включено як fallback. Порядок вибору ключів зберігає пріоритет і усуває дублікати значень.
Коли вмикається ротація
- Запити повторюються з наступним ключем лише для відповідей rate-limit (наприклад,
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededабо періодичних повідомлень про ліміт використання). - Помилки, не пов’язані з rate-limit, одразу завершуються невдачею; ротація ключів не виконується.
- Коли всі ключі-кандидати зазнають невдачі, повертається фінальна помилка з останньої спроби.
Вбудовані провайдери (каталог pi-ai)
OpenClaw постачається з каталогом pi-ai. Ці провайдери не потребують конфігурації models.providers; просто задайте автентифікацію й виберіть модель.
OpenAI
- Провайдер:
openai - Автентифікація:
OPENAI_API_KEY - Необов’язкова ротація:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, плюсOPENCLAW_LIVE_OPENAI_KEY(одне перевизначення) - Приклади моделей:
openai/gpt-5.5,openai/gpt-5.4-mini - Перевірте доступність облікового запису/моделі за допомогою
openclaw models list --provider openai, якщо конкретне встановлення або API-ключ поводиться інакше. - CLI:
openclaw onboard --auth-choice openai-api-key - Типовий transport —
auto(спочатку WebSocket, fallback на SSE) - Перевизначайте для окремої моделі через
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"або"auto") - Прогрівання OpenAI Responses WebSocket типово ввімкнене через
params.openaiWsWarmup(true/false) - Пріоритетну обробку OpenAI можна ввімкнути через
agents.defaults.models["openai/<model>"].params.serviceTier /fastіparams.fastModeзіставляють прямі запити Responsesopenai/*ізservice_tier=priorityнаapi.openai.com- Використовуйте
params.serviceTier, коли потрібен явний рівень замість спільного перемикача/fast - Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) застосовуються лише до нативного трафіку OpenAI доapi.openai.com, а не до загальних OpenAI-сумісних проксі - Нативні маршрути OpenAI також зберігають Responses
store, підказки prompt-cache і формування payload для сумісності з reasoning OpenAI; маршрути проксі — ні openai/gpt-5.3-codex-sparkнавмисно придушено в OpenClaw, бо live-запити OpenAI API його відхиляють, а поточний каталог Codex його не надає
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Провайдер:
anthropic - Автентифікація:
ANTHROPIC_API_KEY - Необов’язкова ротація:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, плюсOPENCLAW_LIVE_ANTHROPIC_KEY(одне перевизначення) - Приклад моделі:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Прямі публічні запити Anthropic підтримують спільний перемикач
/fastіparams.fastMode, включно з трафіком з API-ключем і OAuth-автентифікацією, надісланим доapi.anthropic.com; OpenClaw зіставляє це з Anthropicservice_tier(autoпротиstandard_only) - Бажана конфігурація Claude CLI зберігає канонічне посилання на модель і вибирає бекенд CLI
окремо:
anthropic/claude-opus-4-7зagents.defaults.agentRuntime.id: "claude-cli". Застарілі посиланняclaude-cli/claude-opus-4-7усе ще працюють для сумісності.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- Провайдер:
openai-codex - Автентифікація: OAuth (ChatGPT)
- Посилання на модель PI:
openai-codex/gpt-5.5 - Посилання на нативний app-server harness Codex:
openai/gpt-5.5зagents.defaults.agentRuntime.id: "codex" - Документація нативного app-server harness Codex: Codex harness
- Застарілі посилання на моделі:
codex/gpt-* - Межа Plugin:
openai-codex/*завантажує OpenAI plugin; нативний app-server plugin Codex вибирається лише через runtime Codex harness або застарілі посиланняcodex/*. - CLI:
openclaw onboard --auth-choice openai-codexабоopenclaw models auth login --provider openai-codex - Типовий transport —
auto(спочатку WebSocket, fallback на SSE) - Перевизначайте для окремої моделі PI через
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"або"auto") params.serviceTierтакож передається в нативних запитах Codex Responses (chatgpt.com/backend-api)- Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) додаються лише до нативного трафіку Codex доchatgpt.com/backend-api, а не до загальних OpenAI-сумісних проксі - Спільно використовує той самий перемикач
/fastі конфігураціюparams.fastMode, що й пряміopenai/*; OpenClaw зіставляє це зservice_tier=priority openai-codex/gpt-5.5використовує нативний для каталогу CodexcontextWindow = 400000і типовий runtimecontextTokens = 272000; перевизначте runtime-обмеження черезmodels.providers.openai-codex.models[].contextTokens- Примітка щодо політики: OpenAI Codex OAuth явно підтримується для зовнішніх інструментів/робочих процесів, як-от OpenClaw.
- Для поширеного маршруту з підпискою плюс нативним runtime Codex увійдіть за допомогою автентифікації
openai-codex, але налаштуйтеopenai/gpt-5.5плюсagents.defaults.agentRuntime.id: "codex". - Використовуйте
openai-codex/gpt-5.5лише тоді, коли потрібен маршрут Codex OAuth/підписки через PI; використовуйтеopenai/gpt-5.5без перевизначення runtime Codex, коли ваше налаштування API-ключа й локальний каталог надають публічний API-маршрут. - Старіші посилання
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*іopenai-codex/gpt-5.3*придушено, бо облікові записи ChatGPT/Codex OAuth їх відхиляють; натомість використовуйтеopenai-codex/gpt-5.5або нативний маршрут runtime Codex.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Інші hosted-варіанти в стилі підписки
Z.AI Coding Plan або загальні API endpoints.
MiniMax Coding Plan OAuth або доступ за API-ключем.
Поверхня провайдера Qwen Cloud плюс зіставлення endpoint Alibaba DashScope і Coding Plan.
OpenCode
- Автентифікація:
OPENCODE_API_KEY(абоOPENCODE_ZEN_API_KEY) - Провайдер Zen runtime:
opencode - Провайдер Go runtime:
opencode-go - Приклади моделей:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenабоopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (API-ключ)
- Провайдер:
google - Автентифікація:
GEMINI_API_KEY - Необов’язкова ротація: резервні
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEYіOPENCLAW_LIVE_GEMINI_KEY(одноразове перевизначення) - Приклади моделей:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Сумісність: застаріла конфігурація OpenClaw з
google/gemini-3.1-flash-previewнормалізується доgoogle/gemini-3-flash-preview - Псевдонім:
google/gemini-3.1-proприймається й нормалізується до живого ідентифікатора Gemini API від Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Мислення:
/think adaptiveвикористовує динамічне мислення Google. Gemini 3/3.1 пропускають фіксованийthinkingLevel; Gemini 2.5 надсилаєthinkingBudget: -1. - Прямі запуски Gemini також приймають
agents.defaults.models["google/<model>"].params.cachedContent(або застарілийcached_content), щоб передати провайдерний дескрипторcachedContents/...; влучання в кеш Gemini відображаються якcacheReadOpenClaw
Google Vertex і Gemini CLI
- Провайдери:
google-vertex,google-gemini-cli - Автентифікація: Vertex використовує gcloud ADC; Gemini CLI використовує свій потік OAuth
Gemini CLI OAuth постачається як частина вбудованого Plugin google.
Установіть Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Увімкніть Plugin
openclaw plugins enable google
Увійдіть
openclaw models auth login --provider google-gemini-cli --set-default
Модель за замовчуванням: google-gemini-cli/gemini-3-flash-preview. Ви не вставляєте ідентифікатор клієнта чи секрет у openclaw.json. Потік входу CLI зберігає токени в профілях автентифікації на хості gateway.
Установіть проєкт (за потреби)
Якщо запити не виконуються після входу, задайте GOOGLE_CLOUD_PROJECT або GOOGLE_CLOUD_PROJECT_ID на хості gateway.
JSON-відповіді Gemini CLI аналізуються з response; використання резервно береться зі stats, а stats.cached нормалізується в OpenClaw cacheRead.
Z.AI (GLM)
- Провайдер:
zai - Автентифікація:
ZAI_API_KEY - Приклад моделі:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Псевдоніми:
z.ai/*іz-ai/*нормалізуються доzai/* zai-api-keyавтоматично визначає відповідну кінцеву точку Z.AI;zai-coding-global,zai-coding-cn,zai-globalіzai-cnпримусово задають конкретну поверхню
- Псевдоніми:
Vercel AI Gateway
- Провайдер:
vercel-ai-gateway - Автентифікація:
AI_GATEWAY_API_KEY - Приклади моделей:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Провайдер:
kilocode - Автентифікація:
KILOCODE_API_KEY - Приклад моделі:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Базова URL-адреса:
https://api.kilo.ai/api/gateway/ - Статичний резервний каталог постачає
kilocode/kilo/auto; живе виявленняhttps://api.kilo.ai/api/gateway/modelsможе додатково розширити каталог часу виконання. - Точна upstream-маршрутизація за
kilocode/kilo/autoналежить Kilo Gateway, а не жорстко закодована в OpenClaw.
Докладні відомості про налаштування див. у /providers/kilocode.
Інші вбудовані Plugin провайдерів
| Провайдер | Id | Env автентифікації | Приклад моделі |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN або HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY або KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Особливості, які варто знати
OpenRouter
Застосовує свої заголовки атрибуції застосунку та маркери Anthropic cache_control лише на перевірених маршрутах openrouter.ai. Рефи DeepSeek, Moonshot і ZAI придатні для cache-TTL у керованому OpenRouter кешуванні промптів, але не отримують маркери кешу Anthropic. Як проксі-шлях, сумісний з OpenAI, він пропускає формування, призначене лише для нативного OpenAI (serviceTier, Responses store, підказки кешу промптів, OpenAI reasoning-compat). Рефи на основі Gemini зберігають лише санітизацію thought-signature для proxy-Gemini.
Kilo Gateway
Рефи на основі Gemini використовують той самий шлях санітизації proxy-Gemini; kilocode/kilo/auto та інші рефи без підтримки proxy-reasoning пропускають ін’єкцію proxy reasoning.
MiniMax
Налаштування з API-ключем записує явні визначення текстових чат-моделей M2.7; розуміння зображень залишається на належному Plugin медіапровайдері MiniMax-VL-01.
NVIDIA
ID моделей використовують простір імен nvidia/<vendor>/<model> (наприклад, nvidia/nvidia/nemotron-... поруч із nvidia/moonshotai/kimi-k2.5); селектори зберігають буквальну композицію <provider>/<model-id>, тоді як канонічний ключ, надісланий до API, лишається з одним префіксом.
xAI
Використовує шлях xAI Responses. grok-4.3 є стандартною комплектною чат-моделлю. /fast або params.fastMode: true переписує grok-3, grok-3-mini, grok-4 і grok-4-0709 на їхні варіанти *-fast. tool_stream увімкнено за замовчуванням; вимкніть через agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
Постачається як комплектний Plugin провайдера cerebras. GLM використовує zai-glm-4.7; базовий URL, сумісний з OpenAI, — https://api.cerebras.ai/v1.
Провайдери через models.providers (власний/base URL)
Використовуйте models.providers (або models.json), щоб додати власних провайдерів або проксі, сумісні з OpenAI/Anthropic.
Багато з наведених нижче комплектних Plugin провайдерів уже публікують стандартний каталог. Використовуйте явні записи models.providers.<id> лише тоді, коли хочете перевизначити стандартний базовий URL, заголовки або список моделей.
Перевірки можливостей моделей Gateway також читають явні метадані models.providers.<id>.models[]. Якщо власна або проксі-модель приймає зображення, задайте input: ["text", "image"] для цієї моделі, щоб WebChat і шляхи вкладень із node-джерела передавали зображення як нативні вхідні дані моделі, а не як текстові медіа-рефи.
Moonshot AI (Kimi)
Moonshot постачається як комплектний Plugin провайдера. За замовчуванням використовуйте вбудованого провайдера й додавайте явний запис models.providers.moonshot лише тоді, коли потрібно перевизначити базовий URL або метадані моделі:
- Провайдер:
moonshot - Автентифікація:
MOONSHOT_API_KEY - Приклад моделі:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyабоopenclaw onboard --auth-choice moonshot-api-key-cn
ID моделей Kimi K2:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Кодування Kimi
Kimi Coding використовує Anthropic-сумісну кінцеву точку Moonshot AI:
- Провайдер:
kimi - Автентифікація:
KIMI_API_KEY - Приклад моделі:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
Застарілий kimi/k2p5 досі приймається як сумісний id моделі.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) надає доступ до Doubao та інших моделей у Китаї.
- Провайдер:
volcengine(кодування:volcengine-plan) - Автентифікація:
VOLCANO_ENGINE_API_KEY - Приклад моделі:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
Onboarding за замовчуванням використовує поверхню для кодування, але загальний каталог volcengine/* реєструється одночасно.
У засобах вибору моделі під час onboarding/configure вибір автентифікації Volcengine надає перевагу рядкам volcengine/* і volcengine-plan/*. Якщо ці моделі ще не завантажені, OpenClaw повертається до нефільтрованого каталогу замість показу порожнього засобу вибору, обмеженого провайдером.
Стандартні моделі
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Моделі для кодування (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (міжнародний)
BytePlus ARK надає міжнародним користувачам доступ до тих самих моделей, що й Volcano Engine.
- Провайдер:
byteplus(кодування:byteplus-plan) - Автентифікація:
BYTEPLUS_API_KEY - Приклад моделі:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
Onboarding за замовчуванням використовує поверхню для кодування, але загальний каталог byteplus/* реєструється одночасно.
У засобах вибору моделі під час onboarding/configure вибір автентифікації BytePlus надає перевагу рядкам byteplus/* і byteplus-plan/*. Якщо ці моделі ще не завантажені, OpenClaw повертається до нефільтрованого каталогу замість показу порожнього засобу вибору, обмеженого провайдером.
Стандартні моделі
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Моделі для кодування (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic надає Anthropic-сумісні моделі через провайдера synthetic:
- Провайдер:
synthetic - Автентифікація:
SYNTHETIC_API_KEY - Приклад моделі:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax налаштовується через models.providers, оскільки використовує власні кінцеві точки:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Ключ API MiniMax (Global):
--auth-choice minimax-global-api - Ключ API MiniMax (CN):
--auth-choice minimax-cn-api - Автентифікація:
MINIMAX_API_KEYдляminimax;MINIMAX_OAUTH_TOKENабоMINIMAX_API_KEYдляminimax-portal
Див. /providers/minimax для подробиць налаштування, варіантів моделей і фрагментів конфігурації.
Розподіл можливостей, якими володіє Plugin:
- Текстові/чатові значення за замовчуванням залишаються на
minimax/MiniMax-M2.7 - Генерація зображень — це
minimax/image-01абоminimax-portal/image-01 - Розуміння зображень належить Plugin:
MiniMax-VL-01на обох шляхах автентифікації MiniMax - Вебпошук залишається на id провайдера
minimax
LM Studio
LM Studio постачається як вбудований Plugin провайдера, що використовує нативний API:
- Провайдер:
lmstudio - Автентифікація:
LM_API_TOKEN - Базовий URL інференсу за замовчуванням:
http://localhost:1234/v1
Потім задайте модель (замініть одним з ID, які повертає http://localhost:1234/api/v1/models):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw використовує нативні /api/v1/models і /api/v1/models/load LM Studio для виявлення та автозавантаження, а /v1/chat/completions для інференсу за замовчуванням. Якщо ви хочете, щоб JIT-завантаження, TTL і автоматичне витіснення LM Studio керували життєвим циклом моделі, задайте models.providers.lmstudio.params.preload: false. Див. /providers/lmstudio для налаштування й усунення несправностей.
Ollama
Ollama постачається як вбудований Plugin провайдера та використовує нативний API Ollama:
- Провайдер:
ollama - Автентифікація: не потрібна (локальний сервер)
- Приклад моделі:
ollama/llama3.3 - Встановлення: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama виявляється локально за адресою http://127.0.0.1:11434, коли ви вмикаєте її через OLLAMA_API_KEY, а вбудований Plugin провайдера додає Ollama безпосередньо до openclaw onboard і засобу вибору моделі. Див. /providers/ollama для onboarding, хмарного/локального режиму та власної конфігурації.
vLLM
vLLM постачається як вбудований Plugin провайдера для локальних/самостійно розгорнутих OpenAI-сумісних серверів:
- Провайдер:
vllm - Автентифікація: необов’язкова (залежить від вашого сервера)
- Базовий URL за замовчуванням:
http://127.0.0.1:8000/v1
Щоб увімкнути локальне автовиявлення (будь-яке значення працює, якщо ваш сервер не вимагає автентифікації):
export VLLM_API_KEY="vllm-local"
Потім задайте модель (замініть одним з ID, які повертає /v1/models):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Див. /providers/vllm для подробиць.
SGLang
SGLang постачається як вбудований Plugin провайдера для швидких самостійно розгорнутих OpenAI-сумісних серверів:
- Провайдер:
sglang - Автентифікація: необов’язкова (залежить від вашого сервера)
- Базовий URL за замовчуванням:
http://127.0.0.1:30000/v1
Щоб увімкнути локальне автовиявлення (будь-яке значення працює, якщо ваш сервер не вимагає автентифікації):
export SGLANG_API_KEY="sglang-local"
Потім задайте модель (замініть одним з ID, які повертає /v1/models):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Див. /providers/sglang для подробиць.
Локальні проксі (LM Studio, vLLM, LiteLLM тощо)
Приклад (OpenAI-сумісний):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Необов’язкові поля за замовчуванням
Для власних провайдерів reasoning, input, cost, contextWindow і maxTokens є необов’язковими. Якщо їх опущено, OpenClaw використовує такі значення за замовчуванням:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Рекомендовано: задайте явні значення, які відповідають обмеженням вашого проксі/моделі.
Правила формування проксі-маршрутів
- Для
api: "openai-completions"на ненативних кінцевих точках (будь-який непорожнійbaseUrl, хост якого не єapi.openai.com) OpenClaw примусово задаєcompat.supportsDeveloperRole: false, щоб уникнути помилок 400 від провайдера для непідтримуваних ролейdeveloper. - Проксі-стиль OpenAI-сумісних маршрутів також пропускає нативне формування запитів, специфічне лише для OpenAI: без
service_tier, без Responsesstore, без Completionsstore, без підказок prompt-cache, без формування payload сумісності reasoning OpenAI і без прихованих заголовків атрибуції OpenClaw. - Для OpenAI-сумісних проксі Completions, яким потрібні поля, специфічні для постачальника, задайте
agents.defaults.models["provider/model"].params.extra_body(абоextraBody), щоб об’єднати додатковий JSON у вихідне тіло запиту. - Для керування chat-template vLLM задайте
agents.defaults.models["provider/model"].params.chat_template_kwargs. Вбудований Plugin vLLM автоматично надсилаєenable_thinking: falseіforce_nonempty_content: trueдляvllm/nemotron-3-*, коли рівень thinking у сесії вимкнений. - Для повільних локальних моделей або віддалених LAN/tailnet-хостів задайте
models.providers.<id>.timeoutSeconds. Це розширює обробку HTTP-запитів до моделі провайдера, включно з підключенням, заголовками, потоковою передачею тіла та загальним перериванням guarded-fetch, не збільшуючи таймаут усього runtime агента. - HTTP-виклики провайдера моделі дозволяють fake-IP DNS-відповіді Surge, Clash і sing-box у
198.18.0.0/15таfc00::/7лише для налаштованого імені хостаbaseUrlпровайдера. Інші приватні, loopback, link-local і metadata призначення все одно потребують явного ввімкненняmodels.providers.<id>.request.allowPrivateNetwork: true. - Якщо
baseUrlпорожній/опущений, OpenClaw зберігає стандартну поведінку OpenAI (яка резолвиться доapi.openai.com). - З міркувань безпеки явне
compat.supportsDeveloperRole: trueвсе одно перевизначається на ненативних кінцевих точкахopenai-completions. - Для
api: "anthropic-messages"на непрямих кінцевих точках (будь-який провайдер, крім канонічногоanthropic, або власнийmodels.providers.anthropic.baseUrl, хост якого не є публічною кінцевою точкоюapi.anthropic.com) OpenClaw пригнічує неявні бета-заголовки Anthropic, як-отclaude-code-20250219,interleaved-thinking-2025-05-14і маркери OAuth, щоб власні Anthropic-сумісні проксі не відхиляли непідтримувані beta-прапорці. Явно задайтеmodels.providers.<id>.headers["anthropic-beta"], якщо вашому проксі потрібні конкретні beta-можливості.
Приклади CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Див. також: Конфігурація для повних прикладів конфігурації.
Пов’язане
- Довідник конфігурації - ключі конфігурації моделі
- Відмовостійке перемикання моделей - ланцюжки fallback і поведінка повторних спроб
- Моделі - конфігурація моделей і псевдоніми
- Провайдери - посібники з налаштування для кожного провайдера