Concepts and configuration
ارائهدهندگان مدل
مرجعی برای ارائهدهندگان LLM/مدل (نه کانالهای چت مانند WhatsApp/Telegram). برای قواعد انتخاب مدل، مدلها را ببینید.
قواعد سریع
ارجاعهای مدل و کمککنندههای CLI
- ارجاعهای مدل از
provider/modelاستفاده میکنند (مثال:opencode/claude-opus-4-6). agents.defaults.modelsوقتی تنظیم شده باشد، مانند فهرست مجاز عمل میکند.- کمککنندههای CLI:
openclaw onboard،openclaw models list،openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensپیشفرضهای سطح ارائهدهنده را تنظیم میکنند؛models.providers.*.models[].contextWindow/contextTokens/maxTokensآنها را برای هر مدل بازنویسی میکنند.- قواعد جایگزینی، کاوشهای دورهی انتظار، و ماندگاری بازنویسی نشست: جایگزینی مدل.
افزودن احراز هویت ارائهدهنده مدل اصلی شما را تغییر نمیدهد
openclaw configure وقتی ارائهدهندهای را اضافه یا دوباره احراز هویت میکنید، agents.defaults.model.primary موجود را حفظ میکند. Pluginهای ارائهدهنده همچنان ممکن است در وصله پیکربندی احراز هویت خود یک مدل پیشفرض پیشنهادی برگردانند، اما configure وقتی یک مدل اصلی از قبل وجود داشته باشد، آن را بهعنوان «این مدل را در دسترس کن» در نظر میگیرد، نه «مدل اصلی فعلی را جایگزین کن».
برای تغییر عمدی مدل پیشفرض، از openclaw models set <provider/model> یا openclaw models auth login --provider <id> --set-default استفاده کنید.
تفکیک ارائهدهنده/زمان اجرای OpenAI
مسیرهای خانواده OpenAI وابسته به پیشوند هستند:
openai/<model>بههمراهagents.defaults.agentRuntime.id: "codex"از هارنس بومی سرور برنامه Codex استفاده میکند. این تنظیم معمول اشتراک ChatGPT/Codex است.openai-codex/<model>از OAuth مربوط به Codex در PI استفاده میکند.openai/<model>بدون بازنویسی زمان اجرای Codex از ارائهدهنده مستقیم کلید API در PI استفاده میکند.
OpenAI و هارنس Codex را ببینید. اگر تفکیک ارائهدهنده/زمان اجرا گیجکننده است، ابتدا زمانهای اجرای عامل را بخوانید.
فعالسازی خودکار Plugin از همان مرز پیروی میکند: openai-codex/<model> به Plugin مربوط به OpenAI تعلق دارد، در حالی که Plugin مربوط به Codex با agentRuntime.id: "codex" یا ارجاعهای قدیمی codex/<model> فعال میشود.
GPT-5.5 وقتی agentRuntime.id: "codex" تنظیم شده باشد از طریق هارنس بومی سرور برنامه Codex، در PI از طریق openai-codex/gpt-5.5 برای OAuth مربوط به Codex، و در PI از طریق openai/gpt-5.5 برای ترافیک مستقیم کلید API، در صورت ارائهشدن توسط حساب شما، در دسترس است.
زمانهای اجرای CLI
زمانهای اجرای CLI از همان تفکیک استفاده میکنند: ارجاعهای مدل کانونی مانند anthropic/claude-*، google/gemini-* یا openai/gpt-* را انتخاب کنید، سپس وقتی یک پشتانه CLI محلی میخواهید، agents.defaults.agentRuntime.id را روی claude-cli، google-gemini-cli یا codex-cli تنظیم کنید.
ارجاعهای قدیمی claude-cli/*، google-gemini-cli/* و codex-cli/* به ارجاعهای ارائهدهنده کانونی برمیگردند و زمان اجرا جداگانه ثبت میشود.
رفتار ارائهدهنده متعلق به Plugin
بیشتر منطق اختصاصی ارائهدهنده در Pluginهای ارائهدهنده (registerProvider(...)) قرار دارد، در حالی که OpenClaw حلقه استنتاج عمومی را نگه میدارد. Pluginها مالک راهاندازی اولیه، کاتالوگهای مدل، نگاشت متغیرهای محیطی احراز هویت، نرمالسازی انتقال/پیکربندی، پاکسازی طرحواره ابزار، طبقهبندی جایگزینی، تازهسازی OAuth، گزارشدهی مصرف، پروفایلهای تفکر/استدلال و موارد بیشتر هستند.
فهرست کامل قلابهای SDK ارائهدهنده و مثالهای Pluginهای همراه در Pluginهای ارائهدهنده قرار دارد. ارائهدهندهای که به اجراکننده درخواست کاملا سفارشی نیاز دارد، یک سطح توسعه جداگانه و عمیقتر است.
چرخش کلید API
منابع کلید و اولویت
چند کلید را از طریق موارد زیر پیکربندی کنید:
OPENCLAW_LIVE_<PROVIDER>_KEY(بازنویسی زنده تکی، بالاترین اولویت)<PROVIDER>_API_KEYS(فهرست جداشده با ویرگول یا نقطهویرگول)<PROVIDER>_API_KEY(کلید اصلی)<PROVIDER>_API_KEY_*(فهرست شمارهدار، مثلا<PROVIDER>_API_KEY_1)
برای ارائهدهندگان Google، GOOGLE_API_KEY نیز بهعنوان جایگزین گنجانده میشود. ترتیب انتخاب کلید اولویت را حفظ میکند و مقدارهای تکراری را حذف میکند.
چرخش چه زمانی شروع میشود
- درخواستها فقط در پاسخهای محدودیت نرخ با کلید بعدی دوباره تلاش میشوند (برای مثال
429،rate_limit،quota،resource exhausted،Too many concurrent requests،ThrottlingException،concurrency limit reached،workers_ai ... quota limit exceeded، یا پیامهای دورهای محدودیت مصرف). - خطاهایی که محدودیت نرخ نیستند فورا شکست میخورند؛ هیچ چرخش کلیدی تلاش نمیشود.
- وقتی همه کلیدهای نامزد شکست بخورند، خطای نهایی از آخرین تلاش برگردانده میشود.
ارائهدهندگان داخلی (کاتالوگ pi-ai)
OpenClaw همراه با کاتالوگ pi-ai عرضه میشود. این ارائهدهندگان به پیکربندی models.providers نیازی ندارند؛ فقط احراز هویت را تنظیم کنید و یک مدل انتخاب کنید.
OpenAI
- ارائهدهنده:
openai - احراز هویت:
OPENAI_API_KEY - چرخش اختیاری:
OPENAI_API_KEYS،OPENAI_API_KEY_1،OPENAI_API_KEY_2، بههمراهOPENCLAW_LIVE_OPENAI_KEY(بازنویسی تکی) - مدلهای نمونه:
openai/gpt-5.5،openai/gpt-5.4-mini - اگر یک نصب یا کلید API خاص رفتار متفاوتی دارد، در دسترس بودن حساب/مدل را با
openclaw models list --provider openaiبررسی کنید. - CLI:
openclaw onboard --auth-choice openai-api-key - انتقال پیشفرض
autoاست (ابتدا WebSocket، با جایگزین SSE) - برای هر مدل از طریق
agents.defaults.models["openai/<model>"].params.transportبازنویسی کنید ("sse"،"websocket"یا"auto") - گرمسازی WebSocket مربوط به OpenAI Responses بهصورت پیشفرض از طریق
params.openaiWsWarmupفعال است (true/false) - پردازش اولویتی OpenAI میتواند از طریق
agents.defaults.models["openai/<model>"].params.serviceTierفعال شود /fastوparams.fastModeدرخواستهای مستقیم Responses مربوط بهopenai/*را رویapi.openai.comبهservice_tier=priorityنگاشت میکنند- وقتی بهجای کلید مشترک
/fastیک سطح صریح میخواهید، ازparams.serviceTierاستفاده کنید - سرآیندهای انتساب پنهان OpenClaw (
originator،version،User-Agent) فقط روی ترافیک بومی OpenAI بهapi.openai.comاعمال میشوند، نه پروکسیهای عمومی سازگار با OpenAI - مسیرهای بومی OpenAI همچنین
storeمربوط به Responses، راهنماییهای کش پرامپت، و شکلدهی بارسازه سازگار با استدلال OpenAI را نگه میدارند؛ مسیرهای پروکسی این کار را نمیکنند openai/gpt-5.3-codex-sparkعمدا در OpenClaw پنهان شده است، چون درخواستهای زنده API مربوط به OpenAI آن را رد میکنند و کاتالوگ فعلی Codex آن را ارائه نمیدهد
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- ارائهدهنده:
anthropic - احراز هویت:
ANTHROPIC_API_KEY - چرخش اختیاری:
ANTHROPIC_API_KEYS،ANTHROPIC_API_KEY_1،ANTHROPIC_API_KEY_2، بههمراهOPENCLAW_LIVE_ANTHROPIC_KEY(بازنویسی تکی) - مدل نمونه:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - درخواستهای عمومی مستقیم Anthropic از کلید مشترک
/fastوparams.fastModeپشتیبانی میکنند، شامل ترافیک احراز هویتشده با کلید API و OAuth که بهapi.anthropic.comفرستاده میشود؛ OpenClaw آن را بهservice_tierمربوط به Anthropic نگاشت میکند (autoدر برابرstandard_only) - پیکربندی ترجیحی Claude CLI ارجاع مدل را کانونی نگه میدارد و پشتانه CLI را جداگانه انتخاب میکند:
anthropic/claude-opus-4-7باagents.defaults.agentRuntime.id: "claude-cli". ارجاعهای قدیمیclaude-cli/claude-opus-4-7همچنان برای سازگاری کار میکنند.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OAuth مربوط به OpenAI Codex
- ارائهدهنده:
openai-codex - احراز هویت: OAuth (ChatGPT)
- ارجاع مدل PI:
openai-codex/gpt-5.5 - ارجاع هارنس بومی سرور برنامه Codex:
openai/gpt-5.5باagents.defaults.agentRuntime.id: "codex" - مستندات هارنس بومی سرور برنامه Codex: هارنس Codex
- ارجاعهای مدل قدیمی:
codex/gpt-* - مرز Plugin:
openai-codex/*Plugin مربوط به OpenAI را بارگذاری میکند؛ Plugin بومی سرور برنامه Codex فقط توسط زمان اجرای هارنس Codex یا ارجاعهای قدیمیcodex/*انتخاب میشود. - CLI:
openclaw onboard --auth-choice openai-codexیاopenclaw models auth login --provider openai-codex - انتقال پیشفرض
autoاست (ابتدا WebSocket، با جایگزین SSE) - برای هر مدل PI از طریق
agents.defaults.models["openai-codex/<model>"].params.transportبازنویسی کنید ("sse"،"websocket"یا"auto") params.serviceTierهمچنین روی درخواستهای بومی Codex Responses (chatgpt.com/backend-api) ارسال میشود- سرآیندهای انتساب پنهان OpenClaw (
originator،version،User-Agent) فقط روی ترافیک بومی Codex بهchatgpt.com/backend-apiپیوست میشوند، نه پروکسیهای عمومی سازگار با OpenAI - همان کلید مشترک
/fastو پیکربندیparams.fastModeرا مانندopenai/*مستقیم به اشتراک میگذارد؛ OpenClaw آن را بهservice_tier=priorityنگاشت میکند openai-codex/gpt-5.5ازcontextWindow = 400000بومی کاتالوگ Codex وcontextTokens = 272000پیشفرض زمان اجرا استفاده میکند؛ سقف زمان اجرا را باmodels.providers.openai-codex.models[].contextTokensبازنویسی کنید- نکته سیاستی: OAuth مربوط به OpenAI Codex صراحتا برای ابزارها/گردشکارهای خارجی مانند OpenClaw پشتیبانی میشود.
- برای مسیر رایج اشتراک بههمراه زمان اجرای بومی Codex، با احراز هویت
openai-codexوارد شوید اماopenai/gpt-5.5را بههمراهagents.defaults.agentRuntime.id: "codex"پیکربندی کنید. - فقط وقتی میخواهید مسیر OAuth/اشتراک Codex از طریق PI باشد، از
openai-codex/gpt-5.5استفاده کنید؛ وقتی تنظیم کلید API و کاتالوگ محلی شما مسیر API عمومی را ارائه میدهد، ازopenai/gpt-5.5بدون بازنویسی زمان اجرای Codex استفاده کنید. - ارجاعهای قدیمیتر
openai-codex/gpt-5.1*،openai-codex/gpt-5.2*وopenai-codex/gpt-5.3*پنهان شدهاند، چون حسابهای OAuth مربوط به ChatGPT/Codex آنها را رد میکنند؛ بهجای آن ازopenai-codex/gpt-5.5یا مسیر زمان اجرای بومی Codex استفاده کنید.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
گزینههای میزبانیشده دیگر به سبک اشتراک
Z.AI Coding Plan یا نقاط پایانی عمومی API.
OAuth مربوط به MiniMax Coding Plan یا دسترسی با کلید API.
سطح ارائهدهنده Qwen Cloud بههمراه نگاشت نقاط پایانی Alibaba DashScope و Coding Plan.
OpenCode
- احراز هویت:
OPENCODE_API_KEY(یاOPENCODE_ZEN_API_KEY) - ارائهدهنده زمان اجرای Zen:
opencode - ارائهدهنده زمان اجرای Go:
opencode-go - مدلهای نمونه:
opencode/claude-opus-4-6،opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenیاopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (کلید API)
- ارائهدهنده:
google - احراز هویت:
GEMINI_API_KEY - چرخش اختیاری:
GEMINI_API_KEYS،GEMINI_API_KEY_1،GEMINI_API_KEY_2، fallback برایGOOGLE_API_KEY، وOPENCLAW_LIVE_GEMINI_KEY(بازنویسی تکی) - مدلهای نمونه:
google/gemini-3.1-pro-preview،google/gemini-3-flash-preview - سازگاری: پیکربندی قدیمی OpenClaw که از
google/gemini-3.1-flash-previewاستفاده میکند بهgoogle/gemini-3-flash-previewنرمالسازی میشود - نام مستعار:
google/gemini-3.1-proپذیرفته میشود و به شناسه زنده Gemini API گوگل، یعنیgoogle/gemini-3.1-pro-preview، نرمالسازی میشود - CLI:
openclaw onboard --auth-choice gemini-api-key - تفکر:
/think adaptiveاز تفکر پویا گوگل استفاده میکند. Gemini 3/3.1 مقدار ثابتthinkingLevelرا حذف میکند؛ Gemini 2.5 مقدارthinkingBudget: -1را ارسال میکند. - اجراهای مستقیم Gemini همچنین
agents.defaults.models["google/<model>"].params.cachedContent(یاcached_contentقدیمی) را میپذیرند تا یک هندل بومی ارائهدهنده از نوعcachedContents/...را ارسال کنند؛ برخوردهای کش Gemini بهصورتcacheReadدر OpenClaw نمایش داده میشوند
Google Vertex و Gemini CLI
- ارائهدهندگان:
google-vertex،google-gemini-cli - احراز هویت: Vertex از gcloud ADC استفاده میکند؛ Gemini CLI از جریان OAuth خودش استفاده میکند
OAuth در Gemini CLI بهعنوان بخشی از Plugin همراه google ارائه میشود.
نصب Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
فعالسازی Plugin
openclaw plugins enable google
ورود
openclaw models auth login --provider google-gemini-cli --set-default
مدل پیشفرض: google-gemini-cli/gemini-3-flash-preview. شما نباید شناسه کلاینت یا secret را در openclaw.json جایگذاری کنید. جریان ورود CLI توکنها را در پروفایلهای احراز هویت روی میزبان Gateway ذخیره میکند.
تنظیم پروژه (در صورت نیاز)
اگر درخواستها پس از ورود ناموفق بودند، GOOGLE_CLOUD_PROJECT یا GOOGLE_CLOUD_PROJECT_ID را روی میزبان Gateway تنظیم کنید.
پاسخهای JSON در Gemini CLI از response پردازش میشوند؛ مصرف به stats fallback میکند و stats.cached به cacheRead در OpenClaw نرمالسازی میشود.
Z.AI (GLM)
- ارائهدهنده:
zai - احراز هویت:
ZAI_API_KEY - مدل نمونه:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- نامهای مستعار:
z.ai/*وz-ai/*بهzai/*نرمالسازی میشوند zai-api-keyendpoint متناظر Z.AI را بهصورت خودکار تشخیص میدهد؛zai-coding-global،zai-coding-cn،zai-global، وzai-cnیک سطح مشخص را اجبار میکنند
- نامهای مستعار:
Vercel AI Gateway
- ارائهدهنده:
vercel-ai-gateway - احراز هویت:
AI_GATEWAY_API_KEY - مدلهای نمونه:
vercel-ai-gateway/anthropic/claude-opus-4.6،vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- ارائهدهنده:
kilocode - احراز هویت:
KILOCODE_API_KEY - مدل نمونه:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL پایه:
https://api.kilo.ai/api/gateway/ - کاتالوگ fallback ایستا همراه با
kilocode/kilo/autoارائه میشود؛ کشف زندهhttps://api.kilo.ai/api/gateway/modelsمیتواند کاتالوگ زمان اجرا را بیشتر گسترش دهد. - مسیریابی دقیق upstream پشت
kilocode/kilo/autoمتعلق به Kilo Gateway است و در OpenClaw hard-code نشده است.
برای جزئیات راهاندازی، /providers/kilocode را ببینید.
Pluginهای ارائهدهنده همراه دیگر
| ارائهدهنده | شناسه | محیط احراز هویت | مدل نمونه |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN یا HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY یا KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
نکات خاصی که دانستنشان مفید است
OpenRouter
سرآیندهای انتساب برنامه و نشانگرهای Anthropic cache_control را فقط روی مسیرهای تأییدشدهی openrouter.ai اعمال میکند. ارجاعهای DeepSeek، Moonshot و ZAI برای ذخیرهسازی prompt مدیریتشده توسط OpenRouter از نظر cache-TTL واجد شرایط هستند، اما نشانگرهای cache مربوط به Anthropic را دریافت نمیکنند. بهعنوان یک مسیر سازگار با OpenAI به سبک پروکسی، شکلدهیهای مخصوص OpenAI بومی را نادیده میگیرد (serviceTier، Responses store، راهنماییهای prompt-cache، سازگاری reasoning با OpenAI). ارجاعهای مبتنی بر Gemini فقط پاکسازی thought-signature مربوط به proxy-Gemini را نگه میدارند.
Kilo Gateway
ارجاعهای مبتنی بر Gemini همان مسیر پاکسازی proxy-Gemini را دنبال میکنند؛ kilocode/kilo/auto و سایر ارجاعهایی که از proxy reasoning پشتیبانی نمیکنند، تزریق proxy reasoning را نادیده میگیرند.
MiniMax
راهاندازی با API-key تعریفهای صریح مدل چت متنی M2.7 را مینویسد؛ درک تصویر همچنان روی ارائهدهندهی رسانهای MiniMax-VL-01 متعلق به Plugin باقی میماند.
NVIDIA
شناسههای مدل از فضای نام nvidia/<vendor>/<model> استفاده میکنند (برای مثال nvidia/nvidia/nemotron-... در کنار nvidia/moonshotai/kimi-k2.5)؛ انتخابگرها ترکیب لفظی <provider>/<model-id> را حفظ میکنند، در حالی که کلید canonical ارسالشده به API تکپیشوندی میماند.
xAI
از مسیر Responses مربوط به xAI استفاده میکند. grok-4.3 مدل چت پیشفرض بستهبندیشده است. /fast یا params.fastMode: true مدلهای grok-3، grok-3-mini، grok-4 و grok-4-0709 را به گونههای *-fast آنها بازنویسی میکند. tool_stream بهصورت پیشفرض فعال است؛ از طریق agents.defaults.models["xai/<model>"].params.tool_stream=false غیرفعالش کنید.
Cerebras
بهعنوان Plugin ارائهدهندهی بستهبندیشدهی cerebras عرضه میشود. GLM از zai-glm-4.7 استفاده میکند؛ URL پایهی سازگار با OpenAI برابر است با https://api.cerebras.ai/v1.
ارائهدهندهها از طریق models.providers (URL سفارشی/پایه)
از models.providers (یا models.json) برای افزودن ارائهدهندههای سفارشی یا پروکسیهای سازگار با OpenAI/Anthropic استفاده کنید.
بسیاری از Pluginهای ارائهدهندهی بستهبندیشدهی زیر از قبل یک کاتالوگ پیشفرض منتشر میکنند. ورودیهای صریح models.providers.<id> را فقط زمانی استفاده کنید که میخواهید URL پایه، سرآیندها یا فهرست مدل پیشفرض را بازنویسی کنید.
بررسیهای قابلیت مدل در Gateway همچنین فرادادهی صریح models.providers.<id>.models[] را میخوانند. اگر یک مدل سفارشی یا پروکسی تصویر میپذیرد، روی آن مدل input: ["text", "image"] را تنظیم کنید تا WebChat و مسیرهای پیوست با مبدأ node، تصویرها را بهجای ارجاعهای رسانهای فقطمتنی، بهعنوان ورودیهای بومی مدل ارسال کنند.
Moonshot AI (Kimi)
Moonshot بهعنوان یک Plugin ارائهدهندهی بستهبندیشده عرضه میشود. بهصورت پیشفرض از ارائهدهندهی داخلی استفاده کنید و فقط زمانی یک ورودی صریح models.providers.moonshot اضافه کنید که لازم است URL پایه یا فرادادهی مدل را بازنویسی کنید:
- ارائهدهنده:
moonshot - احراز هویت:
MOONSHOT_API_KEY - مدل نمونه:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyیاopenclaw onboard --auth-choice moonshot-api-key-cn
شناسههای مدل Kimi K2:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
کدنویسی Kimi
Kimi Coding از endpoint سازگار با Anthropic مربوط به Moonshot AI استفاده میکند:
- ارائهدهنده:
kimi - احراز هویت:
KIMI_API_KEY - مدل نمونه:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
شناسه مدل قدیمی kimi/k2p5 همچنان بهعنوان شناسه مدل سازگار پذیرفته میشود.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) دسترسی به Doubao و مدلهای دیگر را در چین فراهم میکند.
- ارائهدهنده:
volcengine(کدنویسی:volcengine-plan) - احراز هویت:
VOLCANO_ENGINE_API_KEY - مدل نمونه:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
فرایند راهاندازی بهطور پیشفرض از سطح کدنویسی استفاده میکند، اما کاتالوگ عمومی volcengine/* نیز همزمان ثبت میشود.
در انتخابگرهای مدلِ راهاندازی/پیکربندی، گزینه احراز هویت Volcengine هر دو ردیف volcengine/* و volcengine-plan/* را ترجیح میدهد. اگر این مدلها هنوز بارگذاری نشده باشند، OpenClaw بهجای نمایش انتخابگر خالی محدود به ارائهدهنده، به کاتالوگ فیلترنشده برمیگردد.
Standard models
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Coding models (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK دسترسی به همان مدلهای Volcano Engine را برای کاربران بینالمللی فراهم میکند.
- ارائهدهنده:
byteplus(کدنویسی:byteplus-plan) - احراز هویت:
BYTEPLUS_API_KEY - مدل نمونه:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
فرایند راهاندازی بهطور پیشفرض از سطح کدنویسی استفاده میکند، اما کاتالوگ عمومی byteplus/* نیز همزمان ثبت میشود.
در انتخابگرهای مدلِ راهاندازی/پیکربندی، گزینه احراز هویت BytePlus هر دو ردیف byteplus/* و byteplus-plan/* را ترجیح میدهد. اگر این مدلها هنوز بارگذاری نشده باشند، OpenClaw بهجای نمایش انتخابگر خالی محدود به ارائهدهنده، به کاتالوگ فیلترنشده برمیگردد.
Standard models
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Coding models (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic مدلهای سازگار با Anthropic را پشت ارائهدهنده synthetic فراهم میکند:
- ارائهدهنده:
synthetic - احراز هویت:
SYNTHETIC_API_KEY - مدل نمونه:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax از طریق models.providers پیکربندی میشود، چون از نقاط پایانی سفارشی استفاده میکند:
- MiniMax OAuth (سراسری):
--auth-choice minimax-global-oauth - MiniMax OAuth (چین):
--auth-choice minimax-cn-oauth - کلید API MiniMax (سراسری):
--auth-choice minimax-global-api - کلید API MiniMax (چین):
--auth-choice minimax-cn-api - احراز هویت:
MINIMAX_API_KEYبرایminimax؛MINIMAX_OAUTH_TOKENیاMINIMAX_API_KEYبرایminimax-portal
برای جزئیات راهاندازی، گزینههای مدل، و قطعههای پیکربندی، /providers/minimax را ببینید.
تفکیک قابلیتهای متعلق به Plugin:
- پیشفرضهای متن/گفتوگو روی
minimax/MiniMax-M2.7باقی میمانند - تولید تصویر
minimax/image-01یاminimax-portal/image-01است - درک تصویر،
MiniMax-VL-01متعلق به Plugin در هر دو مسیر احراز هویت MiniMax است - جستوجوی وب روی شناسه ارائهدهنده
minimaxباقی میماند
LM Studio
LM Studio بهصورت یک Plugin ارائهدهنده همراه عرضه میشود که از API بومی استفاده میکند:
- ارائهدهنده:
lmstudio - احراز هویت:
LM_API_TOKEN - نشانی پایه پیشفرض برای استنتاج:
http://localhost:1234/v1
سپس یک مدل تنظیم کنید (با یکی از شناسههایی که http://localhost:1234/api/v1/models برمیگرداند جایگزین کنید):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw برای کشف + بارگذاری خودکار از /api/v1/models و /api/v1/models/load بومی LM Studio استفاده میکند، و بهطور پیشفرض برای استنتاج از /v1/chat/completions استفاده میشود. اگر میخواهید بارگذاری JIT، TTL، و حذف خودکار LM Studio مالک چرخه عمر مدل باشند، models.providers.lmstudio.params.preload: false را تنظیم کنید. برای راهاندازی و عیبیابی، /providers/lmstudio را ببینید.
Ollama
Ollama بهصورت یک Plugin ارائهدهنده همراه عرضه میشود و از API بومی Ollama استفاده میکند:
- ارائهدهنده:
ollama - احراز هویت: لازم نیست (سرور محلی)
- مدل نمونه:
ollama/llama3.3 - نصب: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
وقتی با OLLAMA_API_KEY فعالسازی را انتخاب کنید، Ollama بهصورت محلی در http://127.0.0.1:11434 شناسایی میشود، و Plugin ارائهدهنده همراه، Ollama را مستقیماً به openclaw onboard و انتخابگر مدل اضافه میکند. برای راهاندازی، حالت ابری/محلی، و پیکربندی سفارشی، /providers/ollama را ببینید.
vLLM
vLLM بهصورت یک Plugin ارائهدهنده همراه برای سرورهای محلی/خودمیزبانِ سازگار با OpenAI عرضه میشود:
- ارائهدهنده:
vllm - احراز هویت: اختیاری (به سرور شما بستگی دارد)
- نشانی پایه پیشفرض:
http://127.0.0.1:8000/v1
برای فعالسازی کشف خودکار بهصورت محلی (اگر سرور شما احراز هویت را اجباری نمیکند، هر مقداری کار میکند):
export VLLM_API_KEY="vllm-local"
سپس یک مدل تنظیم کنید (با یکی از شناسههایی که /v1/models برمیگرداند جایگزین کنید):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
برای جزئیات، /providers/vllm را ببینید.
SGLang
SGLang بهصورت یک Plugin ارائهدهنده همراه برای سرورهای سریع خودمیزبانِ سازگار با OpenAI عرضه میشود:
- ارائهدهنده:
sglang - احراز هویت: اختیاری (به سرور شما بستگی دارد)
- نشانی پایه پیشفرض:
http://127.0.0.1:30000/v1
برای فعالسازی کشف خودکار بهصورت محلی (اگر سرور شما احراز هویت را اجباری نمیکند، هر مقداری کار میکند):
export SGLANG_API_KEY="sglang-local"
سپس یک مدل تنظیم کنید (با یکی از شناسههایی که /v1/models برمیگرداند جایگزین کنید):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
برای جزئیات، /providers/sglang را ببینید.
پراکسیهای محلی (LM Studio، vLLM، LiteLLM، و غیره)
نمونه (سازگار با OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Default optional fields
برای ارائهدهندههای سفارشی، reasoning، input، cost، contextWindow، و maxTokens اختیاری هستند. اگر حذف شوند، OpenClaw بهطور پیشفرض از این مقادیر استفاده میکند:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
توصیهشده: مقادیر صریحی تنظیم کنید که با محدودیتهای پراکسی/مدل شما مطابقت داشته باشند.
Proxy-route shaping rules
- برای
api: "openai-completions"روی نقاط پایانی غیربومی (هرbaseUrlغیرخالی که میزبان آنapi.openai.comنیست)، OpenClaw مقدارcompat.supportsDeveloperRole: falseرا اجباری میکند تا از خطاهای 400 ارائهدهنده برای نقشهای پشتیبانینشدهdeveloperجلوگیری شود. - مسیرهای سازگار با OpenAI به سبک پراکسی همچنین شکلدهی درخواستهایی را که فقط برای OpenAI بومی هستند رد میکنند: بدون
service_tier، بدون Responsesstore، بدون Completionsstore، بدون راهنماییهای prompt-cache، بدون شکلدهی payload سازگار با reasoning در OpenAI، و بدون سرآیندهای انتساب پنهان OpenClaw. - برای پراکسیهای Completions سازگار با OpenAI که به فیلدهای مختص فروشنده نیاز دارند،
agents.defaults.models["provider/model"].params.extra_body(یاextraBody) را تنظیم کنید تا JSON اضافی در بدنه درخواست خروجی ادغام شود. - برای کنترلهای chat-template در vLLM،
agents.defaults.models["provider/model"].params.chat_template_kwargsرا تنظیم کنید. Plugin همراه vLLM وقتی سطح thinking نشست خاموش باشد، برایvllm/nemotron-3-*بهطور خودکارenable_thinking: falseوforce_nonempty_content: trueرا ارسال میکند. - برای مدلهای محلی کند یا میزبانهای LAN/tailnet دوردست،
models.providers.<id>.timeoutSecondsرا تنظیم کنید. این کار رسیدگی به درخواست HTTP مدل ارائهدهنده را، شامل اتصال، سرآیندها، استریم بدنه، و توقف guarded-fetch کلی، بدون افزایش زمان انتظار کل زمان اجرای عامل گسترش میدهد. - فراخوانیهای HTTP ارائهدهنده مدل پاسخهای DNS fake-IP از Surge، Clash، و sing-box را در
198.18.0.0/15وfc00::/7فقط برای نام میزبانbaseUrlارائهدهنده پیکربندیشده مجاز میکنند. مقصدهای خصوصی، loopback، link-local، و metadata دیگر همچنان به فعالسازی صریحmodels.providers.<id>.request.allowPrivateNetwork: trueنیاز دارند. - اگر
baseUrlخالی/حذفشده باشد، OpenClaw رفتار پیشفرض OpenAI را حفظ میکند (که بهapi.openai.comresolve میشود). - برای ایمنی، مقدار صریح
compat.supportsDeveloperRole: trueهمچنان روی نقاط پایانی غیربومیopenai-completionsنادیده گرفته میشود. - برای
api: "anthropic-messages"روی نقاط پایانی غیرمستقیم (هر ارائهدهندهای غیر ازanthropicاستاندارد، یا یکmodels.providers.anthropic.baseUrlسفارشی که میزبان آن یک نقطه پایانی عمومیapi.anthropic.comنیست)، OpenClaw سرآیندهای بتای ضمنی Anthropic مانندclaude-code-20250219،interleaved-thinking-2025-05-14، و نشانگرهای OAuth را سرکوب میکند تا پراکسیهای سفارشی سازگار با Anthropic پرچمهای بتای پشتیبانینشده را رد نکنند. اگر پراکسی شما به قابلیتهای بتای مشخصی نیاز دارد،models.providers.<id>.headers["anthropic-beta"]را صریحاً تنظیم کنید.
نمونههای CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
همچنین ببینید: پیکربندی برای نمونههای کامل پیکربندی.
مرتبط
- مرجع پیکربندی - کلیدهای پیکربندی مدل
- جابهجایی خودکار مدل - زنجیرههای جایگزین و رفتار تلاش دوباره
- مدلها - پیکربندی مدل و نامهای مستعار
- ارائهدهندهها - راهنماهای راهاندازی برای هر ارائهدهنده