Concepts and configuration

ارائه‌دهندگان مدل

مرجعی برای ارائه‌دهندگان LLM/مدل (نه کانال‌های چت مانند WhatsApp/Telegram). برای قواعد انتخاب مدل، مدل‌ها را ببینید.

قواعد سریع

ارجاع‌های مدل و کمک‌کننده‌های CLI
  • ارجاع‌های مدل از provider/model استفاده می‌کنند (مثال: opencode/claude-opus-4-6).
  • agents.defaults.models وقتی تنظیم شده باشد، مانند فهرست مجاز عمل می‌کند.
  • کمک‌کننده‌های CLI: openclaw onboard، openclaw models list، openclaw models set <provider/model>.
  • models.providers.*.contextWindow / contextTokens / maxTokens پیش‌فرض‌های سطح ارائه‌دهنده را تنظیم می‌کنند؛ models.providers.*.models[].contextWindow / contextTokens / maxTokens آن‌ها را برای هر مدل بازنویسی می‌کنند.
  • قواعد جایگزینی، کاوش‌های دوره‌ی انتظار، و ماندگاری بازنویسی نشست: جایگزینی مدل.
افزودن احراز هویت ارائه‌دهنده مدل اصلی شما را تغییر نمی‌دهد

openclaw configure وقتی ارائه‌دهنده‌ای را اضافه یا دوباره احراز هویت می‌کنید، agents.defaults.model.primary موجود را حفظ می‌کند. Pluginهای ارائه‌دهنده همچنان ممکن است در وصله پیکربندی احراز هویت خود یک مدل پیش‌فرض پیشنهادی برگردانند، اما configure وقتی یک مدل اصلی از قبل وجود داشته باشد، آن را به‌عنوان «این مدل را در دسترس کن» در نظر می‌گیرد، نه «مدل اصلی فعلی را جایگزین کن».

برای تغییر عمدی مدل پیش‌فرض، از openclaw models set <provider/model> یا openclaw models auth login --provider <id> --set-default استفاده کنید.

تفکیک ارائه‌دهنده/زمان اجرای OpenAI

مسیرهای خانواده OpenAI وابسته به پیشوند هستند:

  • openai/<model> به‌همراه agents.defaults.agentRuntime.id: "codex" از هارنس بومی سرور برنامه Codex استفاده می‌کند. این تنظیم معمول اشتراک ChatGPT/Codex است.
  • openai-codex/<model> از OAuth مربوط به Codex در PI استفاده می‌کند.
  • openai/<model> بدون بازنویسی زمان اجرای Codex از ارائه‌دهنده مستقیم کلید API در PI استفاده می‌کند.

OpenAI و هارنس Codex را ببینید. اگر تفکیک ارائه‌دهنده/زمان اجرا گیج‌کننده است، ابتدا زمان‌های اجرای عامل را بخوانید.

فعال‌سازی خودکار Plugin از همان مرز پیروی می‌کند: openai-codex/<model> به Plugin مربوط به OpenAI تعلق دارد، در حالی که Plugin مربوط به Codex با agentRuntime.id: "codex" یا ارجاع‌های قدیمی codex/<model> فعال می‌شود.

GPT-5.5 وقتی agentRuntime.id: "codex" تنظیم شده باشد از طریق هارنس بومی سرور برنامه Codex، در PI از طریق openai-codex/gpt-5.5 برای OAuth مربوط به Codex، و در PI از طریق openai/gpt-5.5 برای ترافیک مستقیم کلید API، در صورت ارائه‌شدن توسط حساب شما، در دسترس است.

زمان‌های اجرای CLI

زمان‌های اجرای CLI از همان تفکیک استفاده می‌کنند: ارجاع‌های مدل کانونی مانند anthropic/claude-*، google/gemini-* یا openai/gpt-* را انتخاب کنید، سپس وقتی یک پشتانه CLI محلی می‌خواهید، agents.defaults.agentRuntime.id را روی claude-cli، google-gemini-cli یا codex-cli تنظیم کنید.

ارجاع‌های قدیمی claude-cli/*، google-gemini-cli/* و codex-cli/* به ارجاع‌های ارائه‌دهنده کانونی برمی‌گردند و زمان اجرا جداگانه ثبت می‌شود.

رفتار ارائه‌دهنده متعلق به Plugin

بیشتر منطق اختصاصی ارائه‌دهنده در Pluginهای ارائه‌دهنده (registerProvider(...)) قرار دارد، در حالی که OpenClaw حلقه استنتاج عمومی را نگه می‌دارد. Pluginها مالک راه‌اندازی اولیه، کاتالوگ‌های مدل، نگاشت متغیرهای محیطی احراز هویت، نرمال‌سازی انتقال/پیکربندی، پاک‌سازی طرح‌واره ابزار، طبقه‌بندی جایگزینی، تازه‌سازی OAuth، گزارش‌دهی مصرف، پروفایل‌های تفکر/استدلال و موارد بیشتر هستند.

فهرست کامل قلاب‌های SDK ارائه‌دهنده و مثال‌های Pluginهای همراه در Pluginهای ارائه‌دهنده قرار دارد. ارائه‌دهنده‌ای که به اجراکننده درخواست کاملا سفارشی نیاز دارد، یک سطح توسعه جداگانه و عمیق‌تر است.

چرخش کلید API

منابع کلید و اولویت

چند کلید را از طریق موارد زیر پیکربندی کنید:

  • OPENCLAW_LIVE_&lt;PROVIDER&gt;_KEY (بازنویسی زنده تکی، بالاترین اولویت)
  • &lt;PROVIDER&gt;_API_KEYS (فهرست جداشده با ویرگول یا نقطه‌ویرگول)
  • &lt;PROVIDER&gt;_API_KEY (کلید اصلی)
  • &lt;PROVIDER&gt;_API_KEY_* (فهرست شماره‌دار، مثلا &lt;PROVIDER&gt;_API_KEY_1)

برای ارائه‌دهندگان Google، GOOGLE_API_KEY نیز به‌عنوان جایگزین گنجانده می‌شود. ترتیب انتخاب کلید اولویت را حفظ می‌کند و مقدارهای تکراری را حذف می‌کند.

چرخش چه زمانی شروع می‌شود
  • درخواست‌ها فقط در پاسخ‌های محدودیت نرخ با کلید بعدی دوباره تلاش می‌شوند (برای مثال 429، rate_limit، quota، resource exhausted، Too many concurrent requests، ThrottlingException، concurrency limit reached، workers_ai ... quota limit exceeded، یا پیام‌های دوره‌ای محدودیت مصرف).
  • خطاهایی که محدودیت نرخ نیستند فورا شکست می‌خورند؛ هیچ چرخش کلیدی تلاش نمی‌شود.
  • وقتی همه کلیدهای نامزد شکست بخورند، خطای نهایی از آخرین تلاش برگردانده می‌شود.

ارائه‌دهندگان داخلی (کاتالوگ pi-ai)

OpenClaw همراه با کاتالوگ pi-ai عرضه می‌شود. این ارائه‌دهندگان به پیکربندی models.providers نیازی ندارند؛ فقط احراز هویت را تنظیم کنید و یک مدل انتخاب کنید.

OpenAI

  • ارائه‌دهنده: openai
  • احراز هویت: OPENAI_API_KEY
  • چرخش اختیاری: OPENAI_API_KEYS، OPENAI_API_KEY_1، OPENAI_API_KEY_2، به‌همراه OPENCLAW_LIVE_OPENAI_KEY (بازنویسی تکی)
  • مدل‌های نمونه: openai/gpt-5.5، openai/gpt-5.4-mini
  • اگر یک نصب یا کلید API خاص رفتار متفاوتی دارد، در دسترس بودن حساب/مدل را با openclaw models list --provider openai بررسی کنید.
  • CLI: openclaw onboard --auth-choice openai-api-key
  • انتقال پیش‌فرض auto است (ابتدا WebSocket، با جایگزین SSE)
  • برای هر مدل از طریق agents.defaults.models["openai/<model>"].params.transport بازنویسی کنید ("sse"، "websocket" یا "auto")
  • گرم‌سازی WebSocket مربوط به OpenAI Responses به‌صورت پیش‌فرض از طریق params.openaiWsWarmup فعال است (true/false)
  • پردازش اولویتی OpenAI می‌تواند از طریق agents.defaults.models["openai/<model>"].params.serviceTier فعال شود
  • /fast و params.fastMode درخواست‌های مستقیم Responses مربوط به openai/* را روی api.openai.com به service_tier=priority نگاشت می‌کنند
  • وقتی به‌جای کلید مشترک /fast یک سطح صریح می‌خواهید، از params.serviceTier استفاده کنید
  • سرآیندهای انتساب پنهان OpenClaw (originator، version، User-Agent) فقط روی ترافیک بومی OpenAI به api.openai.com اعمال می‌شوند، نه پروکسی‌های عمومی سازگار با OpenAI
  • مسیرهای بومی OpenAI همچنین store مربوط به Responses، راهنمایی‌های کش پرامپت، و شکل‌دهی بارسازه سازگار با استدلال OpenAI را نگه می‌دارند؛ مسیرهای پروکسی این کار را نمی‌کنند
  • openai/gpt-5.3-codex-spark عمدا در OpenClaw پنهان شده است، چون درخواست‌های زنده API مربوط به OpenAI آن را رد می‌کنند و کاتالوگ فعلی Codex آن را ارائه نمی‌دهد
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • ارائه‌دهنده: anthropic
  • احراز هویت: ANTHROPIC_API_KEY
  • چرخش اختیاری: ANTHROPIC_API_KEYS، ANTHROPIC_API_KEY_1، ANTHROPIC_API_KEY_2، به‌همراه OPENCLAW_LIVE_ANTHROPIC_KEY (بازنویسی تکی)
  • مدل نمونه: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice apiKey
  • درخواست‌های عمومی مستقیم Anthropic از کلید مشترک /fast و params.fastMode پشتیبانی می‌کنند، شامل ترافیک احراز هویت‌شده با کلید API و OAuth که به api.anthropic.com فرستاده می‌شود؛ OpenClaw آن را به service_tier مربوط به Anthropic نگاشت می‌کند (auto در برابر standard_only)
  • پیکربندی ترجیحی Claude CLI ارجاع مدل را کانونی نگه می‌دارد و پشتانه CLI را جداگانه انتخاب می‌کند: anthropic/claude-opus-4-7 با agents.defaults.agentRuntime.id: "claude-cli". ارجاع‌های قدیمی claude-cli/claude-opus-4-7 همچنان برای سازگاری کار می‌کنند.
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OAuth مربوط به OpenAI Codex

  • ارائه‌دهنده: openai-codex
  • احراز هویت: OAuth (ChatGPT)
  • ارجاع مدل PI: openai-codex/gpt-5.5
  • ارجاع هارنس بومی سرور برنامه Codex: openai/gpt-5.5 با agents.defaults.agentRuntime.id: "codex"
  • مستندات هارنس بومی سرور برنامه Codex: هارنس Codex
  • ارجاع‌های مدل قدیمی: codex/gpt-*
  • مرز Plugin: openai-codex/* Plugin مربوط به OpenAI را بارگذاری می‌کند؛ Plugin بومی سرور برنامه Codex فقط توسط زمان اجرای هارنس Codex یا ارجاع‌های قدیمی codex/* انتخاب می‌شود.
  • CLI: openclaw onboard --auth-choice openai-codex یا openclaw models auth login --provider openai-codex
  • انتقال پیش‌فرض auto است (ابتدا WebSocket، با جایگزین SSE)
  • برای هر مدل PI از طریق agents.defaults.models["openai-codex/<model>"].params.transport بازنویسی کنید ("sse"، "websocket" یا "auto")
  • params.serviceTier همچنین روی درخواست‌های بومی Codex Responses (chatgpt.com/backend-api) ارسال می‌شود
  • سرآیندهای انتساب پنهان OpenClaw (originator، version، User-Agent) فقط روی ترافیک بومی Codex به chatgpt.com/backend-api پیوست می‌شوند، نه پروکسی‌های عمومی سازگار با OpenAI
  • همان کلید مشترک /fast و پیکربندی params.fastMode را مانند openai/* مستقیم به اشتراک می‌گذارد؛ OpenClaw آن را به service_tier=priority نگاشت می‌کند
  • openai-codex/gpt-5.5 از contextWindow = 400000 بومی کاتالوگ Codex و contextTokens = 272000 پیش‌فرض زمان اجرا استفاده می‌کند؛ سقف زمان اجرا را با models.providers.openai-codex.models[].contextTokens بازنویسی کنید
  • نکته سیاستی: OAuth مربوط به OpenAI Codex صراحتا برای ابزارها/گردش‌کارهای خارجی مانند OpenClaw پشتیبانی می‌شود.
  • برای مسیر رایج اشتراک به‌همراه زمان اجرای بومی Codex، با احراز هویت openai-codex وارد شوید اما openai/gpt-5.5 را به‌همراه agents.defaults.agentRuntime.id: "codex" پیکربندی کنید.
  • فقط وقتی می‌خواهید مسیر OAuth/اشتراک Codex از طریق PI باشد، از openai-codex/gpt-5.5 استفاده کنید؛ وقتی تنظیم کلید API و کاتالوگ محلی شما مسیر API عمومی را ارائه می‌دهد، از openai/gpt-5.5 بدون بازنویسی زمان اجرای Codex استفاده کنید.
  • ارجاع‌های قدیمی‌تر openai-codex/gpt-5.1*، openai-codex/gpt-5.2* و openai-codex/gpt-5.3* پنهان شده‌اند، چون حساب‌های OAuth مربوط به ChatGPT/Codex آن‌ها را رد می‌کنند؛ به‌جای آن از openai-codex/gpt-5.5 یا مسیر زمان اجرای بومی Codex استفاده کنید.
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

گزینه‌های میزبانی‌شده دیگر به سبک اشتراک

OpenCode

  • احراز هویت: OPENCODE_API_KEY (یا OPENCODE_ZEN_API_KEY)
  • ارائه‌دهنده زمان اجرای Zen: opencode
  • ارائه‌دهنده زمان اجرای Go: opencode-go
  • مدل‌های نمونه: opencode/claude-opus-4-6، opencode-go/kimi-k2.6
  • CLI: openclaw onboard --auth-choice opencode-zen یا openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (کلید API)

  • ارائه‌دهنده: google
  • احراز هویت: GEMINI_API_KEY
  • چرخش اختیاری: GEMINI_API_KEYS، GEMINI_API_KEY_1، GEMINI_API_KEY_2، fallback برای GOOGLE_API_KEY، و OPENCLAW_LIVE_GEMINI_KEY (بازنویسی تکی)
  • مدل‌های نمونه: google/gemini-3.1-pro-preview، google/gemini-3-flash-preview
  • سازگاری: پیکربندی قدیمی OpenClaw که از google/gemini-3.1-flash-preview استفاده می‌کند به google/gemini-3-flash-preview نرمال‌سازی می‌شود
  • نام مستعار: google/gemini-3.1-pro پذیرفته می‌شود و به شناسه زنده Gemini API گوگل، یعنی google/gemini-3.1-pro-preview، نرمال‌سازی می‌شود
  • CLI: openclaw onboard --auth-choice gemini-api-key
  • تفکر: /think adaptive از تفکر پویا گوگل استفاده می‌کند. Gemini 3/3.1 مقدار ثابت thinkingLevel را حذف می‌کند؛ Gemini 2.5 مقدار thinkingBudget: -1 را ارسال می‌کند.
  • اجراهای مستقیم Gemini همچنین agents.defaults.models["google/<model>"].params.cachedContent (یا cached_content قدیمی) را می‌پذیرند تا یک هندل بومی ارائه‌دهنده از نوع cachedContents/... را ارسال کنند؛ برخوردهای کش Gemini به‌صورت cacheRead در OpenClaw نمایش داده می‌شوند

Google Vertex و Gemini CLI

  • ارائه‌دهندگان: google-vertex، google-gemini-cli
  • احراز هویت: Vertex از gcloud ADC استفاده می‌کند؛ Gemini CLI از جریان OAuth خودش استفاده می‌کند

OAuth در Gemini CLI به‌عنوان بخشی از Plugin همراه google ارائه می‌شود.

  • نصب Gemini CLI

    brew

    brew install gemini-cli
    

    npm

    npm install -g @google/gemini-cli
    
  • فعال‌سازی Plugin

    openclaw plugins enable google
    
  • ورود

    openclaw models auth login --provider google-gemini-cli --set-default
    

    مدل پیش‌فرض: google-gemini-cli/gemini-3-flash-preview. شما نباید شناسه کلاینت یا secret را در openclaw.json جای‌گذاری کنید. جریان ورود CLI توکن‌ها را در پروفایل‌های احراز هویت روی میزبان Gateway ذخیره می‌کند.

  • تنظیم پروژه (در صورت نیاز)

    اگر درخواست‌ها پس از ورود ناموفق بودند، GOOGLE_CLOUD_PROJECT یا GOOGLE_CLOUD_PROJECT_ID را روی میزبان Gateway تنظیم کنید.

  • پاسخ‌های JSON در Gemini CLI از response پردازش می‌شوند؛ مصرف به stats fallback می‌کند و stats.cached به cacheRead در OpenClaw نرمال‌سازی می‌شود.

    Z.AI (GLM)

    • ارائه‌دهنده: zai
    • احراز هویت: ZAI_API_KEY
    • مدل نمونه: zai/glm-5.1
    • CLI: openclaw onboard --auth-choice zai-api-key
      • نام‌های مستعار: z.ai/* و z-ai/* به zai/* نرمال‌سازی می‌شوند
      • zai-api-key endpoint متناظر Z.AI را به‌صورت خودکار تشخیص می‌دهد؛ zai-coding-global، zai-coding-cn، zai-global، و zai-cn یک سطح مشخص را اجبار می‌کنند

    Vercel AI Gateway

    • ارائه‌دهنده: vercel-ai-gateway
    • احراز هویت: AI_GATEWAY_API_KEY
    • مدل‌های نمونه: vercel-ai-gateway/anthropic/claude-opus-4.6، vercel-ai-gateway/moonshotai/kimi-k2.6
    • CLI: openclaw onboard --auth-choice ai-gateway-api-key

    Kilo Gateway

    • ارائه‌دهنده: kilocode
    • احراز هویت: KILOCODE_API_KEY
    • مدل نمونه: kilocode/kilo/auto
    • CLI: openclaw onboard --auth-choice kilocode-api-key
    • URL پایه: https://api.kilo.ai/api/gateway/
    • کاتالوگ fallback ایستا همراه با kilocode/kilo/auto ارائه می‌شود؛ کشف زنده https://api.kilo.ai/api/gateway/models می‌تواند کاتالوگ زمان اجرا را بیشتر گسترش دهد.
    • مسیریابی دقیق upstream پشت kilocode/kilo/auto متعلق به Kilo Gateway است و در OpenClaw hard-code نشده است.

    برای جزئیات راه‌اندازی، /providers/kilocode را ببینید.

    Pluginهای ارائه‌دهنده همراه دیگر

    ارائه‌دهنده شناسه محیط احراز هویت مدل نمونه
    BytePlus byteplus / byteplus-plan BYTEPLUS_API_KEY byteplus-plan/ark-code-latest
    Cerebras cerebras CEREBRAS_API_KEY cerebras/zai-glm-4.7
    Cloudflare AI Gateway cloudflare-ai-gateway CLOUDFLARE_AI_GATEWAY_API_KEY -
    DeepInfra deepinfra DEEPINFRA_API_KEY deepinfra/deepseek-ai/DeepSeek-V3.2
    DeepSeek deepseek DEEPSEEK_API_KEY deepseek/deepseek-v4-flash
    GitHub Copilot github-copilot COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN -
    Groq groq GROQ_API_KEY -
    Hugging Face Inference huggingface HUGGINGFACE_HUB_TOKEN یا HF_TOKEN huggingface/deepseek-ai/DeepSeek-R1
    Kilo Gateway kilocode KILOCODE_API_KEY kilocode/kilo/auto
    Kimi Coding kimi KIMI_API_KEY یا KIMICODE_API_KEY kimi/kimi-code
    MiniMax minimax / minimax-portal MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN minimax/MiniMax-M2.7
    Mistral mistral MISTRAL_API_KEY mistral/mistral-large-latest
    Moonshot moonshot MOONSHOT_API_KEY moonshot/kimi-k2.6
    NVIDIA nvidia NVIDIA_API_KEY nvidia/nvidia/nemotron-3-super-120b-a12b
    OpenRouter openrouter OPENROUTER_API_KEY openrouter/auto
    Qianfan qianfan QIANFAN_API_KEY qianfan/deepseek-v3.2
    Qwen Cloud qwen QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY qwen/qwen3.5-plus
    StepFun stepfun / stepfun-plan STEPFUN_API_KEY stepfun/step-3.5-flash
    Together together TOGETHER_API_KEY together/moonshotai/Kimi-K2.5
    Venice venice VENICE_API_KEY -
    Vercel AI Gateway vercel-ai-gateway AI_GATEWAY_API_KEY vercel-ai-gateway/anthropic/claude-opus-4.6
    Volcano Engine (Doubao) volcengine / volcengine-plan VOLCANO_ENGINE_API_KEY volcengine-plan/ark-code-latest
    xAI xai XAI_API_KEY xai/grok-4.3
    Xiaomi xiaomi XIAOMI_API_KEY xiaomi/mimo-v2-flash

    نکات خاصی که دانستنشان مفید است

    OpenRouter

    سرآیندهای انتساب برنامه و نشانگرهای Anthropic cache_control را فقط روی مسیرهای تأییدشده‌ی openrouter.ai اعمال می‌کند. ارجاع‌های DeepSeek، Moonshot و ZAI برای ذخیره‌سازی prompt مدیریت‌شده توسط OpenRouter از نظر cache-TTL واجد شرایط هستند، اما نشانگرهای cache مربوط به Anthropic را دریافت نمی‌کنند. به‌عنوان یک مسیر سازگار با OpenAI به سبک پروکسی، شکل‌دهی‌های مخصوص OpenAI بومی را نادیده می‌گیرد (serviceTier، Responses store، راهنمایی‌های prompt-cache، سازگاری reasoning با OpenAI). ارجاع‌های مبتنی بر Gemini فقط پاک‌سازی thought-signature مربوط به proxy-Gemini را نگه می‌دارند.

    Kilo Gateway

    ارجاع‌های مبتنی بر Gemini همان مسیر پاک‌سازی proxy-Gemini را دنبال می‌کنند؛ kilocode/kilo/auto و سایر ارجاع‌هایی که از proxy reasoning پشتیبانی نمی‌کنند، تزریق proxy reasoning را نادیده می‌گیرند.

    MiniMax

    راه‌اندازی با API-key تعریف‌های صریح مدل چت متنی M2.7 را می‌نویسد؛ درک تصویر همچنان روی ارائه‌دهنده‌ی رسانه‌ای MiniMax-VL-01 متعلق به Plugin باقی می‌ماند.

    NVIDIA

    شناسه‌های مدل از فضای نام nvidia/<vendor>/<model> استفاده می‌کنند (برای مثال nvidia/nvidia/nemotron-... در کنار nvidia/moonshotai/kimi-k2.5)؛ انتخابگرها ترکیب لفظی <provider>/<model-id> را حفظ می‌کنند، در حالی که کلید canonical ارسال‌شده به API تک‌پیشوندی می‌ماند.

    xAI

    از مسیر Responses مربوط به xAI استفاده می‌کند. grok-4.3 مدل چت پیش‌فرض بسته‌بندی‌شده است. /fast یا params.fastMode: true مدل‌های grok-3، grok-3-mini، grok-4 و grok-4-0709 را به گونه‌های *-fast آن‌ها بازنویسی می‌کند. tool_stream به‌صورت پیش‌فرض فعال است؛ از طریق agents.defaults.models["xai/<model>"].params.tool_stream=false غیرفعالش کنید.

    Cerebras

    به‌عنوان Plugin ارائه‌دهنده‌ی بسته‌بندی‌شده‌ی cerebras عرضه می‌شود. GLM از zai-glm-4.7 استفاده می‌کند؛ URL پایه‌ی سازگار با OpenAI برابر است با https://api.cerebras.ai/v1.

    ارائه‌دهنده‌ها از طریق models.providers (URL سفارشی/پایه)

    از models.providers (یا models.json) برای افزودن ارائه‌دهنده‌های سفارشی یا پروکسی‌های سازگار با OpenAI/Anthropic استفاده کنید.

    بسیاری از Pluginهای ارائه‌دهنده‌ی بسته‌بندی‌شده‌ی زیر از قبل یک کاتالوگ پیش‌فرض منتشر می‌کنند. ورودی‌های صریح models.providers.<id> را فقط زمانی استفاده کنید که می‌خواهید URL پایه، سرآیندها یا فهرست مدل پیش‌فرض را بازنویسی کنید.

    بررسی‌های قابلیت مدل در Gateway همچنین فراداده‌ی صریح models.providers.<id>.models[] را می‌خوانند. اگر یک مدل سفارشی یا پروکسی تصویر می‌پذیرد، روی آن مدل input: ["text", "image"] را تنظیم کنید تا WebChat و مسیرهای پیوست با مبدأ node، تصویرها را به‌جای ارجاع‌های رسانه‌ای فقط‌متنی، به‌عنوان ورودی‌های بومی مدل ارسال کنند.

    Moonshot AI (Kimi)

    Moonshot به‌عنوان یک Plugin ارائه‌دهنده‌ی بسته‌بندی‌شده عرضه می‌شود. به‌صورت پیش‌فرض از ارائه‌دهنده‌ی داخلی استفاده کنید و فقط زمانی یک ورودی صریح models.providers.moonshot اضافه کنید که لازم است URL پایه یا فراداده‌ی مدل را بازنویسی کنید:

    • ارائه‌دهنده: moonshot
    • احراز هویت: MOONSHOT_API_KEY
    • مدل نمونه: moonshot/kimi-k2.6
    • CLI: openclaw onboard --auth-choice moonshot-api-key یا openclaw onboard --auth-choice moonshot-api-key-cn

    شناسه‌های مدل Kimi K2:

    • moonshot/kimi-k2.6
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
    • moonshot/kimi-k2-turbo
    {
      agents: {
        defaults: { model: { primary: "moonshot/kimi-k2.6" } },
      },
      models: {
        mode: "merge",
        providers: {
          moonshot: {
            baseUrl: "https://api.moonshot.ai/v1",
            apiKey: "${MOONSHOT_API_KEY}",
            api: "openai-completions",
            models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
          },
        },
      },
    }
    

    کدنویسی Kimi

    Kimi Coding از endpoint سازگار با Anthropic مربوط به Moonshot AI استفاده می‌کند:

    • ارائه‌دهنده: kimi
    • احراز هویت: KIMI_API_KEY
    • مدل نمونه: kimi/kimi-code
    {
      env: { KIMI_API_KEY: "sk-..." },
      agents: {
        defaults: { model: { primary: "kimi/kimi-code" } },
      },
    }
    

    شناسه مدل قدیمی kimi/k2p5 همچنان به‌عنوان شناسه مدل سازگار پذیرفته می‌شود.

    Volcano Engine (Doubao)

    Volcano Engine (火山引擎) دسترسی به Doubao و مدل‌های دیگر را در چین فراهم می‌کند.

    • ارائه‌دهنده: volcengine (کدنویسی: volcengine-plan)
    • احراز هویت: VOLCANO_ENGINE_API_KEY
    • مدل نمونه: volcengine-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice volcengine-api-key
    {
      agents: {
        defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
      },
    }
    

    فرایند راه‌اندازی به‌طور پیش‌فرض از سطح کدنویسی استفاده می‌کند، اما کاتالوگ عمومی volcengine/* نیز هم‌زمان ثبت می‌شود.

    در انتخابگرهای مدلِ راه‌اندازی/پیکربندی، گزینه احراز هویت Volcengine هر دو ردیف volcengine/* و volcengine-plan/* را ترجیح می‌دهد. اگر این مدل‌ها هنوز بارگذاری نشده باشند، OpenClaw به‌جای نمایش انتخابگر خالی محدود به ارائه‌دهنده، به کاتالوگ فیلترنشده برمی‌گردد.

    Standard models

    • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
    • volcengine/doubao-seed-code-preview-251028
    • volcengine/kimi-k2-5-260127 (Kimi K2.5)
    • volcengine/glm-4-7-251222 (GLM 4.7)
    • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

    Coding models (volcengine-plan)

    • volcengine-plan/ark-code-latest
    • volcengine-plan/doubao-seed-code
    • volcengine-plan/kimi-k2.5
    • volcengine-plan/kimi-k2-thinking
    • volcengine-plan/glm-4.7

    BytePlus (International)

    BytePlus ARK دسترسی به همان مدل‌های Volcano Engine را برای کاربران بین‌المللی فراهم می‌کند.

    • ارائه‌دهنده: byteplus (کدنویسی: byteplus-plan)
    • احراز هویت: BYTEPLUS_API_KEY
    • مدل نمونه: byteplus-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice byteplus-api-key
    {
      agents: {
        defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
      },
    }
    

    فرایند راه‌اندازی به‌طور پیش‌فرض از سطح کدنویسی استفاده می‌کند، اما کاتالوگ عمومی byteplus/* نیز هم‌زمان ثبت می‌شود.

    در انتخابگرهای مدلِ راه‌اندازی/پیکربندی، گزینه احراز هویت BytePlus هر دو ردیف byteplus/* و byteplus-plan/* را ترجیح می‌دهد. اگر این مدل‌ها هنوز بارگذاری نشده باشند، OpenClaw به‌جای نمایش انتخابگر خالی محدود به ارائه‌دهنده، به کاتالوگ فیلترنشده برمی‌گردد.

    Standard models

    • byteplus/seed-1-8-251228 (Seed 1.8)
    • byteplus/kimi-k2-5-260127 (Kimi K2.5)
    • byteplus/glm-4-7-251222 (GLM 4.7)

    Coding models (byteplus-plan)

    • byteplus-plan/ark-code-latest
    • byteplus-plan/doubao-seed-code
    • byteplus-plan/kimi-k2.5
    • byteplus-plan/kimi-k2-thinking
    • byteplus-plan/glm-4.7

    Synthetic

    Synthetic مدل‌های سازگار با Anthropic را پشت ارائه‌دهنده synthetic فراهم می‌کند:

    • ارائه‌دهنده: synthetic
    • احراز هویت: SYNTHETIC_API_KEY
    • مدل نمونه: synthetic/hf:MiniMaxAI/MiniMax-M2.5
    • CLI: openclaw onboard --auth-choice synthetic-api-key
    {
      agents: {
        defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
      },
      models: {
        mode: "merge",
        providers: {
          synthetic: {
            baseUrl: "https://api.synthetic.new/anthropic",
            apiKey: "${SYNTHETIC_API_KEY}",
            api: "anthropic-messages",
            models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
          },
        },
      },
    }
    

    MiniMax

    MiniMax از طریق models.providers پیکربندی می‌شود، چون از نقاط پایانی سفارشی استفاده می‌کند:

    • MiniMax OAuth (سراسری): --auth-choice minimax-global-oauth
    • MiniMax OAuth (چین): --auth-choice minimax-cn-oauth
    • کلید API MiniMax (سراسری): --auth-choice minimax-global-api
    • کلید API MiniMax (چین): --auth-choice minimax-cn-api
    • احراز هویت: MINIMAX_API_KEY برای minimax؛ MINIMAX_OAUTH_TOKEN یا MINIMAX_API_KEY برای minimax-portal

    برای جزئیات راه‌اندازی، گزینه‌های مدل، و قطعه‌های پیکربندی، /providers/minimax را ببینید.

    تفکیک قابلیت‌های متعلق به Plugin:

    • پیش‌فرض‌های متن/گفت‌وگو روی minimax/MiniMax-M2.7 باقی می‌مانند
    • تولید تصویر minimax/image-01 یا minimax-portal/image-01 است
    • درک تصویر، MiniMax-VL-01 متعلق به Plugin در هر دو مسیر احراز هویت MiniMax است
    • جست‌وجوی وب روی شناسه ارائه‌دهنده minimax باقی می‌ماند

    LM Studio

    LM Studio به‌صورت یک Plugin ارائه‌دهنده همراه عرضه می‌شود که از API بومی استفاده می‌کند:

    • ارائه‌دهنده: lmstudio
    • احراز هویت: LM_API_TOKEN
    • نشانی پایه پیش‌فرض برای استنتاج: http://localhost:1234/v1

    سپس یک مدل تنظیم کنید (با یکی از شناسه‌هایی که http://localhost:1234/api/v1/models برمی‌گرداند جایگزین کنید):

    {
      agents: {
        defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
      },
    }
    

    OpenClaw برای کشف + بارگذاری خودکار از /api/v1/models و /api/v1/models/load بومی LM Studio استفاده می‌کند، و به‌طور پیش‌فرض برای استنتاج از /v1/chat/completions استفاده می‌شود. اگر می‌خواهید بارگذاری JIT، TTL، و حذف خودکار LM Studio مالک چرخه عمر مدل باشند، models.providers.lmstudio.params.preload: false را تنظیم کنید. برای راه‌اندازی و عیب‌یابی، /providers/lmstudio را ببینید.

    Ollama

    Ollama به‌صورت یک Plugin ارائه‌دهنده همراه عرضه می‌شود و از API بومی Ollama استفاده می‌کند:

    • ارائه‌دهنده: ollama
    • احراز هویت: لازم نیست (سرور محلی)
    • مدل نمونه: ollama/llama3.3
    • نصب: https://ollama.com/download
    # Install Ollama, then pull a model:
    ollama pull llama3.3
    
    {
      agents: {
        defaults: { model: { primary: "ollama/llama3.3" } },
      },
    }
    

    وقتی با OLLAMA_API_KEY فعال‌سازی را انتخاب کنید، Ollama به‌صورت محلی در http://127.0.0.1:11434 شناسایی می‌شود، و Plugin ارائه‌دهنده همراه، Ollama را مستقیماً به openclaw onboard و انتخابگر مدل اضافه می‌کند. برای راه‌اندازی، حالت ابری/محلی، و پیکربندی سفارشی، /providers/ollama را ببینید.

    vLLM

    vLLM به‌صورت یک Plugin ارائه‌دهنده همراه برای سرورهای محلی/خودمیزبانِ سازگار با OpenAI عرضه می‌شود:

    • ارائه‌دهنده: vllm
    • احراز هویت: اختیاری (به سرور شما بستگی دارد)
    • نشانی پایه پیش‌فرض: http://127.0.0.1:8000/v1

    برای فعال‌سازی کشف خودکار به‌صورت محلی (اگر سرور شما احراز هویت را اجباری نمی‌کند، هر مقداری کار می‌کند):

    export VLLM_API_KEY="vllm-local"
    

    سپس یک مدل تنظیم کنید (با یکی از شناسه‌هایی که /v1/models برمی‌گرداند جایگزین کنید):

    {
      agents: {
        defaults: { model: { primary: "vllm/your-model-id" } },
      },
    }
    

    برای جزئیات، /providers/vllm را ببینید.

    SGLang

    SGLang به‌صورت یک Plugin ارائه‌دهنده همراه برای سرورهای سریع خودمیزبانِ سازگار با OpenAI عرضه می‌شود:

    • ارائه‌دهنده: sglang
    • احراز هویت: اختیاری (به سرور شما بستگی دارد)
    • نشانی پایه پیش‌فرض: http://127.0.0.1:30000/v1

    برای فعال‌سازی کشف خودکار به‌صورت محلی (اگر سرور شما احراز هویت را اجباری نمی‌کند، هر مقداری کار می‌کند):

    export SGLANG_API_KEY="sglang-local"
    

    سپس یک مدل تنظیم کنید (با یکی از شناسه‌هایی که /v1/models برمی‌گرداند جایگزین کنید):

    {
      agents: {
        defaults: { model: { primary: "sglang/your-model-id" } },
      },
    }
    

    برای جزئیات، /providers/sglang را ببینید.

    پراکسی‌های محلی (LM Studio، vLLM، LiteLLM، و غیره)

    نمونه (سازگار با OpenAI):

    {
      agents: {
        defaults: {
          model: { primary: "lmstudio/my-local-model" },
          models: { "lmstudio/my-local-model": { alias: "Local" } },
        },
      },
      models: {
        providers: {
          lmstudio: {
            baseUrl: "http://localhost:1234/v1",
            apiKey: "${LM_API_TOKEN}",
            api: "openai-completions",
            timeoutSeconds: 300,
            models: [
              {
                id: "my-local-model",
                name: "Local Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 200000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    
    Default optional fields

    برای ارائه‌دهنده‌های سفارشی، reasoning، input، cost، contextWindow، و maxTokens اختیاری هستند. اگر حذف شوند، OpenClaw به‌طور پیش‌فرض از این مقادیر استفاده می‌کند:

    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192

    توصیه‌شده: مقادیر صریحی تنظیم کنید که با محدودیت‌های پراکسی/مدل شما مطابقت داشته باشند.

    Proxy-route shaping rules
    • برای api: "openai-completions" روی نقاط پایانی غیربومی (هر baseUrl غیرخالی که میزبان آن api.openai.com نیست)، OpenClaw مقدار compat.supportsDeveloperRole: false را اجباری می‌کند تا از خطاهای 400 ارائه‌دهنده برای نقش‌های پشتیبانی‌نشده developer جلوگیری شود.
    • مسیرهای سازگار با OpenAI به سبک پراکسی همچنین شکل‌دهی درخواست‌هایی را که فقط برای OpenAI بومی هستند رد می‌کنند: بدون service_tier، بدون Responses store، بدون Completions store، بدون راهنمایی‌های prompt-cache، بدون شکل‌دهی payload سازگار با reasoning در OpenAI، و بدون سرآیندهای انتساب پنهان OpenClaw.
    • برای پراکسی‌های Completions سازگار با OpenAI که به فیلدهای مختص فروشنده نیاز دارند، agents.defaults.models["provider/model"].params.extra_body (یا extraBody) را تنظیم کنید تا JSON اضافی در بدنه درخواست خروجی ادغام شود.
    • برای کنترل‌های chat-template در vLLM، agents.defaults.models["provider/model"].params.chat_template_kwargs را تنظیم کنید. Plugin همراه vLLM وقتی سطح thinking نشست خاموش باشد، برای vllm/nemotron-3-* به‌طور خودکار enable_thinking: false و force_nonempty_content: true را ارسال می‌کند.
    • برای مدل‌های محلی کند یا میزبان‌های LAN/tailnet دوردست، models.providers.<id>.timeoutSeconds را تنظیم کنید. این کار رسیدگی به درخواست HTTP مدل ارائه‌دهنده را، شامل اتصال، سرآیندها، استریم بدنه، و توقف guarded-fetch کلی، بدون افزایش زمان انتظار کل زمان اجرای عامل گسترش می‌دهد.
    • فراخوانی‌های HTTP ارائه‌دهنده مدل پاسخ‌های DNS fake-IP از Surge، Clash، و sing-box را در 198.18.0.0/15 و fc00::/7 فقط برای نام میزبان baseUrl ارائه‌دهنده پیکربندی‌شده مجاز می‌کنند. مقصدهای خصوصی، loopback، link-local، و metadata دیگر همچنان به فعال‌سازی صریح models.providers.<id>.request.allowPrivateNetwork: true نیاز دارند.
    • اگر baseUrl خالی/حذف‌شده باشد، OpenClaw رفتار پیش‌فرض OpenAI را حفظ می‌کند (که به api.openai.com resolve می‌شود).
    • برای ایمنی، مقدار صریح compat.supportsDeveloperRole: true همچنان روی نقاط پایانی غیربومی openai-completions نادیده گرفته می‌شود.
    • برای api: "anthropic-messages" روی نقاط پایانی غیرمستقیم (هر ارائه‌دهنده‌ای غیر از anthropic استاندارد، یا یک models.providers.anthropic.baseUrl سفارشی که میزبان آن یک نقطه پایانی عمومی api.anthropic.com نیست)، OpenClaw سرآیندهای بتای ضمنی Anthropic مانند claude-code-20250219، interleaved-thinking-2025-05-14، و نشانگرهای OAuth را سرکوب می‌کند تا پراکسی‌های سفارشی سازگار با Anthropic پرچم‌های بتای پشتیبانی‌نشده را رد نکنند. اگر پراکسی شما به قابلیت‌های بتای مشخصی نیاز دارد، models.providers.<id>.headers["anthropic-beta"] را صریحاً تنظیم کنید.

    نمونه‌های CLI

    openclaw onboard --auth-choice opencode-zen
    openclaw models set opencode/claude-opus-4-6
    openclaw models list
    

    همچنین ببینید: پیکربندی برای نمونه‌های کامل پیکربندی.

    مرتبط