Overview
شروع سریع ارائهدهندهٔ مدل
OpenClaw میتواند از بسیاری از ارائهدهندگان LLM استفاده کند. یکی را انتخاب کنید، احراز هویت کنید، سپس مدل پیشفرض را به صورت provider/model تنظیم کنید.
شروع سریع (دو مرحله)
- با ارائهدهنده احراز هویت کنید (معمولاً از طریق
openclaw onboard). - مدل پیشفرض را تنظیم کنید:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
ارائهدهندگان پشتیبانیشده (مجموعه آغازین)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (بینالمللی)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- مدلهای GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
گونههای اضافی ارائهدهندههای همراه
anthropic-vertex- پشتیبانی ضمنی از Anthropic روی Google Vertex زمانی که اعتبارنامههای Vertex در دسترس باشند؛ گزینه احراز هویت جداگانهای برای راهاندازی اولیه نداردcopilot-proxy- پل محلی VS Code Copilot Proxy؛ ازopenclaw onboard --auth-choice copilot-proxyاستفاده کنیدgoogle-gemini-cli- جریان غیررسمی OAuth برای Gemini CLI؛ به نصب محلیgeminiنیاز دارد (brew install gemini-cliیاnpm install -g @google/gemini-cli)؛ مدل پیشفرضgoogle-gemini-cli/gemini-3-flash-preview؛ ازopenclaw onboard --auth-choice google-gemini-cliیاopenclaw models auth login --provider google-gemini-cli --set-defaultاستفاده کنید
برای کاتالوگ کامل ارائهدهندگان (xAI، Groq، Mistral و غیره) و پیکربندی پیشرفته، ارائهدهندگان مدل را ببینید.