Overview
بدء سريع لموفّر النماذج
يمكن لـ OpenClaw استخدام العديد من مزوّدي LLM. اختر واحدًا، ثم صادق، ثم اضبط النموذج الافتراضي
بصيغة provider/model.
البدء السريع (خطوتان)
- صادق مع المزوّد (عادةً عبر
openclaw onboard). - اضبط النموذج الافتراضي:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
المزوّدون المدعومون (مجموعة البداية)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (دولي)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- نماذج GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
صيغ إضافية مجمّعة للمزوّدين
anthropic-vertex- دعم Anthropic الضمني على Google Vertex عند توفر بيانات اعتماد Vertex؛ لا يوجد اختيار مصادقة إعداد أولي منفصلcopilot-proxy- جسر محلي إلى VS Code Copilot Proxy؛ استخدمopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- تدفق OAuth غير رسمي لـ Gemini CLI؛ يتطلب تثبيتgeminiمحليًا (brew install gemini-cliأوnpm install -g @google/gemini-cli)؛ النموذج الافتراضيgoogle-gemini-cli/gemini-3-flash-preview؛ استخدمopenclaw onboard --auth-choice google-gemini-cliأوopenclaw models auth login --provider google-gemini-cli --set-default
للاطلاع على كتالوج المزوّدين الكامل (xAI وGroq وMistral وغيرها) والإعدادات المتقدمة، راجع مزوّدي النماذج.