Overview
Швидкий старт для провайдера моделей
OpenClaw може використовувати багатьох постачальників LLM. Виберіть одного, автентифікуйтеся, а потім задайте стандартну
модель як provider/model.
Швидкий старт (два кроки)
- Автентифікуйтеся в постачальника (зазвичай через
openclaw onboard). - Задайте стандартну модель:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Підтримувані постачальники (базовий набір)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- Моделі GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Додаткові вбудовані варіанти постачальників
anthropic-vertex- неявна підтримка Anthropic у Google Vertex, коли доступні облікові дані Vertex; без окремого вибору автентифікації під час первинного налаштуванняcopilot-proxy- локальний міст VS Code Copilot Proxy; використовуйтеopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- неофіційний потік OAuth Gemini CLI; потрібне локальне встановленняgemini(brew install gemini-cliабоnpm install -g @google/gemini-cli); стандартна модельgoogle-gemini-cli/gemini-3-flash-preview; використовуйтеopenclaw onboard --auth-choice google-gemini-cliабоopenclaw models auth login --provider google-gemini-cli --set-default
Повний каталог постачальників (xAI, Groq, Mistral тощо) і розширену конфігурацію див. у розділі Постачальники моделей.