Overview
Szybki start z dostawcą modeli
OpenClaw może używać wielu dostawców LLM. Wybierz jednego, uwierzytelnij się, a następnie ustaw domyślny
model jako provider/model.
Szybki start (dwa kroki)
- Uwierzytelnij się u dostawcy (zwykle przez
openclaw onboard). - Ustaw domyślny model:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Obsługiwani dostawcy (zestaw startowy)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- Modele GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Dodatkowe dołączone warianty dostawców
anthropic-vertex- niejawna obsługa Anthropic w Google Vertex, gdy dostępne są dane uwierzytelniające Vertex; bez oddzielnego wyboru uwierzytelniania podczas onboardingucopilot-proxy- lokalny pomost VS Code Copilot Proxy; użyjopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- nieoficjalny przepływ OAuth Gemini CLI; wymaga lokalnej instalacjigemini(brew install gemini-clilubnpm install -g @google/gemini-cli); domyślny modelgoogle-gemini-cli/gemini-3-flash-preview; użyjopenclaw onboard --auth-choice google-gemini-clilubopenclaw models auth login --provider google-gemini-cli --set-default
Pełny katalog dostawców (xAI, Groq, Mistral itd.) oraz zaawansowaną konfigurację znajdziesz w Dostawcy modeli.