Overview
Snelstartgids voor modelproviders
OpenClaw kan veel LLM-providers gebruiken. Kies er één, authenticeer en stel vervolgens het standaardmodel in als provider/model.
Snelstart (twee stappen)
- Authenticeer bij de provider (meestal via
openclaw onboard). - Stel het standaardmodel in:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Ondersteunde providers (startset)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (Internationaal)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- GLM-modellen
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Aanvullende gebundelde providervarianten
anthropic-vertex- impliciete Anthropic op Google Vertex-ondersteuning wanneer Vertex-referenties beschikbaar zijn; geen afzonderlijke authenticatiekeuze voor onboardingcopilot-proxy- lokale VS Code Copilot Proxy-brug; gebruikopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- onofficiële Gemini CLI OAuth-flow; vereist een lokalegemini-installatie (brew install gemini-cliofnpm install -g @google/gemini-cli); standaardmodelgoogle-gemini-cli/gemini-3-flash-preview; gebruikopenclaw onboard --auth-choice google-gemini-cliofopenclaw models auth login --provider google-gemini-cli --set-default
Voor de volledige providercatalogus (xAI, Groq, Mistral, enzovoort) en geavanceerde configuratie, zie Modelproviders.