Overview
Schnellstart für Modell-Provider
OpenClaw kann viele LLM-Provider verwenden. Wählen Sie einen aus, authentifizieren Sie sich und legen Sie dann das Standardmodell als provider/model fest.
Schnellstart (zwei Schritte)
- Authentifizieren Sie sich beim Provider (meist über
openclaw onboard). - Legen Sie das Standardmodell fest:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Unterstützte Provider (Starter-Auswahl)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- GLM-Modelle
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Zusätzliche gebündelte Provider-Varianten
anthropic-vertex- implizite Unterstützung für Anthropic auf Google Vertex, wenn Vertex-Anmeldedaten verfügbar sind; keine separate Onboarding-Authentifizierungsauswahlcopilot-proxy- lokale VS Code Copilot Proxy-Brücke; verwenden Sieopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- inoffizieller Gemini CLI-OAuth-Ablauf; erfordert eine lokalegemini-Installation (brew install gemini-cliodernpm install -g @google/gemini-cli); Standardmodellgoogle-gemini-cli/gemini-3-flash-preview; verwenden Sieopenclaw onboard --auth-choice google-gemini-clioderopenclaw models auth login --provider google-gemini-cli --set-default
Den vollständigen Provider-Katalog (xAI, Groq, Mistral usw.) und erweiterte Konfiguration finden Sie unter Modell-Provider.