Overview
Démarrage rapide du fournisseur de modèles
OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez-en un, authentifiez-vous, puis définissez le modèle par défaut sous la forme provider/model.
Démarrage rapide (deux étapes)
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Fournisseurs pris en charge (ensemble de départ)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- modèles GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Variantes supplémentaires de fournisseurs groupées
anthropic-vertex- prise en charge implicite d’Anthropic sur Google Vertex lorsque les identifiants Vertex sont disponibles ; aucun choix d’authentification d’intégration distinctcopilot-proxy- passerelle locale VS Code Copilot Proxy ; utilisezopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- flux OAuth non officiel Gemini CLI ; nécessite une installation locale degemini(brew install gemini-cliounpm install -g @google/gemini-cli) ; modèle par défautgoogle-gemini-cli/gemini-3-flash-preview; utilisezopenclaw onboard --auth-choice google-gemini-cliouopenclaw models auth login --provider google-gemini-cli --set-default
Pour le catalogue complet des fournisseurs (xAI, Groq, Mistral, etc.) et la configuration avancée, consultez Fournisseurs de modèles.