Overview
Guida rapida al fornitore di modelli
OpenClaw può usare molti provider LLM. Scegline uno, autenticati, quindi imposta il modello predefinito
come provider/model.
Avvio rapido (due passaggi)
- Autenticati con il provider (di solito tramite
openclaw onboard). - Imposta il modello predefinito:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Provider supportati (set iniziale)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- modelli GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Varianti aggiuntive di provider incluse
anthropic-vertex- supporto implicito Anthropic su Google Vertex quando sono disponibili le credenziali Vertex; nessuna scelta di autenticazione di onboarding separatacopilot-proxy- bridge locale VS Code Copilot Proxy; usaopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- flusso OAuth non ufficiale di Gemini CLI; richiede un'installazione locale digemini(brew install gemini-clionpm install -g @google/gemini-cli); modello predefinitogoogle-gemini-cli/gemini-3-flash-preview; usaopenclaw onboard --auth-choice google-gemini-clioopenclaw models auth login --provider google-gemini-cli --set-default
Per il catalogo completo dei provider (xAI, Groq, Mistral, ecc.) e la configurazione avanzata, consulta Provider di modelli.