Overview
Início rápido do provedor de modelo
OpenClaw pode usar muitos provedores de LLM. Escolha um, autentique-se e então defina o modelo padrão como provider/model.
Início rápido (duas etapas)
- Autentique-se com o provedor (geralmente via
openclaw onboard). - Defina o modelo padrão:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Provedores compatíveis (conjunto inicial)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- modelos GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Variantes adicionais de provedores incluídas
anthropic-vertex- suporte implícito ao Anthropic no Google Vertex quando as credenciais do Vertex estão disponíveis; sem opção separada de autenticação no onboardingcopilot-proxy- ponte local do VS Code Copilot Proxy; useopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- fluxo OAuth não oficial da Gemini CLI; requer uma instalação local degemini(brew install gemini-cliounpm install -g @google/gemini-cli); modelo padrãogoogle-gemini-cli/gemini-3-flash-preview; useopenclaw onboard --auth-choice google-gemini-cliouopenclaw models auth login --provider google-gemini-cli --set-default
Para o catálogo completo de provedores (xAI, Groq, Mistral etc.) e configuração avançada, consulte Provedores de modelos.