Overview
Inicio rápido del proveedor de modelos
OpenClaw puede usar muchos proveedores de LLM. Elige uno, autentícate y luego configura el modelo predeterminado como provider/model.
Inicio rápido (dos pasos)
- Autentícate con el proveedor (normalmente mediante
openclaw onboard). - Configura el modelo predeterminado:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Proveedores compatibles (conjunto inicial)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (internacional)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- modelos GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Variantes adicionales de proveedores incluidas
anthropic-vertex- compatibilidad implícita de Anthropic en Google Vertex cuando las credenciales de Vertex están disponibles; no hay una opción de autenticación de incorporación separadacopilot-proxy- puente local de VS Code Copilot Proxy; usaopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- flujo OAuth no oficial de Gemini CLI; requiere una instalación local degemini(brew install gemini-clionpm install -g @google/gemini-cli); modelo predeterminadogoogle-gemini-cli/gemini-3-flash-preview; usaopenclaw onboard --auth-choice google-gemini-clioopenclaw models auth login --provider google-gemini-cli --set-default
Para ver el catálogo completo de proveedores (xAI, Groq, Mistral, etc.) y la configuración avanzada, consulta proveedores de modelos.