Concepts and configuration
Provedores de modelos
Referência para provedores de LLM/modelo (não canais de chat como WhatsApp/Telegram). Para regras de seleção de modelos, consulte Modelos.
Regras rápidas
Refs de modelo e auxiliares da CLI
- Refs de modelo usam
provider/model(exemplo:opencode/claude-opus-4-6). agents.defaults.modelsatua como uma allowlist quando definido.- Auxiliares da CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensdefinem padrões no nível do provedor;models.providers.*.models[].contextWindow/contextTokens/maxTokensos substituem por modelo.- Regras de fallback, probes de cooldown e persistência de substituição de sessão: Failover de modelo.
Adicionar autenticação de provedor não altera seu modelo primário
openclaw configure preserva um agents.defaults.model.primary existente quando você adiciona ou reautentica um provedor. Plugins de provedor ainda podem retornar um modelo padrão recomendado no patch de configuração de autenticação, mas configure trata isso como "tornar este modelo disponível" quando um modelo primário já existe, não como "substituir o modelo primário atual".
Para trocar intencionalmente o modelo padrão, use openclaw models set <provider/model> ou openclaw models auth login --provider <id> --set-default.
Divisão entre provedor e runtime da OpenAI
Rotas da família OpenAI são específicas por prefixo:
openai/<model>maisagents.defaults.agentRuntime.id: "codex"usa o harness nativo do servidor de aplicativo Codex. Essa é a configuração usual de assinatura ChatGPT/Codex.openai-codex/<model>usa OAuth do Codex no PI.openai/<model>sem uma substituição de runtime do Codex usa o provedor direto por chave de API da OpenAI no PI.
Consulte OpenAI e Harness do Codex. Se a divisão entre provedor e runtime estiver confusa, leia primeiro Runtimes de agentes.
A ativação automática de Plugin segue o mesmo limite: openai-codex/<model> pertence ao Plugin da OpenAI, enquanto o Plugin do Codex é ativado por agentRuntime.id: "codex" ou refs legadas codex/<model>.
GPT-5.5 está disponível pelo harness nativo do servidor de aplicativo Codex quando agentRuntime.id: "codex" está definido, por openai-codex/gpt-5.5 no PI para OAuth do Codex, e por openai/gpt-5.5 no PI para tráfego direto por chave de API quando sua conta o expõe.
Runtimes de CLI
Runtimes de CLI usam a mesma divisão: escolha refs canônicas de modelo como anthropic/claude-*, google/gemini-* ou openai/gpt-*, depois defina agents.defaults.agentRuntime.id como claude-cli, google-gemini-cli ou codex-cli quando quiser um backend de CLI local.
Refs legadas claude-cli/*, google-gemini-cli/* e codex-cli/* migram de volta para refs canônicas de provedor com o runtime registrado separadamente.
Comportamento de provedor pertencente ao Plugin
A maior parte da lógica específica de provedor vive em Plugins de provedor (registerProvider(...)), enquanto o OpenClaw mantém o loop genérico de inferência. Plugins são donos de onboarding, catálogos de modelos, mapeamento de variáveis de ambiente de autenticação, normalização de transporte/configuração, limpeza de schema de ferramentas, classificação de failover, refresh de OAuth, relatórios de uso, perfis de pensamento/raciocínio e mais.
A lista completa de hooks do SDK de provedor e exemplos de Plugins incluídos fica em Plugins de provedor. Um provedor que precisa de um executor de requisição totalmente personalizado é uma superfície de extensão separada e mais profunda.
Rotação de chaves de API
Fontes e prioridade de chaves
Configure várias chaves via:
OPENCLAW_LIVE_<PROVIDER>_KEY(substituição live única, prioridade mais alta)<PROVIDER>_API_KEYS(lista separada por vírgula ou ponto e vírgula)<PROVIDER>_API_KEY(chave primária)<PROVIDER>_API_KEY_*(lista numerada, por exemplo,<PROVIDER>_API_KEY_1)
Para provedores Google, GOOGLE_API_KEY também é incluído como fallback. A ordem de seleção de chaves preserva a prioridade e remove valores duplicados.
Quando a rotação é acionada
- As requisições são tentadas novamente com a próxima chave apenas em respostas de limite de taxa (por exemplo,
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededou mensagens periódicas de limite de uso). - Falhas que não são de limite de taxa falham imediatamente; nenhuma rotação de chave é tentada.
- Quando todas as chaves candidatas falham, o erro final é retornado a partir da última tentativa.
Provedores integrados (catálogo pi-ai)
O OpenClaw é distribuído com o catálogo pi-ai. Estes provedores não exigem configuração de models.providers; basta definir a autenticação e escolher um modelo.
OpenAI
- Provedor:
openai - Autenticação:
OPENAI_API_KEY - Rotação opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, maisOPENCLAW_LIVE_OPENAI_KEY(substituição única) - Modelos de exemplo:
openai/gpt-5.5,openai/gpt-5.4-mini - Verifique a disponibilidade da conta/modelo com
openclaw models list --provider openaise uma instalação ou chave de API específica se comportar de forma diferente. - CLI:
openclaw onboard --auth-choice openai-api-key - O transporte padrão é
auto(WebSocket primeiro, fallback para SSE) - Substitua por modelo via
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"ou"auto") - O aquecimento de WebSocket de Responses da OpenAI vem habilitado por padrão via
params.openaiWsWarmup(true/false) - O processamento prioritário da OpenAI pode ser habilitado via
agents.defaults.models["openai/<model>"].params.serviceTier /fasteparams.fastModemapeiam requisições diretas de Responsesopenai/*paraservice_tier=priorityemapi.openai.com- Use
params.serviceTierquando quiser um tier explícito em vez do toggle compartilhado/fast - Cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) se aplicam apenas ao tráfego nativo da OpenAI paraapi.openai.com, não a proxies genéricos compatíveis com OpenAI - Rotas nativas da OpenAI também mantêm
storede Responses, dicas de cache de prompt e formatação de payload compatível com raciocínio da OpenAI; rotas de proxy não openai/gpt-5.3-codex-sparké suprimido intencionalmente no OpenClaw porque requisições live da API da OpenAI o rejeitam e o catálogo atual do Codex não o expõe
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Provedor:
anthropic - Autenticação:
ANTHROPIC_API_KEY - Rotação opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, maisOPENCLAW_LIVE_ANTHROPIC_KEY(substituição única) - Modelo de exemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Requisições públicas diretas da Anthropic aceitam o toggle compartilhado
/fasteparams.fastMode, incluindo tráfego por chave de API e autenticado por OAuth enviado paraapi.anthropic.com; o OpenClaw mapeia isso paraservice_tierda Anthropic (autovsstandard_only) - A configuração preferida da Claude CLI mantém a ref de modelo canônica e seleciona o
backend de CLI separadamente:
anthropic/claude-opus-4-7comagents.defaults.agentRuntime.id: "claude-cli". Refs legadasclaude-cli/claude-opus-4-7ainda funcionam por compatibilidade.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OAuth do OpenAI Codex
- Provedor:
openai-codex - Autenticação: OAuth (ChatGPT)
- Ref de modelo do PI:
openai-codex/gpt-5.5 - Ref do harness nativo do servidor de aplicativo Codex:
openai/gpt-5.5comagents.defaults.agentRuntime.id: "codex" - Documentação do harness nativo do servidor de aplicativo Codex: Harness do Codex
- Refs de modelo legadas:
codex/gpt-* - Limite do Plugin:
openai-codex/*carrega o Plugin da OpenAI; o Plugin nativo do servidor de aplicativo Codex é selecionado apenas pelo runtime do harness do Codex ou por refs legadascodex/*. - CLI:
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex - O transporte padrão é
auto(WebSocket primeiro, fallback para SSE) - Substitua por modelo do PI via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"ou"auto") params.serviceTiertambém é encaminhado em requisições nativas de Responses do Codex (chatgpt.com/backend-api)- Cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) são anexados apenas ao tráfego nativo do Codex parachatgpt.com/backend-api, não a proxies genéricos compatíveis com OpenAI - Compartilha o mesmo toggle
/faste a configuraçãoparams.fastModequeopenai/*direto; o OpenClaw mapeia isso paraservice_tier=priority openai-codex/gpt-5.5usacontextWindow = 400000nativo do catálogo do Codex e o runtime padrãocontextTokens = 272000; substitua o limite de runtime commodels.providers.openai-codex.models[].contextTokens- Nota de política: OAuth do OpenAI Codex é explicitamente compatível com ferramentas/fluxos de trabalho externos como o OpenClaw.
- Para a rota comum de assinatura mais runtime nativo do Codex, entre com autenticação
openai-codex, mas configureopenai/gpt-5.5maisagents.defaults.agentRuntime.id: "codex". - Use
openai-codex/gpt-5.5apenas quando quiser a rota OAuth/assinatura do Codex pelo PI; useopenai/gpt-5.5sem a substituição de runtime do Codex quando sua configuração por chave de API e catálogo local expuserem a rota de API pública. - Refs mais antigas
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*eopenai-codex/gpt-5.3*são suprimidas porque contas OAuth do ChatGPT/Codex as rejeitam; useopenai-codex/gpt-5.5ou a rota de runtime nativo do Codex em vez disso.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Outras opções hospedadas no estilo de assinatura
Z.AI Coding Plan ou endpoints gerais de API.
OAuth do MiniMax Coding Plan ou acesso por chave de API.
Superfície do provedor Qwen Cloud mais mapeamento de endpoints do Alibaba DashScope e Coding Plan.
OpenCode
- Autenticação:
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Provedor do runtime Zen:
opencode - Provedor do runtime Go:
opencode-go - Modelos de exemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenouopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (chave de API)
- Provedor:
google - Autenticação:
GEMINI_API_KEY - Rotação opcional: fallback de
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEYeOPENCLAW_LIVE_GEMINI_KEY(substituição única) - Modelos de exemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidade: a configuração legada do OpenClaw usando
google/gemini-3.1-flash-previewé normalizada paragoogle/gemini-3-flash-preview - Alias:
google/gemini-3.1-proé aceito e normalizado para o id ativo da API Gemini do Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Pensamento:
/think adaptiveusa o pensamento dinâmico do Google. Gemini 3/3.1 omite umthinkingLevelfixo; Gemini 2.5 enviathinkingBudget: -1. - Execuções diretas do Gemini também aceitam
agents.defaults.models["google/<model>"].params.cachedContent(ou o legadocached_content) para encaminhar um identificador nativo do provedorcachedContents/...; acertos de cache do Gemini aparecem como OpenClawcacheRead
Google Vertex e Gemini CLI
- Provedores:
google-vertex,google-gemini-cli - Autenticação: Vertex usa gcloud ADC; Gemini CLI usa seu fluxo OAuth
O OAuth do Gemini CLI é distribuído como parte do plugin google incluído no pacote.
Instalar Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Habilitar plugin
openclaw plugins enable google
Login
openclaw models auth login --provider google-gemini-cli --set-default
Modelo padrão: google-gemini-cli/gemini-3-flash-preview. Você não cola um id de cliente ou segredo em openclaw.json. O fluxo de login da CLI armazena tokens em perfis de autenticação no host do gateway.
Definir projeto (se necessário)
Se as solicitações falharem após o login, defina GOOGLE_CLOUD_PROJECT ou GOOGLE_CLOUD_PROJECT_ID no host do gateway.
As respostas JSON do Gemini CLI são analisadas a partir de response; o uso recorre a stats, com stats.cached normalizado para OpenClaw cacheRead.
Z.AI (GLM)
- Provedor:
zai - Autenticação:
ZAI_API_KEY - Modelo de exemplo:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliases:
z.ai/*ez-ai/*são normalizados parazai/* zai-api-keydetecta automaticamente o endpoint Z.AI correspondente;zai-coding-global,zai-coding-cn,zai-globalezai-cnforçam uma superfície específica
- Aliases:
Vercel AI Gateway
- Provedor:
vercel-ai-gateway - Autenticação:
AI_GATEWAY_API_KEY - Modelos de exemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provedor:
kilocode - Autenticação:
KILOCODE_API_KEY - Modelo de exemplo:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL base:
https://api.kilo.ai/api/gateway/ - O catálogo de fallback estático inclui
kilocode/kilo/auto; a descoberta ativa emhttps://api.kilo.ai/api/gateway/modelspode expandir ainda mais o catálogo em tempo de execução. - O roteamento upstream exato por trás de
kilocode/kilo/autoé de responsabilidade do Kilo Gateway, não codificado diretamente no OpenClaw.
Consulte /providers/kilocode para detalhes de configuração.
Outros plugins de provedores incluídos no pacote
| Provedor | Id | Env de autenticação | Modelo de exemplo |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN ou HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY ou KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Particularidades que vale conhecer
OpenRouter
Aplica seus cabeçalhos de atribuição de aplicativo e marcadores Anthropic cache_control somente em rotas openrouter.ai verificadas. Referências DeepSeek, Moonshot e ZAI são elegíveis para TTL de cache no cache de prompts gerenciado pelo OpenRouter, mas não recebem marcadores de cache Anthropic. Como um caminho em estilo proxy compatível com OpenAI, ele ignora a modelagem exclusiva da OpenAI nativa (serviceTier, Responses store, dicas de cache de prompt, compatibilidade de raciocínio da OpenAI). Referências baseadas em Gemini mantêm somente a higienização de assinatura de pensamento proxy-Gemini.
Kilo Gateway
Referências baseadas em Gemini seguem o mesmo caminho de higienização proxy-Gemini; kilocode/kilo/auto e outras referências sem suporte a raciocínio via proxy ignoram a injeção de raciocínio via proxy.
MiniMax
A integração com chave de API grava definições explícitas de modelo de chat M2.7 somente texto; a compreensão de imagem permanece no provedor de mídia MiniMax-VL-01 pertencente ao Plugin.
NVIDIA
IDs de modelo usam um namespace nvidia/<vendor>/<model> (por exemplo, nvidia/nvidia/nemotron-... junto com nvidia/moonshotai/kimi-k2.5); seletores preservam a composição literal <provider>/<model-id>, enquanto a chave canônica enviada à API permanece com prefixo único.
xAI
Usa o caminho xAI Responses. grok-4.3 é o modelo de chat padrão incluído. /fast ou params.fastMode: true reescreve grok-3, grok-3-mini, grok-4 e grok-4-0709 para suas variantes *-fast. tool_stream vem ativado por padrão; desative via agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
É distribuído como o Plugin provedor cerebras incluído. GLM usa zai-glm-4.7; a URL base compatível com OpenAI é https://api.cerebras.ai/v1.
Provedores via models.providers (URL personalizada/base)
Use models.providers (ou models.json) para adicionar provedores personalizados ou proxies compatíveis com OpenAI/Anthropic.
Muitos dos Plugins provedores incluídos abaixo já publicam um catálogo padrão. Use entradas explícitas models.providers.<id> somente quando quiser substituir a URL base, os cabeçalhos ou a lista de modelos padrão.
As verificações de capacidade de modelo do Gateway também leem metadados explícitos de models.providers.<id>.models[]. Se um modelo personalizado ou de proxy aceita imagens, defina input: ["text", "image"] nesse modelo para que o WebChat e os caminhos de anexo originados em nó passem imagens como entradas nativas do modelo em vez de referências de mídia somente texto.
Moonshot AI (Kimi)
Moonshot é distribuído como um Plugin provedor incluído. Use o provedor integrado por padrão e adicione uma entrada explícita models.providers.moonshot somente quando precisar substituir a URL base ou os metadados do modelo:
- Provedor:
moonshot - Autenticação:
MOONSHOT_API_KEY - Modelo de exemplo:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyouopenclaw onboard --auth-choice moonshot-api-key-cn
IDs de modelo Kimi K2:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Codificação com Kimi
Kimi Coding usa o endpoint compatível com Anthropic da Moonshot AI:
- Provedor:
kimi - Autenticação:
KIMI_API_KEY - Modelo de exemplo:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
O kimi/k2p5 legado continua aceito como um ID de modelo de compatibilidade.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) fornece acesso ao Doubao e outros modelos na China.
- Provedor:
volcengine(codificação:volcengine-plan) - Autenticação:
VOLCANO_ENGINE_API_KEY - Modelo de exemplo:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
A integração inicial usa a superfície de codificação por padrão, mas o catálogo geral volcengine/* é registrado ao mesmo tempo.
Nos seletores de modelo de integração inicial/configuração, a opção de autenticação Volcengine prefere linhas volcengine/* e volcengine-plan/*. Se esses modelos ainda não tiverem sido carregados, o OpenClaw recorre ao catálogo sem filtro em vez de mostrar um seletor vazio limitado ao provedor.
Standard models
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Coding models (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internacional)
BytePlus ARK fornece acesso aos mesmos modelos do Volcano Engine para usuários internacionais.
- Provedor:
byteplus(codificação:byteplus-plan) - Autenticação:
BYTEPLUS_API_KEY - Modelo de exemplo:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
A integração inicial usa a superfície de codificação por padrão, mas o catálogo geral byteplus/* é registrado ao mesmo tempo.
Nos seletores de modelo de integração inicial/configuração, a opção de autenticação BytePlus prefere linhas byteplus/* e byteplus-plan/*. Se esses modelos ainda não tiverem sido carregados, o OpenClaw recorre ao catálogo sem filtro em vez de mostrar um seletor vazio limitado ao provedor.
Standard models
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Coding models (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic fornece modelos compatíveis com Anthropic por trás do provedor synthetic:
- Provedor:
synthetic - Autenticação:
SYNTHETIC_API_KEY - Modelo de exemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax é configurado via models.providers porque usa endpoints personalizados:
- MiniMax OAuth (global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Chave de API MiniMax (global):
--auth-choice minimax-global-api - Chave de API MiniMax (CN):
--auth-choice minimax-cn-api - Autenticação:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENouMINIMAX_API_KEYparaminimax-portal
Consulte /providers/minimax para detalhes de configuração, opções de modelo e trechos de configuração.
Divisão de capacidades pertencente ao Plugin:
- Os padrões de texto/chat permanecem em
minimax/MiniMax-M2.7 - A geração de imagens é
minimax/image-01ouminimax-portal/image-01 - A compreensão de imagens pertence ao Plugin
MiniMax-VL-01em ambos os caminhos de autenticação MiniMax - A busca na Web permanece no ID de provedor
minimax
LM Studio
LM Studio é distribuído como um Plugin de provedor incluído que usa a API nativa:
- Provedor:
lmstudio - Autenticação:
LM_API_TOKEN - URL base de inferência padrão:
http://localhost:1234/v1
Em seguida, defina um modelo (substitua por um dos IDs retornados por http://localhost:1234/api/v1/models):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
O OpenClaw usa os endpoints nativos /api/v1/models e /api/v1/models/load do LM Studio para descoberta + carregamento automático, com /v1/chat/completions para inferência por padrão. Se você quiser que o carregamento JIT, TTL e despejo automático do LM Studio controlem o ciclo de vida do modelo, defina models.providers.lmstudio.params.preload: false. Consulte /providers/lmstudio para configuração e solução de problemas.
Ollama
Ollama é distribuído como um Plugin de provedor incluído e usa a API nativa do Ollama:
- Provedor:
ollama - Autenticação: nenhuma necessária (servidor local)
- Modelo de exemplo:
ollama/llama3.3 - Instalação: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
O Ollama é detectado localmente em http://127.0.0.1:11434 quando você aceita usar OLLAMA_API_KEY, e o Plugin de provedor incluído adiciona o Ollama diretamente ao openclaw onboard e ao seletor de modelo. Consulte /providers/ollama para integração inicial, modo em nuvem/local e configuração personalizada.
vLLM
vLLM é distribuído como um Plugin de provedor incluído para servidores locais/auto-hospedados compatíveis com OpenAI:
- Provedor:
vllm - Autenticação: opcional (depende do seu servidor)
- URL base padrão:
http://127.0.0.1:8000/v1
Para aceitar a descoberta automática localmente (qualquer valor funciona se o servidor não exigir autenticação):
export VLLM_API_KEY="vllm-local"
Em seguida, defina um modelo (substitua por um dos IDs retornados por /v1/models):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Consulte /providers/vllm para detalhes.
SGLang
SGLang é distribuído como um Plugin de provedor incluído para servidores rápidos auto-hospedados compatíveis com OpenAI:
- Provedor:
sglang - Autenticação: opcional (depende do seu servidor)
- URL base padrão:
http://127.0.0.1:30000/v1
Para aceitar a descoberta automática localmente (qualquer valor funciona se o servidor não exigir autenticação):
export SGLANG_API_KEY="sglang-local"
Em seguida, defina um modelo (substitua por um dos IDs retornados por /v1/models):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Consulte /providers/sglang para detalhes.
Proxies locais (LM Studio, vLLM, LiteLLM etc.)
Exemplo (compatível com OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Default optional fields
Para provedores personalizados, reasoning, input, cost, contextWindow e maxTokens são opcionais. Quando omitidos, o OpenClaw usa por padrão:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Recomendado: defina valores explícitos que correspondam aos limites do seu proxy/modelo.
Proxy-route shaping rules
- Para
api: "openai-completions"em endpoints não nativos (qualquerbaseUrlnão vazio cujo host não sejaapi.openai.com), o OpenClaw forçacompat.supportsDeveloperRole: falsepara evitar erros 400 do provedor para papéisdevelopersem suporte. - Rotas compatíveis com OpenAI no estilo proxy também ignoram a modelagem de requisições nativas exclusivas da OpenAI: sem
service_tier, sem Responsesstore, sem Completionsstore, sem dicas de cache de prompt, sem modelagem de carga de compatibilidade de raciocínio da OpenAI e sem cabeçalhos ocultos de atribuição do OpenClaw. - Para proxies Completions compatíveis com OpenAI que precisam de campos específicos do fornecedor, defina
agents.defaults.models["provider/model"].params.extra_body(ouextraBody) para mesclar JSON extra ao corpo da requisição de saída. - Para controles de template de chat do vLLM, defina
agents.defaults.models["provider/model"].params.chat_template_kwargs. O Plugin vLLM incluído envia automaticamenteenable_thinking: falseeforce_nonempty_content: trueparavllm/nemotron-3-*quando o nível de pensamento da sessão está desativado. - Para modelos locais lentos ou hosts remotos de LAN/tailnet, defina
models.providers.<id>.timeoutSeconds. Isso estende o tratamento de requisições HTTP do modelo do provedor, incluindo conexão, cabeçalhos, streaming do corpo e o abortamento total de busca protegida, sem aumentar o tempo limite de execução inteiro do agente. - Chamadas HTTP de provedor de modelo permitem respostas de DNS fake-IP do Surge, Clash e sing-box em
198.18.0.0/15efc00::/7apenas para o hostnamebaseUrldo provedor configurado. Outros destinos privados, de loopback, link-local e de metadados ainda exigem aceite explícito commodels.providers.<id>.request.allowPrivateNetwork: true. - Se
baseUrlestiver vazio/omitido, o OpenClaw mantém o comportamento padrão da OpenAI (que resolve paraapi.openai.com). - Por segurança, um
compat.supportsDeveloperRole: trueexplícito ainda é substituído em endpointsopenai-completionsnão nativos. - Para
api: "anthropic-messages"em endpoints não diretos (qualquer provedor que não seja oanthropiccanônico, ou ummodels.providers.anthropic.baseUrlpersonalizado cujo host não seja um endpoint públicoapi.anthropic.com), o OpenClaw suprime cabeçalhos beta implícitos da Anthropic, comoclaude-code-20250219,interleaved-thinking-2025-05-14e marcadores OAuth, para que proxies personalizados compatíveis com Anthropic não rejeitem flags beta sem suporte. Definamodels.providers.<id>.headers["anthropic-beta"]explicitamente se o seu proxy precisar de recursos beta específicos.
Exemplos de CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Veja também: Configuração para exemplos completos de configuração.
Relacionados
- Referência de configuração - chaves de configuração de modelo
- Failover de modelo - cadeias de fallback e comportamento de repetição
- Modelos - configuração de modelo e aliases
- Provedores - guias de configuração por provedor