Gateway
Configuração — ferramentas e provedores personalizados
tools.* chaves de configuração e configuração personalizada de provedor / URL base. Para agentes, canais e outras chaves de configuração de nível superior, consulte a referência de configuração.
Ferramentas
Perfis de ferramentas
tools.profile define uma lista base de permissões antes de tools.allow/tools.deny:
| Perfil | Inclui |
|---|---|
minimal |
apenas session_status |
coding |
group:fs, group:runtime, group:web, group:sessions, group:memory, cron, image, image_generate, video_generate |
messaging |
group:messaging, sessions_list, sessions_history, sessions_send, session_status |
full |
Sem restrição (igual a não definido) |
Grupos de ferramentas
| Grupo | Ferramentas |
|---|---|
group:runtime |
exec, process, code_execution (bash é aceito como alias para exec) |
group:fs |
read, write, edit, apply_patch |
group:sessions |
sessions_list, sessions_history, sessions_send, sessions_spawn, sessions_yield, subagents, session_status |
group:memory |
memory_search, memory_get |
group:web |
web_search, x_search, web_fetch |
group:ui |
browser, canvas |
group:automation |
heartbeat_respond, cron, gateway |
group:messaging |
message |
group:nodes |
nodes |
group:agents |
agents_list, update_plan |
group:media |
image, image_generate, music_generate, video_generate, tts |
group:openclaw |
Todas as ferramentas integradas (exclui plugins de provedor) |
tools.allow / tools.deny
Política global de permissão/negação de ferramentas (a negação prevalece). Não diferencia maiúsculas de minúsculas e aceita curingas *. Aplicada mesmo quando o sandbox Docker está desligado.
{
tools: { deny: ["browser", "canvas"] },
}
write e apply_patch são ids de ferramenta separados. allow: ["write"] também habilita apply_patch para modelos compatíveis, mas deny: ["write"] não nega apply_patch. Para bloquear toda mutação de arquivos, negue group:fs ou liste explicitamente cada ferramenta que realiza mutações:
{
tools: { deny: ["write", "edit", "apply_patch"] },
}
tools.byProvider
Restringe ainda mais as ferramentas para provedores ou modelos específicos. Ordem: perfil base → perfil do provedor → permissão/negação.
{
tools: {
profile: "coding",
byProvider: {
"google-antigravity": { profile: "minimal" },
"openai/gpt-5.4": { allow: ["group:fs", "sessions_list"] },
},
},
}
tools.elevated
Controla acesso elevado a exec fora do sandbox:
{
tools: {
elevated: {
enabled: true,
allowFrom: {
whatsapp: ["+15555550123"],
discord: ["1234567890123", "987654321098765432"],
},
},
},
}
- A substituição por agente (
agents.list[].tools.elevated) só pode restringir ainda mais. /elevated on|off|ask|fullarmazena o estado por sessão; diretivas inline se aplicam a uma única mensagem.execelevado ignora o sandbox e usa o caminho de escape configurado (gatewaypor padrão, ounodequando o alvo de exec énode).
tools.exec
{
tools: {
exec: {
backgroundMs: 10000,
timeoutSec: 1800,
cleanupMs: 1800000,
notifyOnExit: true,
notifyOnExitEmptySuccess: false,
applyPatch: {
enabled: false,
allowModels: ["gpt-5.5"],
},
},
},
}
tools.loopDetection
As verificações de segurança de loop de ferramentas ficam desabilitadas por padrão. Defina enabled: true para ativar a detecção. As configurações podem ser definidas globalmente em tools.loopDetection e substituídas por agente em agents.list[].tools.loopDetection.
{
tools: {
loopDetection: {
enabled: true,
historySize: 30,
warningThreshold: 10,
criticalThreshold: 20,
globalCircuitBreakerThreshold: 30,
detectors: {
genericRepeat: true,
knownPollNoProgress: true,
pingPong: true,
},
},
},
}
historySizenumberHistórico máximo de chamadas de ferramentas mantido para análise de loop.
warningThresholdnumberLimite de padrão repetido sem progresso para avisos.
criticalThresholdnumberLimite repetido mais alto para bloquear loops críticos.
globalCircuitBreakerThresholdnumberLimite de parada rígida para qualquer execução sem progresso.
detectors.genericRepeatbooleanAvisa sobre chamadas repetidas da mesma ferramenta/com os mesmos argumentos.
detectors.knownPollNoProgressbooleanAvisa/bloqueia em ferramentas de sondagem conhecidas (process.poll, command_status etc.).
detectors.pingPongbooleanAvisa/bloqueia em padrões alternados de pares sem progresso.
tools.web
{
tools: {
web: {
search: {
enabled: true,
apiKey: "brave_api_key", // or BRAVE_API_KEY env
maxResults: 5,
timeoutSeconds: 30,
cacheTtlMinutes: 15,
},
fetch: {
enabled: true,
provider: "firecrawl", // optional; omit for auto-detect
maxChars: 50000,
maxCharsCap: 50000,
maxResponseBytes: 2000000,
timeoutSeconds: 30,
cacheTtlMinutes: 15,
maxRedirects: 3,
readability: true,
userAgent: "custom-ua",
},
},
},
}
tools.media
Configura o entendimento de mídia de entrada (imagem/áudio/vídeo):
{
tools: {
media: {
concurrency: 2,
asyncCompletion: {
directSend: false, // deprecated: completions stay agent-mediated
},
audio: {
enabled: true,
maxBytes: 20971520,
scope: {
default: "deny",
rules: [{ action: "allow", match: { chatType: "direct" } }],
},
models: [
{ provider: "openai", model: "gpt-4o-mini-transcribe" },
{ type: "cli", command: "whisper", args: ["--model", "base", "{{MediaPath}}"] },
],
},
image: {
enabled: true,
timeoutSeconds: 180,
models: [{ provider: "ollama", model: "gemma4:26b", timeoutSeconds: 300 }],
},
video: {
enabled: true,
maxBytes: 52428800,
models: [{ provider: "google", model: "gemini-3-flash-preview" }],
},
},
},
}
Media model entry fields
Entrada de provedor (type: "provider" ou omitido):
provider: ID do provedor da API (openai,anthropic,google/gemini,groq, etc.)model: substituição do ID do modeloprofile/preferredProfile: seleção de perfil emauth-profiles.json
Entrada de CLI (type: "cli"):
command: executável a executarargs: argumentos com template (compatível com{{MediaPath}},{{Prompt}},{{MaxChars}}, etc.;openclaw doctor --fixmigra placeholders obsoletos{input}para{{MediaPath}})
Campos comuns:
capabilities: lista opcional (image,audio,video). Padrões:openai/anthropic/minimax→ imagem,google→ imagem+áudio+vídeo,groq→ áudio.prompt,maxChars,maxBytes,timeoutSeconds,language: substituições por entrada.tools.media.image.timeoutSecondse entradas correspondentes detimeoutSecondsdo modelo de imagem também se aplicam quando o agente chama a ferramenta explícitaimage.- Falhas recorrem à próxima entrada.
A autenticação do provedor segue a ordem padrão: auth-profiles.json → variáveis de ambiente → models.providers.*.apiKey.
Campos de conclusão assíncrona:
asyncCompletion.directSend: sinalizador de compatibilidade obsoleto. Tarefas assíncronas de mídia concluídas continuam mediadas pela sessão solicitante para que o agente receba o resultado, decida como informar o usuário e use a ferramenta de mensagem quando a entrega na origem exigir isso.
tools.agentToAgent
{
tools: {
agentToAgent: {
enabled: false,
allow: ["home", "work"],
},
},
}
tools.sessions
Controla quais sessões podem ser direcionadas pelas ferramentas de sessão (sessions_list, sessions_history, sessions_send).
Padrão: tree (sessão atual + sessões geradas por ela, como subagentes).
{
tools: {
sessions: {
// "self" | "tree" | "agent" | "all"
visibility: "tree",
},
},
}
Visibility scopes
self: somente a chave da sessão atual.tree: sessão atual + sessões geradas pela sessão atual (subagentes).agent: qualquer sessão pertencente ao ID do agente atual (pode incluir outros usuários se você executar sessões por remetente sob o mesmo ID de agente).all: qualquer sessão. O direcionamento entre agentes ainda exigetools.agentToAgent.- Restrição de sandbox: quando a sessão atual está em sandbox e
agents.defaults.sandbox.sessionToolsVisibility="spawned", a visibilidade é forçada paratreemesmo quetools.sessions.visibility="all".
tools.sessions_spawn
Controla o suporte a anexos inline para sessions_spawn.
{
tools: {
sessions_spawn: {
attachments: {
enabled: false, // opt-in: set true to allow inline file attachments
maxTotalBytes: 5242880, // 5 MB total across all files
maxFiles: 50,
maxFileBytes: 1048576, // 1 MB per file
retainOnSessionKeep: false, // keep attachments when cleanup="keep"
},
},
},
}
Notas sobre anexos
- Anexos são compatíveis apenas com
runtime: "subagent". O runtime ACP os rejeita. - Os arquivos são materializados no workspace filho em
.openclaw/attachments/<uuid>/com um.manifest.json. - O conteúdo dos anexos é automaticamente redigido da persistência da transcrição.
- Entradas Base64 são validadas com verificações estritas de alfabeto/preenchimento e uma proteção de tamanho antes da decodificação.
- As permissões de arquivo são
0700para diretórios e0600para arquivos. - A limpeza segue a política
cleanup:deletesempre remove anexos;keepos mantém apenas quandoretainOnSessionKeep: true.
tools.experimental
Flags experimentais de ferramentas integradas. Desativadas por padrão, a menos que uma regra de ativação automática strict-agentic do GPT-5 se aplique.
{
tools: {
experimental: {
planTool: true, // enable experimental update_plan
},
},
}
planTool: habilita a ferramenta estruturadaupdate_planpara acompanhamento de trabalho não trivial em várias etapas.- Padrão:
false, a menos queagents.defaults.embeddedPi.executionContract(ou uma substituição por agente) esteja definido como"strict-agentic"para uma execução da família GPT-5 da OpenAI ou OpenAI Codex. Defina comotruepara forçar a ativação da ferramenta fora desse escopo, oufalsepara mantê-la desativada mesmo em execuções strict-agentic do GPT-5. - Quando habilitado, o prompt do sistema também adiciona orientação de uso para que o modelo a utilize apenas em trabalhos substanciais e mantenha no máximo uma etapa
in_progress.
agents.defaults.subagents
{
agents: {
defaults: {
subagents: {
allowAgents: ["research"],
model: "minimax/MiniMax-M2.7",
maxConcurrent: 8,
runTimeoutSeconds: 900,
archiveAfterMinutes: 60,
},
},
},
}
model: modelo padrão para subagentes gerados. Se omitido, os subagentes herdam o modelo do chamador.allowAgents: lista de permissões padrão de IDs de agentes de destino parasessions_spawnquando o agente solicitante não define seu própriosubagents.allowAgents(["*"]= qualquer um; padrão: apenas o mesmo agente).runTimeoutSeconds: tempo limite padrão (segundos) parasessions_spawnquando a chamada da ferramenta omiterunTimeoutSeconds.0significa sem tempo limite.- Política de ferramenta por subagente:
tools.subagents.tools.allow/tools.subagents.tools.deny.
Provedores personalizados e URLs base
O OpenClaw usa o catálogo de modelos integrado. Adicione provedores personalizados via models.providers na configuração ou em ~/.openclaw/agents/<agentId>/agent/models.json.
{
models: {
mode: "merge", // merge (default) | replace
providers: {
"custom-proxy": {
baseUrl: "http://localhost:4000/v1",
apiKey: "LITELLM_KEY",
api: "openai-completions", // openai-completions | openai-responses | anthropic-messages | google-generative-ai
models: [
{
id: "llama-3.1-8b",
name: "Llama 3.1 8B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
contextTokens: 96000,
maxTokens: 32000,
},
],
},
},
},
}
Autenticação e precedência de mesclagem
- Use
authHeader: true+headerspara necessidades de autenticação personalizada. - Substitua a raiz da configuração do agente com
OPENCLAW_AGENT_DIR(ouPI_CODING_AGENT_DIR, um alias legado de variável de ambiente). - Precedência de mesclagem para IDs de provedores correspondentes:
- Valores
baseUrlnão vazios demodels.jsondo agente têm prioridade. - Valores
apiKeynão vazios do agente têm prioridade apenas quando esse provedor não é gerenciado por SecretRef no contexto atual de configuração/perfil de autenticação. - Valores
apiKeyde provedores gerenciados por SecretRef são atualizados a partir de marcadores de origem (ENV_VAR_NAMEpara refs de env,secretref-managedpara refs de arquivo/exec), em vez de persistir segredos resolvidos. - Valores de cabeçalho de provedores gerenciados por SecretRef são atualizados a partir de marcadores de origem (
secretref-env:ENV_VAR_NAMEpara refs de env,secretref-managedpara refs de arquivo/exec). apiKey/baseUrlvazios ou ausentes do agente usammodels.providersda configuração como fallback.contextWindow/maxTokensde modelos correspondentes usam o valor maior entre os valores de configuração explícitos e os valores implícitos do catálogo.contextTokensde modelos correspondentes preserva um limite de runtime explícito quando presente; use-o para limitar o contexto efetivo sem alterar os metadados nativos do modelo.- Use
models.mode: "replace"quando quiser que a configuração reescreva totalmentemodels.json. - A persistência de marcadores tem a origem como autoridade: os marcadores são escritos a partir do snapshot da configuração de origem ativa (pré-resolução), não dos valores de segredos resolvidos em runtime.
- Valores
Detalhes dos campos do provedor
Catálogo de nível superior
models.mode: comportamento do catálogo de provedores (mergeoureplace).models.providers: mapa de provedores personalizados indexado por ID do provedor.- Edições seguras: use
openclaw config set models.providers.<id> '<json>' --strict-json --mergeouopenclaw config set models.providers.<id>.models '<json-array>' --strict-json --mergepara atualizações aditivas.config setrecusa substituições destrutivas, a menos que você passe--replace.
- Edições seguras: use
Conexão e autenticação do provedor
models.providers.*.api: adaptador de solicitação (openai-completions,openai-responses,anthropic-messages,google-generative-ai, etc). Para backends/v1/chat/completionsauto-hospedados, como MLX, vLLM, SGLang e a maioria dos servidores locais compatíveis com OpenAI, useopenai-completions. Um provedor personalizado combaseUrl, mas semapi, usaopenai-completionspor padrão; definaopenai-responsesapenas quando o backend oferecer suporte a/v1/responses.models.providers.*.apiKey: credencial do provedor (prefira SecretRef/substituição de env).models.providers.*.auth: estratégia de autenticação (api-key,token,oauth,aws-sdk).models.providers.*.contextWindow: janela de contexto nativa padrão para modelos sob este provedor quando a entrada do modelo não definecontextWindow.models.providers.*.contextTokens: limite efetivo padrão de contexto em runtime para modelos sob este provedor quando a entrada do modelo não definecontextTokens.models.providers.*.maxTokens: limite padrão de tokens de saída para modelos sob este provedor quando a entrada do modelo não definemaxTokens.models.providers.*.timeoutSeconds: tempo limite HTTP opcional por provedor para solicitações de modelo, em segundos, incluindo conexão, cabeçalhos, corpo e tratamento de aborto total da solicitação.models.providers.*.injectNumCtxForOpenAICompat: para Ollama +openai-completions, injetaoptions.num_ctxnas solicitações (padrão:true).models.providers.*.authHeader: força o transporte da credencial no cabeçalhoAuthorizationquando necessário.models.providers.*.baseUrl: URL base da API upstream.models.providers.*.headers: cabeçalhos estáticos extras para roteamento de proxy/tenant.
Substituições de transporte de solicitação
models.providers.*.request: substituições de transporte para solicitações HTTP de provedor de modelo.
request.headers: cabeçalhos extras (mesclados com os padrões do provedor). Os valores aceitam SecretRef.request.auth: substituição da estratégia de autenticação. Modos:"provider-default"(usa a autenticação integrada do provedor),"authorization-bearer"(comtoken),"header"(comheaderName,value,prefixopcional).request.proxy: substituição de proxy HTTP. Modos:"env-proxy"(usa as variáveis de ambienteHTTP_PROXY/HTTPS_PROXY),"explicit-proxy"(comurl). Ambos os modos aceitam um subobjetotlsopcional.request.tls: substituição de TLS para conexões diretas. Campos:ca,cert,key,passphrase(todos aceitam SecretRef),serverName,insecureSkipVerify.request.allowPrivateNetwork: quandotrue, permite HTTPS parabaseUrlquando o DNS resolve para intervalos privados, CGNAT ou semelhantes, por meio da proteção de fetch HTTP do provedor (aceitação explícita do operador para endpoints auto-hospedados compatíveis com OpenAI confiáveis). URLs de stream de provedores de modelo em loopback, comolocalhost,127.0.0.1e[::1], são permitidas automaticamente, a menos que isto seja definido explicitamente comofalse; hosts LAN, tailnet e DNS privado ainda exigem aceitação explícita. WebSocket usa o mesmorequestpara cabeçalhos/TLS, mas não esse bloqueio SSRF de fetch. Padrãofalse.
Entradas do catálogo de modelos
models.providers.*.models: entradas explícitas do catálogo de modelos do provedor.models.providers.*.models.*.input: modalidades de entrada do modelo. Use["text"]para modelos somente texto e["text", "image"]para modelos nativos de imagem/visão. Anexos de imagem só são injetados em turnos do agente quando o modelo selecionado está marcado como compatível com imagem.models.providers.*.models.*.contextWindow: metadados da janela de contexto nativa do modelo. Isso substituicontextWindowno nível do provedor para esse modelo.models.providers.*.models.*.contextTokens: limite opcional de contexto em runtime. Isso substituicontextTokensno nível do provedor; use quando quiser um orçamento de contexto efetivo menor que ocontextWindownativo do modelo;openclaw models listmostra ambos os valores quando eles diferem.models.providers.*.models.*.compat.supportsDeveloperRole: dica opcional de compatibilidade. Paraapi: "openai-completions"combaseUrlnão nativo e não vazio (host diferente deapi.openai.com), o OpenClaw força isso parafalseem runtime.baseUrlvazio/omitido mantém o comportamento padrão da OpenAI.models.providers.*.models.*.compat.requiresStringContent: dica opcional de compatibilidade para endpoints de chat compatíveis com OpenAI que aceitam apenas strings. Quandotrue, o OpenClaw achata arrays de texto puromessages[].contentem strings simples antes de enviar a solicitação.
Descoberta do Amazon Bedrock
plugins.entries.amazon-bedrock.config.discovery: raiz das configurações de autodescoberta do Bedrock.plugins.entries.amazon-bedrock.config.discovery.enabled: ativa/desativa a descoberta implícita.plugins.entries.amazon-bedrock.config.discovery.region: região da AWS para descoberta.plugins.entries.amazon-bedrock.config.discovery.providerFilter: filtro opcional por ID de provedor para descoberta direcionada.plugins.entries.amazon-bedrock.config.discovery.refreshInterval: intervalo de sondagem para atualização da descoberta.plugins.entries.amazon-bedrock.config.discovery.defaultContextWindow: janela de contexto de fallback para modelos descobertos.plugins.entries.amazon-bedrock.config.discovery.defaultMaxTokens: máximo de tokens de saída de fallback para modelos descobertos.
A integração interativa de provedor personalizado infere entrada de imagem para IDs comuns de modelos de visão, como GPT-4o, Claude, Gemini, Qwen-VL, LLaVA, Pixtral, InternVL, Mllama, MiniCPM-V e GLM-4V, e pula a pergunta extra para famílias conhecidas somente texto. IDs de modelos desconhecidos ainda solicitam confirmação de suporte a imagem. A integração não interativa usa a mesma inferência; passe --custom-image-input para forçar metadados compatíveis com imagem ou --custom-text-input para forçar metadados somente texto.
Exemplos de provedores
Cerebras (GLM 4.7 / GPT OSS)
O Plugin de provedor cerebras incluído pode configurar isso via openclaw onboard --auth-choice cerebras-api-key. Use configuração explícita de provedor apenas ao substituir padrões.
{
env: { CEREBRAS_API_KEY: "sk-..." },
agents: {
defaults: {
model: {
primary: "cerebras/zai-glm-4.7",
fallbacks: ["cerebras/gpt-oss-120b"],
},
models: {
"cerebras/zai-glm-4.7": { alias: "GLM 4.7 (Cerebras)" },
"cerebras/gpt-oss-120b": { alias: "GPT OSS 120B (Cerebras)" },
},
},
},
models: {
mode: "merge",
providers: {
cerebras: {
baseUrl: "https://api.cerebras.ai/v1",
apiKey: "${CEREBRAS_API_KEY}",
api: "openai-completions",
models: [
{ id: "zai-glm-4.7", name: "GLM 4.7 (Cerebras)" },
{ id: "gpt-oss-120b", name: "GPT OSS 120B (Cerebras)" },
],
},
},
},
}
Use cerebras/zai-glm-4.7 para Cerebras; zai/glm-4.7 para Z.AI direto.
Kimi Coding
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "kimi/kimi-code" },
models: { "kimi/kimi-code": { alias: "Kimi Code" } },
},
},
}
Compatível com Anthropic, provedor integrado. Atalho: openclaw onboard --auth-choice kimi-code-api-key.
Local models (LM Studio)
Consulte Modelos locais. Resumo: execute um modelo local grande pela API Responses do LM Studio em hardware robusto; mantenha modelos hospedados mesclados para fallback.
MiniMax M2.7 (direct)
{
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.7" },
models: {
"minimax/MiniMax-M2.7": { alias: "Minimax" },
},
},
},
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "MiniMax-M2.7",
name: "MiniMax M2.7",
reasoning: true,
input: ["text"],
cost: { input: 0.3, output: 1.2, cacheRead: 0.06, cacheWrite: 0.375 },
contextWindow: 204800,
maxTokens: 131072,
},
],
},
},
},
}
Defina MINIMAX_API_KEY. Atalhos: openclaw onboard --auth-choice minimax-global-api ou openclaw onboard --auth-choice minimax-cn-api. O catálogo de modelos usa apenas M2.7 por padrão. No caminho de streaming compatível com Anthropic, o OpenClaw desativa o pensamento do MiniMax por padrão, a menos que você defina explicitamente thinking. /fast on ou params.fastMode: true reescreve MiniMax-M2.7 para MiniMax-M2.7-highspeed.
Moonshot AI (Kimi)
{
env: { MOONSHOT_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "moonshot/kimi-k2.6" },
models: { "moonshot/kimi-k2.6": { alias: "Kimi K2.6" } },
},
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2.6",
name: "Kimi K2.6",
reasoning: false,
input: ["text", "image"],
cost: { input: 0.95, output: 4, cacheRead: 0.16, cacheWrite: 0 },
contextWindow: 262144,
maxTokens: 262144,
},
],
},
},
},
}
Para o endpoint da China: baseUrl: "https://api.moonshot.cn/v1" ou openclaw onboard --auth-choice moonshot-api-key-cn.
Endpoints nativos da Moonshot anunciam compatibilidade de uso em streaming no transporte compartilhado openai-completions, e o OpenClaw ativa isso com base nos recursos do endpoint em vez de apenas no ID do provedor integrado.
OpenCode
{
agents: {
defaults: {
model: { primary: "opencode/claude-opus-4-6" },
models: { "opencode/claude-opus-4-6": { alias: "Opus" } },
},
},
}
Defina OPENCODE_API_KEY (ou OPENCODE_ZEN_API_KEY). Use refs opencode/... para o catálogo Zen ou refs opencode-go/... para o catálogo Go. Atalho: openclaw onboard --auth-choice opencode-zen ou openclaw onboard --auth-choice opencode-go.
Synthetic (Anthropic-compatible)
{
env: { SYNTHETIC_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" },
models: { "synthetic/hf:MiniMaxAI/MiniMax-M2.5": { alias: "MiniMax M2.5" } },
},
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "hf:MiniMaxAI/MiniMax-M2.5",
name: "MiniMax M2.5",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 192000,
maxTokens: 65536,
},
],
},
},
},
}
A URL base deve omitir /v1 (o cliente Anthropic a acrescenta). Atalho: openclaw onboard --auth-choice synthetic-api-key.
Z.AI (GLM-4.7)
{
agents: {
defaults: {
model: { primary: "zai/glm-4.7" },
models: { "zai/glm-4.7": {} },
},
},
}
Defina ZAI_API_KEY. z.ai/* e z-ai/* são aliases aceitos. Atalho: openclaw onboard --auth-choice zai-api-key.
- Endpoint geral:
https://api.z.ai/api/paas/v4 - Endpoint de codificação (padrão):
https://api.z.ai/api/coding/paas/v4 - Para o endpoint geral, defina um provedor personalizado com a substituição da URL base.
Relacionados
- Configuração — agentes
- Configuração — canais
- Referência de configuração — outras chaves de nível superior
- Ferramentas e plugins