Providers
LiteLLM
LiteLLM é um gateway de LLM de código aberto que fornece uma API unificada para mais de 100 provedores de modelos. Encaminhe o OpenClaw pelo LiteLLM para obter rastreamento centralizado de custos, logs e a flexibilidade de trocar backends sem alterar sua configuração do OpenClaw.
Início rápido
Onboarding (recomendado)
Ideal para: o caminho mais rápido para uma configuração funcional do LiteLLM.
Execute o onboarding
openclaw onboard --auth-choice litellm-api-key
Para configuração não interativa com um proxy remoto, passe explicitamente a URL do proxy:
openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
Configuração manual
Ideal para: controle total sobre instalação e configuração.
Inicie o proxy do LiteLLM
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
Aponte o OpenClaw para o LiteLLM
export LITELLM_API_KEY="your-litellm-key"
openclaw
Pronto. Agora o OpenClaw roteia pelo LiteLLM.
Configuração
Variáveis de ambiente
export LITELLM_API_KEY="sk-litellm-key"
Arquivo de configuração
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
Configuração avançada
Geração de imagens
O LiteLLM também pode dar suporte à ferramenta image_generate por meio de rotas
/images/generations e /images/edits compatíveis com OpenAI. Configure um modelo
de imagem do LiteLLM em agents.defaults.imageGenerationModel:
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
},
},
},
agents: {
defaults: {
imageGenerationModel: {
primary: "litellm/gpt-image-2",
timeoutMs: 180_000,
},
},
},
}
URLs de local loopback do LiteLLM, como http://localhost:4000, funcionam sem uma
substituição global de rede privada. Para um proxy hospedado em LAN, defina
models.providers.litellm.request.allowPrivateNetwork: true porque a chave de API
será enviada ao host de proxy configurado.
Chaves virtuais
Crie uma chave dedicada para o OpenClaw com limites de gasto:
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
Use a chave gerada como LITELLM_API_KEY.
Roteamento de modelos
O LiteLLM pode rotear solicitações de modelos para diferentes backends. Configure no seu config.yaml do LiteLLM:
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
O OpenClaw continua solicitando claude-opus-4-6 — o LiteLLM cuida do roteamento.
Visualização de uso
Verifique o painel ou a API do LiteLLM:
# Key info
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Spend logs
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
Observações sobre o comportamento do proxy
- O LiteLLM é executado em
http://localhost:4000por padrão - O OpenClaw se conecta pelo endpoint
/v1compatível com OpenAI em estilo de proxy do LiteLLM - A modelagem de solicitações nativa somente para OpenAI não se aplica pelo LiteLLM:
sem
service_tier, semstorede Responses, sem dicas de cache de prompt e sem modelagem de payload de compatibilidade de raciocínio da OpenAI - Cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) não são injetados em URLs base personalizadas do LiteLLM