Providers
Hugging Face (inferência)
Os Hugging Face Inference Providers oferecem chat completions compatíveis com OpenAI por meio de uma única API de roteamento. Você obtém acesso a muitos modelos (DeepSeek, Llama e mais) com um único token. O OpenClaw usa o endpoint compatível com OpenAI (apenas chat completions); para texto-para-imagem, embeddings ou fala, use diretamente os clientes de inferência da HF.
- Provedor:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENouHF_TOKEN(token de granularidade fina com Make calls to Inference Providers) - API: compatível com OpenAI (
https://router.huggingface.co/v1) - Cobrança: um único token HF; os preços seguem as tarifas do provedor com uma camada gratuita.
Primeiros passos
Criar um token de granularidade fina
Vá para Hugging Face Settings Tokens e crie um novo token de granularidade fina.
Executar o onboarding
Escolha Hugging Face no dropdown de provedor e então informe sua chave de API quando solicitado:
openclaw onboard --auth-choice huggingface-api-key
Selecionar um modelo padrão
No dropdown Default Hugging Face model, escolha o modelo que você quer. A lista é carregada da API de Inference quando você tem um token válido; caso contrário, uma lista integrada é mostrada. Sua escolha é salva como o modelo padrão.
Você também pode definir ou alterar o modelo padrão depois na configuração:
{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
},
},
}
Verificar se o modelo está disponível
openclaw models list --provider huggingface
Configuração não interativa
openclaw onboard --non-interactive \
--mode local \
--auth-choice huggingface-api-key \
--huggingface-api-key "$HF_TOKEN"
Isso definirá huggingface/deepseek-ai/DeepSeek-R1 como o modelo padrão.
IDs de modelo
Refs de modelo usam o formato huggingface/<org>/<model> (IDs no estilo Hub). A lista abaixo vem de GET https://router.huggingface.co/v1/models; seu catálogo pode incluir mais.
| Modelo | Ref (prefixe com huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Configuração avançada
Descoberta de modelos e dropdown do onboarding
O OpenClaw descobre modelos chamando diretamente o endpoint de Inference:
GET https://router.huggingface.co/v1/models
(Opcional: envie Authorization: Bearer $HUGGINGFACE_HUB_TOKEN ou $HF_TOKEN para a lista completa; alguns endpoints retornam um subconjunto sem autenticação.) A resposta é no estilo OpenAI: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Quando você configura uma chave de API do Hugging Face (via onboarding, HUGGINGFACE_HUB_TOKEN ou HF_TOKEN), o OpenClaw usa esse GET para descobrir os modelos de chat completion disponíveis. Durante a configuração interativa, depois que você informa seu token, aparece um dropdown Default Hugging Face model preenchido com essa lista (ou com o catálogo integrado se a requisição falhar). Em runtime (por exemplo, na inicialização do Gateway), quando uma chave está presente, o OpenClaw chama novamente GET https://router.huggingface.co/v1/models para atualizar o catálogo. A lista é mesclada com um catálogo integrado (para metadados como janela de contexto e custo). Se a requisição falhar ou nenhuma chave estiver definida, apenas o catálogo integrado é usado.
Nomes de modelo, aliases e sufixos de política
- Nome da API: o nome de exibição do modelo é hidratado a partir de GET /v1/models quando a API retorna
name,titleoudisplay_name; caso contrário, ele é derivado do ID do modelo (por exemplo,deepseek-ai/DeepSeek-R1se torna "DeepSeek R1"). - Substituir nome de exibição: você pode definir um rótulo personalizado por modelo na configuração para que ele apareça da forma que quiser na CLI e na UI:
{
agents: {
defaults: {
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (rápido)" },
"huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (barato)" },
},
},
},
}
-
Sufixos de política: a documentação e os helpers integrados do OpenClaw para Hugging Face atualmente tratam estes dois sufixos como variantes integradas de política:
:fastest— maior throughput.:cheapest— menor custo por token de saída.
Você pode adicioná-los como entradas separadas em
models.providers.huggingface.modelsou definirmodel.primarycom o sufixo. Você também pode definir sua ordem padrão de provedor em Inference Provider settings (sem sufixo = usar essa ordem). -
Mesclagem de configuração: entradas existentes em
models.providers.huggingface.models(por exemplo, emmodels.json) são mantidas quando a configuração é mesclada. Portanto, quaisquername,aliasou opções de modelo personalizadas que você definir ali são preservadas.
Ambiente e configuração de daemon
Se o Gateway estiver em execução como daemon (launchd/systemd), certifique-se de que HUGGINGFACE_HUB_TOKEN ou HF_TOKEN esteja disponível para esse processo (por exemplo, em ~/.openclaw/.env ou via env.shellEnv).
Config: DeepSeek R1 com fallback para Qwen
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-R1",
fallbacks: ["huggingface/Qwen/Qwen3-8B"],
},
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
},
},
},
}
Config: Qwen com variantes cheapest e fastest
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen3-8B" },
models: {
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
"huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (mais barato)" },
"huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (mais rápido)" },
},
},
},
}
Config: DeepSeek + Llama + GPT-OSS com aliases
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
fallbacks: [
"huggingface/meta-llama/Llama-3.3-70B-Instruct",
"huggingface/openai/gpt-oss-120b",
],
},
models: {
"huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
"huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
"huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
},
},
},
}
Config: Vários Qwen e DeepSeek com sufixos de política
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
models: {
"huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
"huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (barato)" },
"huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (rápido)" },
"huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
},
},
},
}