Providers
Hugging Face (inferentie)
Hugging Face Inference Providers bieden OpenAI-compatibele chatvoltooiingen via een enkele router-API. Je krijgt toegang tot veel modellen (DeepSeek, Llama en meer) met een token. OpenClaw gebruikt het OpenAI-compatibele eindpunt (alleen chatvoltooiingen); gebruik voor tekst-naar-afbeelding, embeddings of spraak de HF-inferenceclients rechtstreeks.
- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENofHF_TOKEN(fijnmazig token met Make calls to Inference Providers) - API: OpenAI-compatibel (
https://router.huggingface.co/v1) - Facturering: enkel HF-token; prijzen volgen providertarieven met een gratis laag.
Aan de slag
Maak een fijnmazig token
Ga naar Hugging Face Settings Tokens en maak een nieuw fijnmazig token.
Voer onboarding uit
Kies Hugging Face in de providerkeuzelijst en voer daarna je API-sleutel in wanneer daarom wordt gevraagd:
openclaw onboard --auth-choice huggingface-api-key
Selecteer een standaardmodel
Kies in de keuzelijst Standaard Hugging Face-model het gewenste model. De lijst wordt geladen vanuit de Inference API wanneer je een geldig token hebt; anders wordt een ingebouwde lijst getoond. Je keuze wordt opgeslagen als het standaardmodel.
Je kunt het standaardmodel later ook instellen of wijzigen in de configuratie:
{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
},
},
}
Controleer of het model beschikbaar is
openclaw models list --provider huggingface
Niet-interactieve instelling
openclaw onboard --non-interactive \
--mode local \
--auth-choice huggingface-api-key \
--huggingface-api-key "$HF_TOKEN"
Dit stelt huggingface/deepseek-ai/DeepSeek-R1 in als het standaardmodel.
Model-ID's
Modelreferenties gebruiken de vorm huggingface/<org>/<model> (Hub-stijl-ID's). De onderstaande lijst komt van GET https://router.huggingface.co/v1/models; je catalogus kan meer bevatten.
| Model | Ref (prefix met huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Geavanceerde configuratie
Modeldetectie en onboarding-keuzelijst
OpenClaw ontdekt modellen door het Inference-eindpunt rechtstreeks aan te roepen:
GET https://router.huggingface.co/v1/models
(Optioneel: stuur Authorization: Bearer $HUGGINGFACE_HUB_TOKEN of $HF_TOKEN voor de volledige lijst; sommige eindpunten retourneren zonder auth een subset.) Het antwoord heeft OpenAI-stijl: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Wanneer je een Hugging Face API-sleutel configureert (via onboarding, HUGGINGFACE_HUB_TOKEN of HF_TOKEN), gebruikt OpenClaw deze GET om beschikbare chatvoltooiingsmodellen te ontdekken. Tijdens interactieve instelling, nadat je je token hebt ingevoerd, zie je een keuzelijst Standaard Hugging Face-model die is gevuld vanuit die lijst (of de ingebouwde catalogus als het verzoek mislukt). Tijdens runtime (bijvoorbeeld bij het opstarten van de Gateway) roept OpenClaw, wanneer er een sleutel aanwezig is, opnieuw GET https://router.huggingface.co/v1/models aan om de catalogus te vernieuwen. De lijst wordt samengevoegd met een ingebouwde catalogus (voor metadata zoals contextvenster en kosten). Als het verzoek mislukt of er geen sleutel is ingesteld, wordt alleen de ingebouwde catalogus gebruikt.
Modelnamen, aliassen en beleidssuffixen
- Naam uit API: De weergavenaam van het model wordt aangevuld vanuit GET /v1/models wanneer de API
name,titleofdisplay_nameretourneert; anders wordt deze afgeleid van het model-ID (bijvoorbeelddeepseek-ai/DeepSeek-R1wordt "DeepSeek R1"). - Weergavenaam overschrijven: Je kunt per model een aangepast label instellen in de configuratie, zodat het in de CLI en UI wordt weergegeven zoals jij wilt:
{
agents: {
defaults: {
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
"huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
},
},
},
}
-
Beleidssuffixen: De meegeleverde Hugging Face-documentatie en helpers van OpenClaw behandelen deze twee suffixen momenteel als de ingebouwde beleidsvarianten:
:fastest— hoogste doorvoer.:cheapest— laagste kosten per uitvoertoken.
Je kunt deze als afzonderlijke vermeldingen toevoegen in
models.providers.huggingface.modelsofmodel.primaryinstellen met het suffix. Je kunt ook je standaardprovidervolgorde instellen in Inference Provider-instellingen (geen suffix = gebruik die volgorde). -
Configuratiesamenvoeging: Bestaande vermeldingen in
models.providers.huggingface.models(bijvoorbeeld inmodels.json) blijven behouden wanneer de configuratie wordt samengevoegd. Dus alle aangepastename,aliasof modelopties die je daar instelt, blijven behouden.
Omgeving en daemoninstelling
Als de Gateway als daemon draait (launchd/systemd), zorg er dan voor dat HUGGINGFACE_HUB_TOKEN of HF_TOKEN beschikbaar is voor dat proces (bijvoorbeeld in ~/.openclaw/.env of via env.shellEnv).
Config: DeepSeek R1 met Qwen-fallback
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-R1",
fallbacks: ["huggingface/Qwen/Qwen3-8B"],
},
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
},
},
},
}
Config: Qwen met goedkoopste en snelste varianten
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen3-8B" },
models: {
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
"huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
"huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
},
},
},
}
Config: DeepSeek + Llama + GPT-OSS met aliassen
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
fallbacks: [
"huggingface/meta-llama/Llama-3.3-70B-Instruct",
"huggingface/openai/gpt-oss-120b",
],
},
models: {
"huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
"huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
"huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
},
},
},
}
Config: Meerdere Qwen- en DeepSeek-modellen met beleidssuffixen
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
models: {
"huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
"huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
"huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
"huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
},
},
},
}