Providers

Hugging Face (inferentie)

Hugging Face Inference Providers bieden OpenAI-compatibele chatvoltooiingen via een enkele router-API. Je krijgt toegang tot veel modellen (DeepSeek, Llama en meer) met een token. OpenClaw gebruikt het OpenAI-compatibele eindpunt (alleen chatvoltooiingen); gebruik voor tekst-naar-afbeelding, embeddings of spraak de HF-inferenceclients rechtstreeks.

  • Provider: huggingface
  • Auth: HUGGINGFACE_HUB_TOKEN of HF_TOKEN (fijnmazig token met Make calls to Inference Providers)
  • API: OpenAI-compatibel (https://router.huggingface.co/v1)
  • Facturering: enkel HF-token; prijzen volgen providertarieven met een gratis laag.

Aan de slag

  • Maak een fijnmazig token

    Ga naar Hugging Face Settings Tokens en maak een nieuw fijnmazig token.

  • Voer onboarding uit

    Kies Hugging Face in de providerkeuzelijst en voer daarna je API-sleutel in wanneer daarom wordt gevraagd:

    openclaw onboard --auth-choice huggingface-api-key
    
  • Selecteer een standaardmodel

    Kies in de keuzelijst Standaard Hugging Face-model het gewenste model. De lijst wordt geladen vanuit de Inference API wanneer je een geldig token hebt; anders wordt een ingebouwde lijst getoond. Je keuze wordt opgeslagen als het standaardmodel.

    Je kunt het standaardmodel later ook instellen of wijzigen in de configuratie:

    {
      agents: {
        defaults: {
          model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
        },
      },
    }
    
  • Controleer of het model beschikbaar is

    openclaw models list --provider huggingface
    
  • Niet-interactieve instelling

    openclaw onboard --non-interactive \
      --mode local \
      --auth-choice huggingface-api-key \
      --huggingface-api-key "$HF_TOKEN"
    

    Dit stelt huggingface/deepseek-ai/DeepSeek-R1 in als het standaardmodel.

    Model-ID's

    Modelreferenties gebruiken de vorm huggingface/<org>/<model> (Hub-stijl-ID's). De onderstaande lijst komt van GET https://router.huggingface.co/v1/models; je catalogus kan meer bevatten.

    Model Ref (prefix met huggingface/)
    DeepSeek R1 deepseek-ai/DeepSeek-R1
    DeepSeek V3.2 deepseek-ai/DeepSeek-V3.2
    Qwen3 8B Qwen/Qwen3-8B
    Qwen2.5 7B Instruct Qwen/Qwen2.5-7B-Instruct
    Qwen3 32B Qwen/Qwen3-32B
    Llama 3.3 70B Instruct meta-llama/Llama-3.3-70B-Instruct
    Llama 3.1 8B Instruct meta-llama/Llama-3.1-8B-Instruct
    GPT-OSS 120B openai/gpt-oss-120b
    GLM 4.7 zai-org/GLM-4.7
    Kimi K2.5 moonshotai/Kimi-K2.5

    Geavanceerde configuratie

    Modeldetectie en onboarding-keuzelijst

    OpenClaw ontdekt modellen door het Inference-eindpunt rechtstreeks aan te roepen:

    GET https://router.huggingface.co/v1/models
    

    (Optioneel: stuur Authorization: Bearer $HUGGINGFACE_HUB_TOKEN of $HF_TOKEN voor de volledige lijst; sommige eindpunten retourneren zonder auth een subset.) Het antwoord heeft OpenAI-stijl: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.

    Wanneer je een Hugging Face API-sleutel configureert (via onboarding, HUGGINGFACE_HUB_TOKEN of HF_TOKEN), gebruikt OpenClaw deze GET om beschikbare chatvoltooiingsmodellen te ontdekken. Tijdens interactieve instelling, nadat je je token hebt ingevoerd, zie je een keuzelijst Standaard Hugging Face-model die is gevuld vanuit die lijst (of de ingebouwde catalogus als het verzoek mislukt). Tijdens runtime (bijvoorbeeld bij het opstarten van de Gateway) roept OpenClaw, wanneer er een sleutel aanwezig is, opnieuw GET https://router.huggingface.co/v1/models aan om de catalogus te vernieuwen. De lijst wordt samengevoegd met een ingebouwde catalogus (voor metadata zoals contextvenster en kosten). Als het verzoek mislukt of er geen sleutel is ingesteld, wordt alleen de ingebouwde catalogus gebruikt.

    Modelnamen, aliassen en beleidssuffixen
    • Naam uit API: De weergavenaam van het model wordt aangevuld vanuit GET /v1/models wanneer de API name, title of display_name retourneert; anders wordt deze afgeleid van het model-ID (bijvoorbeeld deepseek-ai/DeepSeek-R1 wordt "DeepSeek R1").
    • Weergavenaam overschrijven: Je kunt per model een aangepast label instellen in de configuratie, zodat het in de CLI en UI wordt weergegeven zoals jij wilt:
    {
      agents: {
        defaults: {
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
            "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
          },
        },
      },
    }
    
    • Beleidssuffixen: De meegeleverde Hugging Face-documentatie en helpers van OpenClaw behandelen deze twee suffixen momenteel als de ingebouwde beleidsvarianten:

      • :fastest — hoogste doorvoer.
      • :cheapest — laagste kosten per uitvoertoken.

      Je kunt deze als afzonderlijke vermeldingen toevoegen in models.providers.huggingface.models of model.primary instellen met het suffix. Je kunt ook je standaardprovidervolgorde instellen in Inference Provider-instellingen (geen suffix = gebruik die volgorde).

    • Configuratiesamenvoeging: Bestaande vermeldingen in models.providers.huggingface.models (bijvoorbeeld in models.json) blijven behouden wanneer de configuratie wordt samengevoegd. Dus alle aangepaste name, alias of modelopties die je daar instelt, blijven behouden.

    Omgeving en daemoninstelling

    Als de Gateway als daemon draait (launchd/systemd), zorg er dan voor dat HUGGINGFACE_HUB_TOKEN of HF_TOKEN beschikbaar is voor dat proces (bijvoorbeeld in ~/.openclaw/.env of via env.shellEnv).

    Config: DeepSeek R1 met Qwen-fallback
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-R1",
            fallbacks: ["huggingface/Qwen/Qwen3-8B"],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
          },
        },
      },
    }
    
    Config: Qwen met goedkoopste en snelste varianten
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen3-8B" },
          models: {
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
            "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
            "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
          },
        },
      },
    }
    
    Config: DeepSeek + Llama + GPT-OSS met aliassen
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
            fallbacks: [
              "huggingface/meta-llama/Llama-3.3-70B-Instruct",
              "huggingface/openai/gpt-oss-120b",
            ],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
            "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
            "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
          },
        },
      },
    }
    
    Config: Meerdere Qwen- en DeepSeek-modellen met beleidssuffixen
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
          models: {
            "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
            "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
            "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
            "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
          },
        },
      },
    }
    

    Gerelateerd