Providers

Hugging Face (inference)

Hugging Face Inference Providers, tek bir yönlendirici API üzerinden OpenAI uyumlu chat completions sunar. Tek bir token ile birçok modele (DeepSeek, Llama ve daha fazlası) erişirsiniz. OpenClaw, OpenAI uyumlu uç noktayı kullanır (yalnızca chat completions); text-to-image, embeddings veya konuşma için HF inference clients doğrudan kullanılmalıdır.

  • Sağlayıcı: huggingface
  • Kimlik doğrulama: HUGGINGFACE_HUB_TOKEN veya HF_TOKEN (Make calls to Inference Providers iznine sahip ince ayarlı token)
  • API: OpenAI uyumlu (https://router.huggingface.co/v1)
  • Faturalama: Tek HF token; fiyatlandırma sağlayıcı ücretlerini izler ve ücretsiz katman içerir.

Başlarken

  • İnce ayarlı bir token oluşturun

    Hugging Face Settings Tokens sayfasına gidin ve yeni bir ince ayarlı token oluşturun.

  • Onboarding çalıştırın

    Sağlayıcı açılır menüsünde Hugging Face seçin, ardından istendiğinde API anahtarınızı girin:

    openclaw onboard --auth-choice huggingface-api-key
    
  • Varsayılan bir model seçin

    Default Hugging Face model açılır menüsünden istediğiniz modeli seçin. Geçerli bir token varsa liste Inference API'den yüklenir; aksi hâlde yerleşik liste gösterilir. Seçiminiz varsayılan model olarak kaydedilir.

    Varsayılan modeli daha sonra yapılandırmada da ayarlayabilir veya değiştirebilirsiniz:

    {
      agents: {
        defaults: {
          model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
        },
      },
    }
    
  • Modelin kullanılabilir olduğunu doğrulayın

    openclaw models list --provider huggingface
    
  • Etkileşimsiz kurulum

    openclaw onboard --non-interactive \
      --mode local \
      --auth-choice huggingface-api-key \
      --huggingface-api-key "$HF_TOKEN"
    

    Bu, huggingface/deepseek-ai/DeepSeek-R1 modelini varsayılan model olarak ayarlar.

    Model kimlikleri

    Model başvuruları huggingface/<org>/<model> biçimini kullanır (Hub tarzı kimlikler). Aşağıdaki liste GET https://router.huggingface.co/v1/models çıktısındandır; kataloğunuz daha fazlasını içerebilir.

    Model Başvuru (huggingface/ ile önekleyin)
    DeepSeek R1 deepseek-ai/DeepSeek-R1
    DeepSeek V3.2 deepseek-ai/DeepSeek-V3.2
    Qwen3 8B Qwen/Qwen3-8B
    Qwen2.5 7B Instruct Qwen/Qwen2.5-7B-Instruct
    Qwen3 32B Qwen/Qwen3-32B
    Llama 3.3 70B Instruct meta-llama/Llama-3.3-70B-Instruct
    Llama 3.1 8B Instruct meta-llama/Llama-3.1-8B-Instruct
    GPT-OSS 120B openai/gpt-oss-120b
    GLM 4.7 zai-org/GLM-4.7
    Kimi K2.5 moonshotai/Kimi-K2.5

    Gelişmiş yapılandırma

    Model keşfi ve onboarding açılır menüsü

    OpenClaw, modelleri Inference endpoint'e doğrudan çağrı yaparak keşfeder:

    GET https://router.huggingface.co/v1/models
    

    (İsteğe bağlı: tam liste için Authorization: Bearer $HUGGINGFACE_HUB_TOKEN veya $HF_TOKEN gönderin; bazı uç noktalar kimlik doğrulama olmadan yalnızca alt küme döndürür.) Yanıt OpenAI tarzı { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] } biçimindedir.

    Bir Hugging Face API anahtarı yapılandırdığınızda (onboarding, HUGGINGFACE_HUB_TOKEN veya HF_TOKEN üzerinden), OpenClaw kullanılabilir chat-completion modellerini keşfetmek için bu GET çağrısını kullanır. Etkileşimli kurulum sırasında, token'ınızı girdikten sonra bu listeden doldurulan (veya istek başarısız olursa yerleşik katalogdan gelen) bir Default Hugging Face model açılır menüsü görürsünüz. Çalışma zamanında (örneğin Gateway başlangıcında), anahtar mevcut olduğunda OpenClaw katalogu yenilemek için yine GET https://router.huggingface.co/v1/models çağrısını yapar. Liste, yerleşik bir katalogla (bağlam penceresi ve maliyet gibi meta veriler için) birleştirilir. İstek başarısız olursa veya anahtar ayarlı değilse yalnızca yerleşik katalog kullanılır.

    Model adları, takma adlar ve ilke sonekleri
    • API'den gelen ad: Model görünen adı, API name, title veya display_name döndürdüğünde GET /v1/models üzerinden doldurulur; aksi hâlde model kimliğinden türetilir (örneğin deepseek-ai/DeepSeek-R1, "DeepSeek R1" olur).
    • Görünen adı geçersiz kıl: CLI ve UI içinde istediğiniz şekilde görünmesi için yapılandırmada model başına özel bir etiket ayarlayabilirsiniz:
    {
      agents: {
        defaults: {
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (hızlı)" },
            "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (ucuz)" },
          },
        },
      },
    }
    
    • İlke sonekleri: OpenClaw'ın paketle gelen Hugging Face belgeleri ve yardımcıları şu iki soneki yerleşik ilke varyantları olarak değerlendirir:

      • :fastest — en yüksek işlem hacmi.
      • :cheapest — çıktı belirteci başına en düşük maliyet.

      Bunları models.providers.huggingface.models içinde ayrı girdiler olarak ekleyebilir veya model.primary değerini sonekli ayarlayabilirsiniz. Varsayılan sağlayıcı sıranızı Inference Provider settings içinde de ayarlayabilirsiniz (sonek yoksa = o sırayı kullan).

    • Yapılandırma birleştirme: models.providers.huggingface.models içindeki mevcut girdiler (örneğin models.json içinde olanlar) yapılandırma birleştirilirken korunur. Böylece orada ayarladığınız özel name, alias veya model seçenekleri korunur.

    Ortam ve daemon kurulumu

    Gateway bir daemon (launchd/systemd) olarak çalışıyorsa HUGGINGFACE_HUB_TOKEN veya HF_TOKEN değerinin o sürece de mevcut olduğundan emin olun (örneğin ~/.openclaw/.env içinde veya env.shellEnv üzerinden).

    Yapılandırma: Qwen yedeğiyle DeepSeek R1
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-R1",
            fallbacks: ["huggingface/Qwen/Qwen3-8B"],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
          },
        },
      },
    }
    
    Yapılandırma: cheapest ve fastest varyantlarıyla Qwen
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen3-8B" },
          models: {
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
            "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (en ucuz)" },
            "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (en hızlı)" },
          },
        },
      },
    }
    
    Yapılandırma: takma adlarla DeepSeek + Llama + GPT-OSS
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
            fallbacks: [
              "huggingface/meta-llama/Llama-3.3-70B-Instruct",
              "huggingface/openai/gpt-oss-120b",
            ],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
            "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
            "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
          },
        },
      },
    }
    
    Yapılandırma: ilke sonekleriyle birden çok Qwen ve DeepSeek
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
          models: {
            "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
            "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (ucuz)" },
            "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (hızlı)" },
            "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
          },
        },
      },
    }
    

    İlgili