Providers
Hugging Face (inference)
Hugging Face Inference Providers, tek bir yönlendirici API üzerinden OpenAI uyumlu chat completions sunar. Tek bir token ile birçok modele (DeepSeek, Llama ve daha fazlası) erişirsiniz. OpenClaw, OpenAI uyumlu uç noktayı kullanır (yalnızca chat completions); text-to-image, embeddings veya konuşma için HF inference clients doğrudan kullanılmalıdır.
- Sağlayıcı:
huggingface - Kimlik doğrulama:
HUGGINGFACE_HUB_TOKENveyaHF_TOKEN(Make calls to Inference Providers iznine sahip ince ayarlı token) - API: OpenAI uyumlu (
https://router.huggingface.co/v1) - Faturalama: Tek HF token; fiyatlandırma sağlayıcı ücretlerini izler ve ücretsiz katman içerir.
Başlarken
İnce ayarlı bir token oluşturun
Hugging Face Settings Tokens sayfasına gidin ve yeni bir ince ayarlı token oluşturun.
Onboarding çalıştırın
Sağlayıcı açılır menüsünde Hugging Face seçin, ardından istendiğinde API anahtarınızı girin:
openclaw onboard --auth-choice huggingface-api-key
Varsayılan bir model seçin
Default Hugging Face model açılır menüsünden istediğiniz modeli seçin. Geçerli bir token varsa liste Inference API'den yüklenir; aksi hâlde yerleşik liste gösterilir. Seçiminiz varsayılan model olarak kaydedilir.
Varsayılan modeli daha sonra yapılandırmada da ayarlayabilir veya değiştirebilirsiniz:
{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
},
},
}
Modelin kullanılabilir olduğunu doğrulayın
openclaw models list --provider huggingface
Etkileşimsiz kurulum
openclaw onboard --non-interactive \
--mode local \
--auth-choice huggingface-api-key \
--huggingface-api-key "$HF_TOKEN"
Bu, huggingface/deepseek-ai/DeepSeek-R1 modelini varsayılan model olarak ayarlar.
Model kimlikleri
Model başvuruları huggingface/<org>/<model> biçimini kullanır (Hub tarzı kimlikler). Aşağıdaki liste GET https://router.huggingface.co/v1/models çıktısındandır; kataloğunuz daha fazlasını içerebilir.
| Model | Başvuru (huggingface/ ile önekleyin) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Gelişmiş yapılandırma
Model keşfi ve onboarding açılır menüsü
OpenClaw, modelleri Inference endpoint'e doğrudan çağrı yaparak keşfeder:
GET https://router.huggingface.co/v1/models
(İsteğe bağlı: tam liste için Authorization: Bearer $HUGGINGFACE_HUB_TOKEN veya $HF_TOKEN gönderin; bazı uç noktalar kimlik doğrulama olmadan yalnızca alt küme döndürür.) Yanıt OpenAI tarzı { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] } biçimindedir.
Bir Hugging Face API anahtarı yapılandırdığınızda (onboarding, HUGGINGFACE_HUB_TOKEN veya HF_TOKEN üzerinden), OpenClaw kullanılabilir chat-completion modellerini keşfetmek için bu GET çağrısını kullanır. Etkileşimli kurulum sırasında, token'ınızı girdikten sonra bu listeden doldurulan (veya istek başarısız olursa yerleşik katalogdan gelen) bir Default Hugging Face model açılır menüsü görürsünüz. Çalışma zamanında (örneğin Gateway başlangıcında), anahtar mevcut olduğunda OpenClaw katalogu yenilemek için yine GET https://router.huggingface.co/v1/models çağrısını yapar. Liste, yerleşik bir katalogla (bağlam penceresi ve maliyet gibi meta veriler için) birleştirilir. İstek başarısız olursa veya anahtar ayarlı değilse yalnızca yerleşik katalog kullanılır.
Model adları, takma adlar ve ilke sonekleri
- API'den gelen ad: Model görünen adı, API
name,titleveyadisplay_namedöndürdüğünde GET /v1/models üzerinden doldurulur; aksi hâlde model kimliğinden türetilir (örneğindeepseek-ai/DeepSeek-R1, "DeepSeek R1" olur). - Görünen adı geçersiz kıl: CLI ve UI içinde istediğiniz şekilde görünmesi için yapılandırmada model başına özel bir etiket ayarlayabilirsiniz:
{
agents: {
defaults: {
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (hızlı)" },
"huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (ucuz)" },
},
},
},
}
-
İlke sonekleri: OpenClaw'ın paketle gelen Hugging Face belgeleri ve yardımcıları şu iki soneki yerleşik ilke varyantları olarak değerlendirir:
:fastest— en yüksek işlem hacmi.:cheapest— çıktı belirteci başına en düşük maliyet.
Bunları
models.providers.huggingface.modelsiçinde ayrı girdiler olarak ekleyebilir veyamodel.primarydeğerini sonekli ayarlayabilirsiniz. Varsayılan sağlayıcı sıranızı Inference Provider settings içinde de ayarlayabilirsiniz (sonek yoksa = o sırayı kullan). -
Yapılandırma birleştirme:
models.providers.huggingface.modelsiçindeki mevcut girdiler (örneğinmodels.jsoniçinde olanlar) yapılandırma birleştirilirken korunur. Böylece orada ayarladığınız özelname,aliasveya model seçenekleri korunur.
Ortam ve daemon kurulumu
Gateway bir daemon (launchd/systemd) olarak çalışıyorsa HUGGINGFACE_HUB_TOKEN veya HF_TOKEN değerinin o sürece de mevcut olduğundan emin olun (örneğin ~/.openclaw/.env içinde veya env.shellEnv üzerinden).
Yapılandırma: Qwen yedeğiyle DeepSeek R1
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-R1",
fallbacks: ["huggingface/Qwen/Qwen3-8B"],
},
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
},
},
},
}
Yapılandırma: cheapest ve fastest varyantlarıyla Qwen
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen3-8B" },
models: {
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
"huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (en ucuz)" },
"huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (en hızlı)" },
},
},
},
}
Yapılandırma: takma adlarla DeepSeek + Llama + GPT-OSS
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
fallbacks: [
"huggingface/meta-llama/Llama-3.3-70B-Instruct",
"huggingface/openai/gpt-oss-120b",
],
},
models: {
"huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
"huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
"huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
},
},
},
}
Yapılandırma: ilke sonekleriyle birden çok Qwen ve DeepSeek
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
models: {
"huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
"huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (ucuz)" },
"huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (hızlı)" },
"huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
},
},
},
}