Providers
Hugging Face (inference)
Провайдери Hugging Face Inference надають OpenAI-compatible chat completions через єдиний router API. Ви отримуєте доступ до багатьох моделей (DeepSeek, Llama та інших) з одним токеном. OpenClaw використовує OpenAI-compatible endpoint (лише chat completions); для text-to-image, embeddings або speech використовуйте HF inference clients напряму.
- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENабоHF_TOKEN(fine-grained token з дозволом Make calls to Inference Providers) - API: OpenAI-compatible (
https://router.huggingface.co/v1) - Billing: один HF token; pricing відповідає тарифам провайдера з безкоштовним рівнем.
Початок роботи
Створіть fine-grained token
Перейдіть до Hugging Face Settings Tokens і створіть новий fine-grained token.
Запустіть onboarding
Виберіть Hugging Face у списку провайдерів, а потім введіть свій API key, коли буде запитано:
openclaw onboard --auth-choice huggingface-api-key
Виберіть типову модель
У списку Default Hugging Face model виберіть потрібну модель. Список завантажується з Inference API, коли у вас є валідний токен; інакше показується вбудований список. Ваш вибір зберігається як типова модель.
Ви також можете задати або змінити типову модель пізніше в конфігурації:
{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
},
},
}
Переконайтеся, що модель доступна
openclaw models list --provider huggingface
Неінтерактивне налаштування
openclaw onboard --non-interactive \
--mode local \
--auth-choice huggingface-api-key \
--huggingface-api-key "$HF_TOKEN"
Це встановить huggingface/deepseek-ai/DeepSeek-R1 як типову модель.
ID моделей
Model ref мають формат huggingface/<org>/<model> (ідентифікатори у стилі Hub). Список нижче отримано з GET https://router.huggingface.co/v1/models; у вашому каталозі може бути більше.
| Model | Ref (prefix with huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Розширене налаштування
Discovery моделей і список onboarding
OpenClaw виявляє моделі, викликаючи Inference endpoint напряму:
GET https://router.huggingface.co/v1/models
(Необов’язково: передайте Authorization: Bearer $HUGGINGFACE_HUB_TOKEN або $HF_TOKEN, щоб отримати повний список; деякі endpoint-и повертають лише підмножину без auth.) Відповідь має стиль OpenAI: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Коли ви налаштовуєте API key Hugging Face (через onboarding, HUGGINGFACE_HUB_TOKEN або HF_TOKEN), OpenClaw використовує цей GET для виявлення доступних моделей chat completion. Під час інтерактивного setup, після введення токена ви бачите список Default Hugging Face model, заповнений із цього списку (або з вбудованого каталогу, якщо запит завершується помилкою). Під час runtime (наприклад під час запуску Gateway), коли ключ наявний, OpenClaw знову викликає GET https://router.huggingface.co/v1/models, щоб оновити каталог. Список об’єднується з вбудованим каталогом (для metadata на кшталт context window і cost). Якщо запит завершується помилкою або ключ не задано, використовується лише вбудований каталог.
Назви моделей, alias-и та policy suffix-и
- Name from API: display name моделі гідратується з GET /v1/models, коли API повертає
name,titleабоdisplay_name; інакше він виводиться з ID моделі (наприкладdeepseek-ai/DeepSeek-R1стає "DeepSeek R1"). - Override display name: ви можете задати custom label для кожної моделі в конфігурації, щоб вона відображалася в CLI та UI так, як вам потрібно:
{
agents: {
defaults: {
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
"huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
},
},
},
}
-
Policy suffixes: вбудована документація та helper-и Hugging Face в OpenClaw наразі трактують ці два suffix як вбудовані policy-варіанти:
:fastest— найвища пропускна здатність.:cheapest— найнижча вартість за output token.
Ви можете додавати їх як окремі записи в
models.providers.huggingface.modelsабо задаватиmodel.primaryіз цим suffix. Ви також можете встановити типовий порядок провайдерів у налаштуваннях Inference Provider (без suffix = використовувати цей порядок). -
Config merge: наявні записи в
models.providers.huggingface.models(наприклад уmodels.json) зберігаються під час merge конфігурації. Тож будь-які customname,aliasабо параметри моделі, які ви там задасте, буде збережено.
Середовище й налаштування демона
Якщо Gateway працює як daemon (launchd/systemd), переконайтеся, що HUGGINGFACE_HUB_TOKEN або HF_TOKEN доступний цьому процесу (наприклад у ~/.openclaw/.env або через env.shellEnv).
Конфігурація: DeepSeek R1 з fallback до Qwen
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-R1",
fallbacks: ["huggingface/Qwen/Qwen3-8B"],
},
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
},
},
},
}
Конфігурація: Qwen з варіантами cheapest і fastest
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen3-8B" },
models: {
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
"huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
"huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
},
},
},
}
Конфігурація: DeepSeek + Llama + GPT-OSS з alias-ами
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
fallbacks: [
"huggingface/meta-llama/Llama-3.3-70B-Instruct",
"huggingface/openai/gpt-oss-120b",
],
},
models: {
"huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
"huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
"huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
},
},
},
}
Конфігурація: Кілька Qwen і DeepSeek із policy suffix-ами
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
models: {
"huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
"huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
"huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
"huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
},
},
},
}