Providers
Hugging Face(inference)
Hugging Face Inference Providers は、単一のルーター API を通じて OpenAI 互換の chat completions を提供します。1 つの token で多数のモデル(DeepSeek、Llama など)にアクセスできます。OpenClaw は OpenAI 互換エンドポイント(chat completions のみ)を使います。text-to-image、embeddings、speech には、代わりに HF inference clients を直接使ってください。
- プロバイダ:
huggingface - 認証:
HUGGINGFACE_HUB_TOKENまたはHF_TOKEN(Make calls to Inference Providers 権限を持つ fine-grained token) - API: OpenAI 互換(
https://router.huggingface.co/v1) - 課金: 単一の HF token。pricing は free tier 付きで provider 料金に従います。
はじめに
fine-grained token を作成
Hugging Face Settings Tokens にアクセスし、新しい fine-grained token を作成してください。
オンボーディングを実行
プロバイダのドロップダウンで Hugging Face を選び、求められたら API キーを入力してください:
openclaw onboard --auth-choice huggingface-api-key
デフォルトモデルを選ぶ
Default Hugging Face model ドロップダウンで、使いたいモデルを選んでください。有効な token がある場合は Inference API から一覧が読み込まれ、そうでなければ組み込み一覧が表示されます。選択内容はデフォルトモデルとして保存されます。
後から config でデフォルトモデルを設定または変更することもできます:
{
agents: {
defaults: {
model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
},
},
}
モデルが利用可能か確認
openclaw models list --provider huggingface
非対話セットアップ
openclaw onboard --non-interactive \
--mode local \
--auth-choice huggingface-api-key \
--huggingface-api-key "$HF_TOKEN"
これにより huggingface/deepseek-ai/DeepSeek-R1 がデフォルトモデルとして設定されます。
モデル ID
モデル参照は huggingface/<org>/<model> 形式(Hub 形式 ID)です。以下の一覧は GET https://router.huggingface.co/v1/models に基づくものです。あなたのカタログにはさらに多く含まれている場合があります。
| モデル | 参照(huggingface/ を先頭に付ける) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
高度な設定
モデル検出とオンボーディングのドロップダウン
OpenClaw は Inference エンドポイントを直接呼び出して モデルを検出します:
GET https://router.huggingface.co/v1/models
(任意: 完全一覧を得るには Authorization: Bearer $HUGGINGFACE_HUB_TOKEN または $HF_TOKEN を送ってください。一部エンドポイントは認証なしだと部分集合しか返しません。)レスポンスは OpenAI 形式の { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] } です。
Hugging Face API キー(オンボーディング、HUGGINGFACE_HUB_TOKEN、または HF_TOKEN 経由)を設定すると、OpenClaw はこの GET を使って利用可能な chat-completion モデルを検出します。対話セットアップ 中では、token を入力した後に Default Hugging Face model ドロップダウンが表示され、この一覧(またはリクエスト失敗時は組み込みカタログ)から埋められます。ランタイム中(たとえば Gateway 起動時)も、キーが存在すれば OpenClaw は再び GET https://router.huggingface.co/v1/models を呼び出してカタログを更新します。この一覧は、組み込みカタログ(コンテキストウィンドウやコストなどのメタデータ用)とマージされます。リクエストが失敗した場合、またはキーが設定されていない場合は、組み込みカタログのみが使われます。
モデル名、エイリアス、ポリシーサフィックス
- API 由来の名前: モデル表示名は、API が
name,title,display_nameを返した場合、それを GET /v1/models から hydrate します。そうでない場合はモデル ID から導出されます(例:deepseek-ai/DeepSeek-R1は「DeepSeek R1」になります)。 - 表示名を上書き: config でモデルごとにカスタムラベルを設定すると、CLI や UI 上で好きな表示名にできます:
{
agents: {
defaults: {
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
"huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
},
},
},
}
-
ポリシーサフィックス: OpenClaw の同梱 Hugging Face ドキュメントと helper は現在、この 2 つのサフィックスを組み込みポリシーバリアントとして扱います:
:fastest— 最大スループット:cheapest— 出力トークン単価が最安
これらは
models.providers.huggingface.modelsに別エントリとして追加することも、model.primaryにサフィックス付きで設定することもできます。デフォルトの provider 順序は Inference Provider settings でも設定できます(サフィックスなし = その順序を使う)。 -
Config merge:
models.providers.huggingface.models内の既存エントリ(例:models.json内)は、config マージ時に保持されます。そのため、そこに設定したカスタムname,alias, またはモデルオプションは保持されます。
環境と daemon セットアップ
Gateway を daemon(launchd / systemd)として動かす場合、HUGGINGFACE_HUB_TOKEN または HF_TOKEN がそのプロセスから利用可能であることを確認してください(たとえば ~/.openclaw/.env または env.shellEnv 経由)。
Config: Qwen fallback 付き DeepSeek R1
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-R1",
fallbacks: ["huggingface/Qwen/Qwen3-8B"],
},
models: {
"huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
},
},
},
}
Config: cheapest と fastest バリアント付き Qwen
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen3-8B" },
models: {
"huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
"huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
"huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
},
},
},
}
Config: エイリアス付き DeepSeek + Llama + GPT-OSS
{
agents: {
defaults: {
model: {
primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
fallbacks: [
"huggingface/meta-llama/Llama-3.3-70B-Instruct",
"huggingface/openai/gpt-oss-120b",
],
},
models: {
"huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
"huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
"huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
},
},
},
}
Config: ポリシーサフィックス付き複数の Qwen と DeepSeek
{
agents: {
defaults: {
model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
models: {
"huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
"huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
"huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
"huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
},
},
},
}