Providers

Hugging Face(推論)

Hugging Face Inference Providers 透過單一路由器 API 提供與 OpenAI 相容的聊天補全。你只需一個權杖,就能存取許多模型(DeepSeek、Llama 等)。OpenClaw 使用與 OpenAI 相容的端點(僅限聊天補全);若要使用文字轉圖片、嵌入或語音,請直接使用 HF 推論用戶端

  • 提供者:huggingface
  • 驗證:HUGGINGFACE_HUB_TOKENHF_TOKEN(具備 Make calls to Inference Providers 的細粒度權杖)
  • API:與 OpenAI 相容(https://router.huggingface.co/v1
  • 計費:單一 HF 權杖;定價 依照提供者費率,並提供免費級別。

開始使用

  • 建立細粒度權杖

    前往 Hugging Face Settings Tokens,建立新的細粒度權杖。

  • 執行上手流程

    在提供者下拉選單中選擇 Hugging Face,然後在提示時輸入你的 API 金鑰:

    openclaw onboard --auth-choice huggingface-api-key
    
  • 選取預設模型

    預設 Hugging Face 模型下拉選單中,挑選你想要的模型。當你有有效權杖時,清單會從 Inference API 載入;否則會顯示內建清單。你的選擇會儲存為預設模型。

    你也可以稍後在設定中設定或變更預設模型:

    {
      agents: {
        defaults: {
          model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
        },
      },
    }
    
  • 確認模型可用

    openclaw models list --provider huggingface
    
  • 非互動式設定

    openclaw onboard --non-interactive \
      --mode local \
      --auth-choice huggingface-api-key \
      --huggingface-api-key "$HF_TOKEN"
    

    這會將 huggingface/deepseek-ai/DeepSeek-R1 設為預設模型。

    模型 ID

    模型參照使用 huggingface/<org>/<model> 形式(Hub 風格 ID)。下方清單來自 GET https://router.huggingface.co/v1/models;你的目錄可能包含更多項目。

    模型 參照(加上 huggingface/ 前綴)
    DeepSeek R1 deepseek-ai/DeepSeek-R1
    DeepSeek V3.2 deepseek-ai/DeepSeek-V3.2
    Qwen3 8B Qwen/Qwen3-8B
    Qwen2.5 7B Instruct Qwen/Qwen2.5-7B-Instruct
    Qwen3 32B Qwen/Qwen3-32B
    Llama 3.3 70B Instruct meta-llama/Llama-3.3-70B-Instruct
    Llama 3.1 8B Instruct meta-llama/Llama-3.1-8B-Instruct
    GPT-OSS 120B openai/gpt-oss-120b
    GLM 4.7 zai-org/GLM-4.7
    Kimi K2.5 moonshotai/Kimi-K2.5

    進階設定

    模型探索與上手下拉選單

    OpenClaw 會直接呼叫 Inference 端點來探索模型:

    GET https://router.huggingface.co/v1/models
    

    (選用:傳送 Authorization: Bearer $HUGGINGFACE_HUB_TOKEN$HF_TOKEN 以取得完整清單;某些端點在未驗證時會回傳子集。)回應為 OpenAI 風格的 { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }

    當你設定 Hugging Face API 金鑰(透過上手流程、HUGGINGFACE_HUB_TOKENHF_TOKEN)時,OpenClaw 會使用這個 GET 來探索可用的聊天補全模型。在互動式設定期間,輸入權杖後,你會看到一個預設 Hugging Face 模型下拉選單,內容來自該清單(或在請求失敗時使用內建目錄)。執行階段(例如 Gateway 啟動)若存在金鑰,OpenClaw 會再次呼叫 GET https://router.huggingface.co/v1/models 來重新整理目錄。清單會與內建目錄合併(用於內容視窗和成本等中繼資料)。如果請求失敗或未設定金鑰,則只會使用內建目錄。

    模型名稱、別名和策略尾碼
    • 來自 API 的名稱: 當 API 回傳 nametitledisplay_name 時,模型顯示名稱會從 GET /v1/models 補全;否則會從模型 ID 推導(例如 deepseek-ai/DeepSeek-R1 會變成「DeepSeek R1」)。
    • 覆寫顯示名稱: 你可以在設定中為每個模型設定自訂標籤,讓它在 CLI 和 UI 中以你想要的方式顯示:
    {
      agents: {
        defaults: {
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
            "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
          },
        },
      },
    }
    
    • 策略尾碼: OpenClaw 內附的 Hugging Face 文件和輔助工具目前將這兩個尾碼視為內建策略變體:

      • :fastest — 最高吞吐量。
      • :cheapest — 每個輸出權杖的最低成本。

      你可以將這些新增為 models.providers.huggingface.models 中的獨立項目,或使用帶有尾碼的 model.primary。你也可以在 Inference Provider 設定中設定預設提供者順序(無尾碼 = 使用該順序)。

    • 設定合併: 合併設定時,會保留 models.providers.huggingface.models 中現有的項目(例如 models.json 中的項目)。因此你在那裡設定的任何自訂 namealias 或模型選項都會被保留。

    環境與守護程式設定

    如果 Gateway 以守護程式執行(launchd/systemd),請確保 HUGGINGFACE_HUB_TOKENHF_TOKEN 可供該程序使用(例如在 ~/.openclaw/.env 中,或透過 env.shellEnv)。

    設定:DeepSeek R1 搭配 Qwen 後備
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-R1",
            fallbacks: ["huggingface/Qwen/Qwen3-8B"],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
          },
        },
      },
    }
    
    設定:Qwen 搭配 cheapest 與 fastest 變體
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen3-8B" },
          models: {
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
            "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
            "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
          },
        },
      },
    }
    
    設定:DeepSeek + Llama + GPT-OSS 搭配別名
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
            fallbacks: [
              "huggingface/meta-llama/Llama-3.3-70B-Instruct",
              "huggingface/openai/gpt-oss-120b",
            ],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
            "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
            "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
          },
        },
      },
    }
    
    設定:多個 Qwen 和 DeepSeek 搭配策略尾碼
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
          models: {
            "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
            "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
            "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
            "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
          },
        },
      },
    }
    

    相關