快速开始

Hugging Face(推理)

Hugging Face Inference Providers 通过单一路由器 API 提供兼容 OpenAI 的聊天补全能力。你只需一个令牌,即可访问许多模型(DeepSeek、Llama 等)。OpenClaw 使用的是兼容 OpenAI 的端点(仅聊天补全);对于文生图、embeddings 或语音,请直接使用 HF inference clients

  • 提供商:huggingface
  • 认证:HUGGINGFACE_HUB_TOKENHF_TOKEN(需为带有 Make calls to Inference Providers 权限的细粒度令牌)
  • API:兼容 OpenAI(https://router.huggingface.co/v1
  • 计费:单个 HF 令牌;定价 跟随 provider 费率,并提供免费层。

入门指南

  • 创建细粒度令牌

    前往 Hugging Face Settings Tokens 并创建一个新的细粒度令牌。

  • 运行新手引导

    在 provider 下拉框中选择 Hugging Face,然后在提示时输入你的 API key:

    openclaw onboard --auth-choice huggingface-api-key
    
  • 选择默认模型

    Default Hugging Face model 下拉框中,选择你想使用的模型。当你持有有效令牌时,列表会从 Inference API 加载;否则会显示一个内置列表。你的选择会保存为默认模型。

    你也可以稍后在配置中设置或更改默认模型:

    {
      agents: {
        defaults: {
          model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
        },
      },
    }
    
  • 验证模型可用

    openclaw models list --provider huggingface
    
  • 非交互式设置

    openclaw onboard --non-interactive \
      --mode local \
      --auth-choice huggingface-api-key \
      --huggingface-api-key "$HF_TOKEN"
    

    这会将 huggingface/deepseek-ai/DeepSeek-R1 设置为默认模型。

    模型 ID

    模型引用使用 huggingface/<org>/<model> 形式(Hub 风格 ID)。下表来自 GET https://router.huggingface.co/v1/models;你的目录中可能包含更多模型。

    模型 引用(请加上 huggingface/ 前缀)
    DeepSeek R1 deepseek-ai/DeepSeek-R1
    DeepSeek V3.2 deepseek-ai/DeepSeek-V3.2
    Qwen3 8B Qwen/Qwen3-8B
    Qwen2.5 7B Instruct Qwen/Qwen2.5-7B-Instruct
    Qwen3 32B Qwen/Qwen3-32B
    Llama 3.3 70B Instruct meta-llama/Llama-3.3-70B-Instruct
    Llama 3.1 8B Instruct meta-llama/Llama-3.1-8B-Instruct
    GPT-OSS 120B openai/gpt-oss-120b
    GLM 4.7 zai-org/GLM-4.7
    Kimi K2.5 moonshotai/Kimi-K2.5

    高级配置

    模型发现与新手引导下拉框

    OpenClaw 通过直接调用 Inference 端点 来发现模型:

    GET https://router.huggingface.co/v1/models
    

    (可选:发送 Authorization: Bearer $HUGGINGFACE_HUB_TOKEN$HF_TOKEN 以获取完整列表;某些端点在无认证时只返回子集。)响应为 OpenAI 风格: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }

    当你配置了 Hugging Face API key(通过新手引导、HUGGINGFACE_HUB_TOKENHF_TOKEN)后,OpenClaw 会使用这个 GET 请求来发现可用的聊天补全模型。在交互式设置期间,当你输入令牌后,你会看到一个 Default Hugging Face model 下拉框,它会根据该列表填充(如果请求失败,则使用内置目录)。在运行时(例如 Gateway 网关启动时),只要存在 key,OpenClaw 就会再次调用 GET https://router.huggingface.co/v1/models 来刷新目录。该列表会与内置目录合并(用于上下文窗口和成本等元数据)。如果请求失败或未设置 key,则仅使用内置目录。

    模型名称、别名和策略后缀
    • 来自 API 的名称: 当 API 返回 nametitledisplay_name 时,模型显示名称会从 GET /v1/models 中提取;否则会根据模型 id 推导(例如 deepseek-ai/DeepSeek-R1 会变成 “DeepSeek R1”)。
    • 覆盖显示名称: 你可以在配置中为每个模型设置自定义标签,以便它在 CLI 和 UI 中按你想要的方式显示:
    {
      agents: {
        defaults: {
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
            "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
          },
        },
      },
    }
    
    • 策略后缀: OpenClaw 的内置 Hugging Face 文档和辅助工具目前将以下两个后缀视为内置策略变体:

      • :fastest —— 最高吞吐量。
      • :cheapest —— 每输出 token 成本最低。

      你可以将它们作为独立条目加入 models.providers.huggingface.models,或者在 model.primary 中使用带后缀的形式。你也可以在 Inference Provider settings 中设置默认 provider 顺序(无后缀 = 使用该顺序)。

    • 配置合并: models.providers.huggingface.models 中已有的条目(例如在 models.json 中)在配置合并时会被保留。因此你在那里设置的任何自定义 namealias 或模型选项都会保留下来。

    环境变量和守护进程设置

    如果 Gateway 网关以守护进程(launchd/systemd)方式运行,请确保 HUGGINGFACE_HUB_TOKENHF_TOKEN 可供该进程访问(例如放在 ~/.openclaw/.env 中,或通过 env.shellEnv 提供)。

    配置:DeepSeek R1 + Qwen 回退
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-R1",
            fallbacks: ["huggingface/Qwen/Qwen3-8B"],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
          },
        },
      },
    }
    
    配置:带 cheapest 和 fastest 变体的 Qwen
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen3-8B" },
          models: {
            "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
            "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
            "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
          },
        },
      },
    }
    
    配置:带别名的 DeepSeek + Llama + GPT-OSS
    {
      agents: {
        defaults: {
          model: {
            primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
            fallbacks: [
              "huggingface/meta-llama/Llama-3.3-70B-Instruct",
              "huggingface/openai/gpt-oss-120b",
            ],
          },
          models: {
            "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
            "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
            "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
          },
        },
      },
    }
    
    配置:带策略后缀的多个 Qwen 和 DeepSeek
    {
      agents: {
        defaults: {
          model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
          models: {
            "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
            "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
            "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
            "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
          },
        },
      },
    }
    

    相关内容