Providers

LM Studio

LM Studio 是一款友善且功能強大的應用程式,可在你自己的硬體上執行開放權重模型。它可讓你執行 llama.cpp (GGUF) 或 MLX 模型 (Apple Silicon)。提供 GUI 套件或無頭 daemon (llmster)。產品與設定文件請參閱 lmstudio.ai

快速開始

  1. 安裝 LM Studio (desktop) 或 llmster (headless),然後啟動本機伺服器:
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. 啟動伺服器

請確定你已啟動桌面應用程式,或使用以下命令執行 daemon:

lms daemon up
lms server start --port 1234

如果你使用應用程式,請確定已啟用 JIT,以獲得流暢體驗。詳情請參閱 LM Studio JIT 與 TTL 指南

  1. 如果已啟用 LM Studio 驗證,請設定 LM_API_TOKEN
export LM_API_TOKEN="your-lm-studio-api-token"

如果已停用 LM Studio 驗證,你可以在互動式 OpenClaw 設定期間將 API 金鑰留空。

如需 LM Studio 驗證設定詳細資訊,請參閱 LM Studio Authentication

  1. 執行入門設定並選擇 LM Studio
openclaw onboard
  1. 在入門設定中,使用 Default model 提示選取你的 LM Studio 模型。

你也可以稍後設定或變更它:

openclaw models set lmstudio/qwen/qwen3.5-9b

LM Studio 模型鍵採用 author/model-name 格式 (例如 qwen/qwen3.5-9b)。OpenClaw 模型參照會加上提供者名稱作為前綴:lmstudio/qwen/qwen3.5-9b。你可以執行 curl http://localhost:1234/api/v1/models,並查看 key 欄位,找出 模型的確切鍵。

非互動式入門設定

當你想要以指令碼進行設定 (CI、佈建、遠端 bootstrap) 時,請使用非互動式入門設定:

openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio

或指定基底 URL、模型與選用 API 金鑰:

openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b

--custom-model-id 會採用 LM Studio 傳回的模型鍵 (例如 qwen/qwen3.5-9b),不包含 lmstudio/ 提供者前綴。

對於已驗證的 LM Studio 伺服器,請傳入 --lmstudio-api-key 或設定 LM_API_TOKEN。 對於未驗證的 LM Studio 伺服器,請省略金鑰;OpenClaw 會儲存本機非機密標記。

--custom-api-key 仍支援相容性用途,但 LM Studio 偏好使用 --lmstudio-api-key

這會寫入 models.providers.lmstudio,並將預設模型設定為 lmstudio/<custom-model-id>。當你提供 API 金鑰時,設定也會寫入 lmstudio:default 驗證設定檔。

互動式設定可提示輸入選用的偏好載入上下文長度,並套用至其儲存到設定中的已探索 LM Studio 模型。 LM Studio Plugin 設定會信任已設定的 LM Studio 端點以進行模型請求,包括 loopback、LAN 與 tailnet 主機。你可以設定 models.providers.lmstudio.request.allowPrivateNetwork: false 以選擇退出。

設定

串流用量相容性

LM Studio 與串流用量相容。當它未發出 OpenAI 形式的 usage 物件時,OpenClaw 會改從 llama.cpp 形式的 timings.prompt_n / timings.predicted_n 中繼資料復原 token 計數。

相同的串流用量行為也適用於這些 OpenAI 相容的本機後端:

  • vLLM
  • SGLang
  • llama.cpp
  • LocalAI
  • Jan
  • TabbyAPI
  • text-generation-webui

思考相容性

當 LM Studio 的 /api/v1/models 探索回報模型特定推理 選項時,OpenClaw 會在模型相容中繼資料中公開相符的 OpenAI 相容 reasoning_effort 值。目前的 LM Studio 組建可能會公告二元 UI 選項,例如 allowed_options: ["off", "on"],但在 /v1/chat/completions 上拒絕這些值;OpenClaw 會先將該二元探索形式標準化為 noneminimallowmediumhighxhigh,再傳送請求。 包含 off/on 推理對應的舊版已儲存 LM Studio 設定,也會在載入目錄時以相同方式標準化。

明確設定

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

疑難排解

未偵測到 LM Studio

請確定 LM Studio 正在執行。如果已啟用驗證,也請設定 LM_API_TOKEN

# Start via desktop app, or headless:
lms server start --port 1234

確認 API 可存取:

curl http://localhost:1234/api/v1/models

驗證錯誤 (HTTP 401)

如果設定回報 HTTP 401,請確認你的 API 金鑰:

  • 檢查 LM_API_TOKEN 是否符合 LM Studio 中設定的金鑰。
  • 如需 LM Studio 驗證設定詳細資訊,請參閱 LM Studio Authentication
  • 如果你的伺服器不需要驗證,請在設定期間將金鑰留空。

即時模型載入

LM Studio 支援即時 (JIT) 模型載入,模型會在第一次請求時載入。OpenClaw 預設會透過 LM Studio 的原生載入端點預載模型,這在停用 JIT 時很有幫助。若要讓 LM Studio 的 JIT、閒置 TTL 與自動逐出行為管理模型生命週期,請停用 OpenClaw 的預載步驟:

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        api: "openai-completions",
        params: { preload: false },
        models: [{ id: "qwen/qwen3.5-9b" }],
      },
    },
  },
}

LAN 或 tailnet LM Studio 主機

使用 LM Studio 主機可連線的位址,保留 /v1,並確定 LM Studio 在該機器上繫結到 loopback 以外的介面:

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://gpu-box.local:1234/v1",
        apiKey: "lmstudio",
        api: "openai-completions",
        models: [{ id: "qwen/qwen3.5-9b" }],
      },
    },
  },
}

不同於一般 OpenAI 相容提供者,lmstudio 會自動信任其已設定的本機/私人端點以進行受保護的模型請求。自訂 loopback 提供者 ID,例如 localhost127.0.0.1 也會自動受到信任;對於 LAN、tailnet 或私人 DNS 自訂提供者 ID,請明確設定 models.providers.<id>.request.allowPrivateNetwork: true

相關