Providers
LM Studio
LM Studio 是一款友善且功能強大的應用程式,可在你自己的硬體上執行開放權重模型。它可讓你執行 llama.cpp (GGUF) 或 MLX 模型 (Apple Silicon)。提供 GUI 套件或無頭 daemon (llmster)。產品與設定文件請參閱 lmstudio.ai。
快速開始
- 安裝 LM Studio (desktop) 或
llmster(headless),然後啟動本機伺服器:
curl -fsSL https://lmstudio.ai/install.sh | bash
- 啟動伺服器
請確定你已啟動桌面應用程式,或使用以下命令執行 daemon:
lms daemon up
lms server start --port 1234
如果你使用應用程式,請確定已啟用 JIT,以獲得流暢體驗。詳情請參閱 LM Studio JIT 與 TTL 指南。
- 如果已啟用 LM Studio 驗證,請設定
LM_API_TOKEN:
export LM_API_TOKEN="your-lm-studio-api-token"
如果已停用 LM Studio 驗證,你可以在互動式 OpenClaw 設定期間將 API 金鑰留空。
如需 LM Studio 驗證設定詳細資訊,請參閱 LM Studio Authentication。
- 執行入門設定並選擇
LM Studio:
openclaw onboard
- 在入門設定中,使用
Default model提示選取你的 LM Studio 模型。
你也可以稍後設定或變更它:
openclaw models set lmstudio/qwen/qwen3.5-9b
LM Studio 模型鍵採用 author/model-name 格式 (例如 qwen/qwen3.5-9b)。OpenClaw
模型參照會加上提供者名稱作為前綴:lmstudio/qwen/qwen3.5-9b。你可以執行 curl http://localhost:1234/api/v1/models,並查看 key 欄位,找出
模型的確切鍵。
非互動式入門設定
當你想要以指令碼進行設定 (CI、佈建、遠端 bootstrap) 時,請使用非互動式入門設定:
openclaw onboard \
--non-interactive \
--accept-risk \
--auth-choice lmstudio
或指定基底 URL、模型與選用 API 金鑰:
openclaw onboard \
--non-interactive \
--accept-risk \
--auth-choice lmstudio \
--custom-base-url http://localhost:1234/v1 \
--lmstudio-api-key "$LM_API_TOKEN" \
--custom-model-id qwen/qwen3.5-9b
--custom-model-id 會採用 LM Studio 傳回的模型鍵 (例如 qwen/qwen3.5-9b),不包含
lmstudio/ 提供者前綴。
對於已驗證的 LM Studio 伺服器,請傳入 --lmstudio-api-key 或設定 LM_API_TOKEN。
對於未驗證的 LM Studio 伺服器,請省略金鑰;OpenClaw 會儲存本機非機密標記。
--custom-api-key 仍支援相容性用途,但 LM Studio 偏好使用 --lmstudio-api-key。
這會寫入 models.providers.lmstudio,並將預設模型設定為
lmstudio/<custom-model-id>。當你提供 API 金鑰時,設定也會寫入
lmstudio:default 驗證設定檔。
互動式設定可提示輸入選用的偏好載入上下文長度,並套用至其儲存到設定中的已探索 LM Studio 模型。
LM Studio Plugin 設定會信任已設定的 LM Studio 端點以進行模型請求,包括 loopback、LAN 與 tailnet 主機。你可以設定 models.providers.lmstudio.request.allowPrivateNetwork: false 以選擇退出。
設定
串流用量相容性
LM Studio 與串流用量相容。當它未發出 OpenAI 形式的
usage 物件時,OpenClaw 會改從 llama.cpp 形式的
timings.prompt_n / timings.predicted_n 中繼資料復原 token 計數。
相同的串流用量行為也適用於這些 OpenAI 相容的本機後端:
- vLLM
- SGLang
- llama.cpp
- LocalAI
- Jan
- TabbyAPI
- text-generation-webui
思考相容性
當 LM Studio 的 /api/v1/models 探索回報模型特定推理
選項時,OpenClaw 會在模型相容中繼資料中公開相符的 OpenAI 相容 reasoning_effort
值。目前的 LM Studio 組建可能會公告二元
UI 選項,例如 allowed_options: ["off", "on"],但在
/v1/chat/completions 上拒絕這些值;OpenClaw 會先將該二元探索形式標準化為
none、minimal、low、medium、high 與 xhigh,再傳送請求。
包含 off/on 推理對應的舊版已儲存 LM Studio 設定,也會在載入目錄時以相同方式標準化。
明確設定
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
models: [
{
id: "qwen/qwen3-coder-next",
name: "Qwen 3 Coder Next",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
疑難排解
未偵測到 LM Studio
請確定 LM Studio 正在執行。如果已啟用驗證,也請設定 LM_API_TOKEN:
# Start via desktop app, or headless:
lms server start --port 1234
確認 API 可存取:
curl http://localhost:1234/api/v1/models
驗證錯誤 (HTTP 401)
如果設定回報 HTTP 401,請確認你的 API 金鑰:
- 檢查
LM_API_TOKEN是否符合 LM Studio 中設定的金鑰。 - 如需 LM Studio 驗證設定詳細資訊,請參閱 LM Studio Authentication。
- 如果你的伺服器不需要驗證,請在設定期間將金鑰留空。
即時模型載入
LM Studio 支援即時 (JIT) 模型載入,模型會在第一次請求時載入。OpenClaw 預設會透過 LM Studio 的原生載入端點預載模型,這在停用 JIT 時很有幫助。若要讓 LM Studio 的 JIT、閒置 TTL 與自動逐出行為管理模型生命週期,請停用 OpenClaw 的預載步驟:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
api: "openai-completions",
params: { preload: false },
models: [{ id: "qwen/qwen3.5-9b" }],
},
},
},
}
LAN 或 tailnet LM Studio 主機
使用 LM Studio 主機可連線的位址,保留 /v1,並確定 LM Studio 在該機器上繫結到 loopback 以外的介面:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://gpu-box.local:1234/v1",
apiKey: "lmstudio",
api: "openai-completions",
models: [{ id: "qwen/qwen3.5-9b" }],
},
},
},
}
不同於一般 OpenAI 相容提供者,lmstudio 會自動信任其已設定的本機/私人端點以進行受保護的模型請求。自訂 loopback 提供者 ID,例如 localhost 或 127.0.0.1 也會自動受到信任;對於 LAN、tailnet 或私人 DNS 自訂提供者 ID,請明確設定 models.providers.<id>.request.allowPrivateNetwork: true。