Providers

LM Studio

LM Studio là một ứng dụng thân thiện nhưng mạnh mẽ để chạy các mô hình open-weight trên phần cứng của riêng bạn. Ứng dụng cho phép bạn chạy các mô hình llama.cpp (GGUF) hoặc MLX (Apple Silicon). Có gói GUI hoặc daemon không giao diện (llmster). Để xem tài liệu sản phẩm và thiết lập, hãy xem lmstudio.ai.

Bắt đầu nhanh

  1. Cài đặt LM Studio (desktop) hoặc llmster (không giao diện), sau đó khởi động máy chủ cục bộ:
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. Khởi động máy chủ

Hãy đảm bảo bạn khởi động ứng dụng desktop hoặc chạy daemon bằng lệnh sau:

lms daemon up
lms server start --port 1234

Nếu bạn đang dùng ứng dụng, hãy đảm bảo đã bật JIT để có trải nghiệm mượt mà. Tìm hiểu thêm trong hướng dẫn JIT và TTL của LM Studio.

  1. Nếu xác thực LM Studio được bật, hãy đặt LM_API_TOKEN:
export LM_API_TOKEN="your-lm-studio-api-token"

Nếu xác thực LM Studio bị tắt, bạn có thể để trống khóa API trong quá trình thiết lập OpenClaw tương tác.

Để biết chi tiết thiết lập xác thực LM Studio, hãy xem Xác thực LM Studio.

  1. Chạy onboarding và chọn LM Studio:
openclaw onboard
  1. Trong onboarding, dùng lời nhắc Default model để chọn mô hình LM Studio của bạn.

Bạn cũng có thể đặt hoặc thay đổi sau:

openclaw models set lmstudio/qwen/qwen3.5-9b

Khóa mô hình LM Studio tuân theo định dạng author/model-name (ví dụ: qwen/qwen3.5-9b). Tham chiếu mô hình OpenClaw thêm tên provider ở phía trước: lmstudio/qwen/qwen3.5-9b. Bạn có thể tìm khóa chính xác cho một mô hình bằng cách chạy curl http://localhost:1234/api/v1/models và xem trường key.

Onboarding không tương tác

Dùng onboarding không tương tác khi bạn muốn viết script thiết lập (CI, cấp phát, bootstrap từ xa):

openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio

Hoặc chỉ định URL cơ sở, mô hình và khóa API tùy chọn:

openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b

--custom-model-id nhận khóa mô hình do LM Studio trả về (ví dụ: qwen/qwen3.5-9b), không bao gồm tiền tố provider lmstudio/.

Với máy chủ LM Studio có xác thực, truyền --lmstudio-api-key hoặc đặt LM_API_TOKEN. Với máy chủ LM Studio không xác thực, bỏ qua khóa; OpenClaw lưu một dấu mốc cục bộ không phải bí mật.

--custom-api-key vẫn được hỗ trợ để tương thích, nhưng --lmstudio-api-key được ưu tiên cho LM Studio.

Thao tác này ghi models.providers.lmstudio và đặt mô hình mặc định thành lmstudio/<custom-model-id>. Khi bạn cung cấp khóa API, thiết lập cũng ghi hồ sơ xác thực lmstudio:default.

Thiết lập tương tác có thể nhắc nhập độ dài ngữ cảnh tải ưu tiên tùy chọn và áp dụng giá trị đó cho các mô hình LM Studio đã phát hiện mà nó lưu vào cấu hình. Cấu hình Plugin LM Studio tin cậy endpoint LM Studio đã cấu hình cho các yêu cầu mô hình, bao gồm loopback, LAN và máy chủ tailnet. Bạn có thể tắt bằng cách đặt models.providers.lmstudio.request.allowPrivateNetwork: false.

Cấu hình

Tương thích mức sử dụng streaming

LM Studio tương thích với mức sử dụng streaming. Khi nó không phát ra đối tượng usage có dạng OpenAI, OpenClaw khôi phục số lượng token từ siêu dữ liệu kiểu llama.cpp timings.prompt_n / timings.predicted_n thay thế.

Hành vi mức sử dụng streaming tương tự áp dụng cho các backend cục bộ tương thích OpenAI sau:

  • vLLM
  • SGLang
  • llama.cpp
  • LocalAI
  • Jan
  • TabbyAPI
  • text-generation-webui

Tương thích suy luận

Khi quá trình khám phá /api/v1/models của LM Studio báo cáo các tùy chọn suy luận dành riêng cho mô hình, OpenClaw hiển thị các giá trị reasoning_effort tương thích OpenAI tương ứng trong siêu dữ liệu tương thích mô hình. Các bản dựng LM Studio hiện tại có thể quảng bá các tùy chọn UI nhị phân như allowed_options: ["off", "on"] trong khi từ chối các giá trị đó trên /v1/chat/completions; OpenClaw chuẩn hóa dạng khám phá nhị phân đó thành none, minimal, low, medium, highxhigh trước khi gửi yêu cầu. Cấu hình LM Studio đã lưu cũ hơn có chứa bản đồ suy luận off/on cũng được chuẩn hóa theo cùng cách khi catalog được tải.

Cấu hình rõ ràng

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Khắc phục sự cố

Không phát hiện được LM Studio

Hãy đảm bảo LM Studio đang chạy. Nếu xác thực được bật, cũng hãy đặt LM_API_TOKEN:

# Start via desktop app, or headless:
lms server start --port 1234

Xác minh API có thể truy cập được:

curl http://localhost:1234/api/v1/models

Lỗi xác thực (HTTP 401)

Nếu thiết lập báo cáo HTTP 401, hãy xác minh khóa API của bạn:

  • Kiểm tra rằng LM_API_TOKEN khớp với khóa đã cấu hình trong LM Studio.
  • Để biết chi tiết thiết lập xác thực LM Studio, hãy xem Xác thực LM Studio.
  • Nếu máy chủ của bạn không yêu cầu xác thực, hãy để trống khóa trong quá trình thiết lập.

Tải mô hình đúng lúc

LM Studio hỗ trợ tải mô hình đúng lúc (JIT), trong đó các mô hình được tải ở yêu cầu đầu tiên. OpenClaw mặc định tải trước mô hình thông qua endpoint tải gốc của LM Studio, điều này hữu ích khi JIT bị tắt. Để LM Studio JIT, TTL nhàn rỗi và hành vi tự động loại bỏ sở hữu vòng đời mô hình, hãy tắt bước tải trước của OpenClaw:

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        api: "openai-completions",
        params: { preload: false },
        models: [{ id: "qwen/qwen3.5-9b" }],
      },
    },
  },
}

Máy chủ LM Studio trên LAN hoặc tailnet

Dùng địa chỉ có thể truy cập của máy chủ LM Studio, giữ /v1 và đảm bảo LM Studio được bind vượt ngoài loopback trên máy đó:

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://gpu-box.local:1234/v1",
        apiKey: "lmstudio",
        api: "openai-completions",
        models: [{ id: "qwen/qwen3.5-9b" }],
      },
    },
  },
}

Không giống các provider tương thích OpenAI chung, lmstudio tự động tin cậy endpoint cục bộ/riêng tư đã cấu hình cho các yêu cầu mô hình được bảo vệ. Các ID provider local loopback tùy chỉnh như localhost hoặc 127.0.0.1 cũng được tự động tin cậy; với LAN, tailnet hoặc ID provider DNS riêng tùy chỉnh, hãy đặt rõ ràng models.providers.<id>.request.allowPrivateNetwork: true.

Liên quan