Providers
LM Studio
LM Studio — це зручний і водночас потужний застосунок для запуску open-weight моделей на власному обладнанні. Він дає змогу запускати моделі llama.cpp (GGUF) або MLX (Apple Silicon). Постачається як GUI-пакет або headless-демон (llmster). Документацію щодо продукту та налаштування див. на lmstudio.ai.
Швидкий старт
- Установіть LM Studio (desktop) або
llmster(headless), потім запустіть локальний сервер:
curl -fsSL https://lmstudio.ai/install.sh | bash
- Запустіть сервер
Переконайтеся, що ви або запустили desktop-застосунок, або запустили демон за допомогою такої команди:
lms daemon up
lms server start --port 1234
Якщо ви використовуєте застосунок, переконайтеся, що JIT увімкнено для плавної роботи. Докладніше див. у посібнику LM Studio щодо JIT і TTL.
- Якщо автентифікацію LM Studio увімкнено, задайте
LM_API_TOKEN:
export LM_API_TOKEN="your-lm-studio-api-token"
Якщо автентифікацію LM Studio вимкнено, під час інтерактивного налаштування OpenClaw можна залишити API-ключ порожнім.
Докладніше про налаштування автентифікації LM Studio див. у Автентифікації LM Studio.
- Запустіть onboarding і виберіть
LM Studio:
openclaw onboard
- Під час onboarding використайте запит
Default model, щоб вибрати свою модель LM Studio.
Ви також можете задати або змінити її пізніше:
openclaw models set lmstudio/qwen/qwen3.5-9b
Ключі моделей LM Studio мають формат author/model-name (наприклад, qwen/qwen3.5-9b). Посилання на моделі OpenClaw
додають перед ним назву провайдера: lmstudio/qwen/qwen3.5-9b. Точний ключ для
моделі можна знайти, виконавши curl http://localhost:1234/api/v1/models і переглянувши поле key.
Неінтерактивний onboarding
Використовуйте неінтерактивний onboarding, коли потрібно скриптувати налаштування (CI, provisioning, віддалений bootstrap):
openclaw onboard \
--non-interactive \
--accept-risk \
--auth-choice lmstudio
Або вкажіть базову URL-адресу, модель і необов’язковий API-ключ:
openclaw onboard \
--non-interactive \
--accept-risk \
--auth-choice lmstudio \
--custom-base-url http://localhost:1234/v1 \
--lmstudio-api-key "$LM_API_TOKEN" \
--custom-model-id qwen/qwen3.5-9b
--custom-model-id приймає ключ моделі, який повертає LM Studio (наприклад, qwen/qwen3.5-9b), без
префікса провайдера lmstudio/.
Для серверів LM Studio з автентифікацією передайте --lmstudio-api-key або задайте LM_API_TOKEN.
Для серверів LM Studio без автентифікації пропустіть ключ; OpenClaw збереже локальний несекретний маркер.
--custom-api-key і далі підтримується для сумісності, але для LM Studio бажано використовувати --lmstudio-api-key.
Це записує models.providers.lmstudio і задає модель за замовчуванням як
lmstudio/<custom-model-id>. Коли ви надаєте API-ключ, налаштування також записує
профіль автентифікації lmstudio:default.
Інтерактивне налаштування може запитати необов’язкову бажану довжину контексту завантаження та застосовує її до виявлених моделей LM Studio, які зберігає в конфігурації.
Конфігурація Plugin LM Studio довіряє налаштованому endpoint LM Studio для запитів моделей, зокрема хостам loopback, LAN і tailnet. Ви можете відмовитися від цього, задавши models.providers.lmstudio.request.allowPrivateNetwork: false.
Конфігурація
Сумісність streaming usage
LM Studio сумісний зі streaming usage. Коли він не видає об’єкт usage
у форматі OpenAI, OpenClaw натомість відновлює підрахунок токенів із метаданих
timings.prompt_n / timings.predicted_n у стилі llama.cpp.
Така сама поведінка streaming usage застосовується до цих OpenAI-сумісних локальних backend:
- vLLM
- SGLang
- llama.cpp
- LocalAI
- Jan
- TabbyAPI
- text-generation-webui
Сумісність thinking
Коли виявлення /api/v1/models LM Studio повідомляє специфічні для моделі
параметри reasoning, OpenClaw показує відповідні OpenAI-сумісні значення
reasoning_effort у метаданих сумісності моделі. Поточні збірки LM Studio можуть рекламувати бінарні
параметри UI, як-от allowed_options: ["off", "on"], але відхиляти ці значення
на /v1/chat/completions; OpenClaw нормалізує таку бінарну форму виявлення до
none, minimal, low, medium, high і xhigh перед надсиланням запитів.
Старі збережені конфігурації LM Studio, що містять мапи reasoning off/on,
нормалізуються так само під час завантаження каталогу.
Явна конфігурація
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
models: [
{
id: "qwen/qwen3-coder-next",
name: "Qwen 3 Coder Next",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
Усунення несправностей
LM Studio не виявлено
Переконайтеся, що LM Studio запущено. Якщо автентифікацію ввімкнено, також задайте LM_API_TOKEN:
# Start via desktop app, or headless:
lms server start --port 1234
Перевірте, що API доступний:
curl http://localhost:1234/api/v1/models
Помилки автентифікації (HTTP 401)
Якщо налаштування повідомляє HTTP 401, перевірте свій API-ключ:
- Перевірте, що
LM_API_TOKENвідповідає ключу, налаштованому в LM Studio. - Докладніше про налаштування автентифікації LM Studio див. у Автентифікації LM Studio.
- Якщо ваш сервер не потребує автентифікації, залиште ключ порожнім під час налаштування.
Just-in-time завантаження моделі
LM Studio підтримує just-in-time (JIT) завантаження моделей, коли моделі завантажуються під час першого запиту. За замовчуванням OpenClaw попередньо завантажує моделі через власний endpoint завантаження LM Studio, що допомагає, коли JIT вимкнено. Щоб передати керування життєвим циклом моделі JIT, idle TTL і автоматичному витісненню LM Studio, вимкніть крок попереднього завантаження OpenClaw:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
api: "openai-completions",
params: { preload: false },
models: [{ id: "qwen/qwen3.5-9b" }],
},
},
},
}
LAN або tailnet-хост LM Studio
Використовуйте доступну адресу хоста LM Studio, збережіть /v1 і переконайтеся, що LM Studio на цій машині прив’язано не лише до loopback:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://gpu-box.local:1234/v1",
apiKey: "lmstudio",
api: "openai-completions",
models: [{ id: "qwen/qwen3.5-9b" }],
},
},
},
}
На відміну від загальних OpenAI-сумісних провайдерів, lmstudio автоматично довіряє своєму налаштованому локальному/приватному endpoint для захищених запитів моделей. Ідентифікатори кастомних loopback-провайдерів, як-от localhost або 127.0.0.1, також довіряються автоматично; для кастомних ідентифікаторів провайдерів LAN, tailnet або приватного DNS явно задайте models.providers.<id>.request.allowPrivateNetwork: true.