Providers
LM Studio
LM Studio هو تطبيق سهل الاستخدام وقوي لتشغيل نماذج open-weight على عتادك الخاص. يتيح لك تشغيل نماذج llama.cpp (GGUF) أو MLX (Apple Silicon). يأتي كحزمة GUI أو كخادم daemon بلا واجهة (llmster). للاطلاع على وثائق المنتج والإعداد، راجع lmstudio.ai.
البدء السريع
- ثبّت LM Studio (سطح المكتب) أو
llmster(بلا واجهة)، ثم شغّل الخادم المحلي:
curl -fsSL https://lmstudio.ai/install.sh | bash
- شغّل الخادم
تأكد من تشغيل تطبيق سطح المكتب أو تشغيل daemon باستخدام الأمر التالي:
lms daemon up
lms server start --port 1234
إذا كنت تستخدم التطبيق، فتأكد من تفعيل JIT للحصول على تجربة سلسة. تعرّف على المزيد في دليل JIT وTTL في LM Studio.
- إذا كانت مصادقة LM Studio مفعّلة، فاضبط
LM_API_TOKEN:
export LM_API_TOKEN="your-lm-studio-api-token"
إذا كانت مصادقة LM Studio معطّلة، يمكنك ترك مفتاح API فارغًا أثناء إعداد OpenClaw التفاعلي.
للحصول على تفاصيل إعداد مصادقة LM Studio، راجع مصادقة LM Studio.
- شغّل التهيئة الأولية واختر
LM Studio:
openclaw onboard
- في التهيئة الأولية، استخدم مطالبة
Default modelلاختيار نموذج LM Studio.
يمكنك أيضًا ضبطه أو تغييره لاحقًا:
openclaw models set lmstudio/qwen/qwen3.5-9b
تتبع مفاتيح نماذج LM Studio تنسيق author/model-name (مثل qwen/qwen3.5-9b). تضيف مراجع نماذج OpenClaw
اسم المزوّد في المقدمة: lmstudio/qwen/qwen3.5-9b. يمكنك العثور على المفتاح الدقيق
لنموذج عبر تشغيل curl http://localhost:1234/api/v1/models والنظر إلى حقل key.
التهيئة الأولية غير التفاعلية
استخدم التهيئة الأولية غير التفاعلية عندما تريد كتابة إعداد قابل للتشغيل آليًا (CI، التوفير، التمهيد عن بُعد):
openclaw onboard \
--non-interactive \
--accept-risk \
--auth-choice lmstudio
أو حدّد عنوان URL الأساسي والنموذج ومفتاح API الاختياري:
openclaw onboard \
--non-interactive \
--accept-risk \
--auth-choice lmstudio \
--custom-base-url http://localhost:1234/v1 \
--lmstudio-api-key "$LM_API_TOKEN" \
--custom-model-id qwen/qwen3.5-9b
يأخذ --custom-model-id مفتاح النموذج كما يُرجعه LM Studio (مثل qwen/qwen3.5-9b)، من دون
بادئة المزوّد lmstudio/.
لخوادم LM Studio المصادَق عليها، مرّر --lmstudio-api-key أو اضبط LM_API_TOKEN.
لخوادم LM Studio غير المصادَق عليها، احذف المفتاح؛ يخزّن OpenClaw علامة محلية غير سرية.
يبقى --custom-api-key مدعومًا للتوافق، لكن يُفضّل استخدام --lmstudio-api-key مع LM Studio.
يكتب هذا models.providers.lmstudio ويضبط النموذج الافتراضي على
lmstudio/<custom-model-id>. عند تقديم مفتاح API، يكتب الإعداد أيضًا ملف تعريف المصادقة
lmstudio:default.
يمكن للإعداد التفاعلي أن يطلب طول سياق تحميل مفضّلًا اختياريًا ويطبّقه على نماذج LM Studio المكتشفة التي يحفظها في الإعدادات.
تثق إعدادات Plugin الخاصة بـ LM Studio بنقطة نهاية LM Studio المضبوطة لطلبات النماذج، بما في ذلك مضيفو loopback وLAN وtailnet. يمكنك إلغاء ذلك عبر ضبط models.providers.lmstudio.request.allowPrivateNetwork: false.
الإعدادات
توافق استخدام البث
LM Studio متوافق مع استخدام البث. عندما لا يصدر كائن usage على شكل OpenAI،
يستعيد OpenClaw أعداد الرموز من بيانات وصفية بأسلوب llama.cpp مثل
timings.prompt_n / timings.predicted_n بدلًا من ذلك.
ينطبق سلوك استخدام البث نفسه على الخلفيات المحلية التالية المتوافقة مع OpenAI:
- vLLM
- SGLang
- llama.cpp
- LocalAI
- Jan
- TabbyAPI
- text-generation-webui
توافق التفكير
عندما يبلّغ اكتشاف /api/v1/models في LM Studio عن خيارات استدلال
خاصة بالنموذج، يعرض OpenClaw قيم reasoning_effort المتوافقة مع OpenAI
المطابقة في بيانات توافق النموذج الوصفية. يمكن لإصدارات LM Studio الحالية الإعلان عن خيارات UI ثنائية
مثل allowed_options: ["off", "on"] بينما ترفض هذه القيم
على /v1/chat/completions؛ يطبّع OpenClaw شكل الاكتشاف الثنائي هذا إلى
none وminimal وlow وmedium وhigh وxhigh قبل إرسال الطلبات.
تُطبّع إعدادات LM Studio القديمة المحفوظة التي تحتوي على خرائط استدلال off/on
بالطريقة نفسها عند تحميل الكتالوج.
إعداد صريح
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
models: [
{
id: "qwen/qwen3-coder-next",
name: "Qwen 3 Coder Next",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
استكشاف الأخطاء وإصلاحها
لم يتم اكتشاف LM Studio
تأكد من أن LM Studio قيد التشغيل. إذا كانت المصادقة مفعّلة، فاضبط أيضًا LM_API_TOKEN:
# Start via desktop app, or headless:
lms server start --port 1234
تحقق من إمكانية الوصول إلى API:
curl http://localhost:1234/api/v1/models
أخطاء المصادقة (HTTP 401)
إذا أبلغ الإعداد عن HTTP 401، فتحقق من مفتاح API لديك:
- تحقق من أن
LM_API_TOKENيطابق المفتاح المضبوط في LM Studio. - للحصول على تفاصيل إعداد مصادقة LM Studio، راجع مصادقة LM Studio.
- إذا كان خادمك لا يتطلب مصادقة، فاترك المفتاح فارغًا أثناء الإعداد.
تحميل النماذج في الوقت المناسب
يدعم LM Studio تحميل النماذج في الوقت المناسب (JIT)، حيث تُحمّل النماذج عند أول طلب. يحمّل OpenClaw النماذج مسبقًا عبر نقطة نهاية التحميل الأصلية في LM Studio افتراضيًا، مما يساعد عندما يكون JIT معطّلًا. للسماح لـ JIT في LM Studio، وTTL عند الخمول، وسلوك الإخراج التلقائي بامتلاك دورة حياة النموذج، عطّل خطوة التحميل المسبق في OpenClaw:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
api: "openai-completions",
params: { preload: false },
models: [{ id: "qwen/qwen3.5-9b" }],
},
},
},
}
مضيف LM Studio على LAN أو tailnet
استخدم العنوان القابل للوصول لمضيف LM Studio، وأبقِ /v1، وتأكد من أن LM Studio مرتبط بما يتجاوز loopback على ذلك الجهاز:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://gpu-box.local:1234/v1",
apiKey: "lmstudio",
api: "openai-completions",
models: [{ id: "qwen/qwen3.5-9b" }],
},
},
},
}
بخلاف المزوّدين العامين المتوافقين مع OpenAI، يثق lmstudio تلقائيًا بنقطة النهاية المحلية/الخاصة المضبوطة لطلبات النماذج المحمية. كما تُوثق معرّفات المزوّدين المخصصين الخاصة بـ loopback مثل localhost أو 127.0.0.1 تلقائيًا؛ بالنسبة إلى LAN أو tailnet أو معرّفات المزوّدين المخصصين عبر DNS خاص، اضبط models.providers.<id>.request.allowPrivateNetwork: true صراحةً.