Providers
LiteLLM
LiteLLM یک Gateway متنباز برای LLM است که یک API یکپارچه برای بیش از ۱۰۰ ارائهدهندهٔ مدل فراهم میکند. OpenClaw را از طریق LiteLLM مسیریابی کنید تا ردیابی هزینهٔ متمرکز، ثبت گزارش، و انعطافپذیری برای جابهجایی backendها بدون تغییر config OpenClaw را داشته باشید.
شروع سریع
Onboarding (recommended)
بهترین برای: سریعترین مسیر برای راهاندازی عملی LiteLLM.
Run onboarding
openclaw onboard --auth-choice litellm-api-key
برای راهاندازی غیرتعاملی در برابر یک proxy راهدور، URL مربوط به proxy را صریحاً پاس دهید:
openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
Manual setup
بهترین برای: کنترل کامل روی نصب و config.
Start LiteLLM Proxy
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
Point OpenClaw to LiteLLM
export LITELLM_API_KEY="your-litellm-key"
openclaw
همین است. OpenClaw اکنون از طریق LiteLLM مسیریابی میشود.
پیکربندی
متغیرهای محیطی
export LITELLM_API_KEY="sk-litellm-key"
فایل config
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
پیکربندی پیشرفته
تولید تصویر
LiteLLM میتواند از ابزار image_generate نیز از طریق مسیرهای سازگار با OpenAI یعنی
/images/generations و /images/edits پشتیبانی کند. یک مدل تصویر LiteLLM را زیر
agents.defaults.imageGenerationModel پیکربندی کنید:
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
},
},
},
agents: {
defaults: {
imageGenerationModel: {
primary: "litellm/gpt-image-2",
timeoutMs: 180_000,
},
},
},
}
URLهای LiteLLM از نوع loopback مانند http://localhost:4000 بدون override سراسری
شبکهٔ خصوصی کار میکنند. برای proxy میزبانیشده روی LAN،
models.providers.litellm.request.allowPrivateNetwork: true را تنظیم کنید، چون API key
به میزبان proxy پیکربندیشده ارسال خواهد شد.
Virtual keys
برای OpenClaw یک کلید اختصاصی با سقف هزینه بسازید:
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
از کلید تولیدشده بهعنوان LITELLM_API_KEY استفاده کنید.
Model routing
LiteLLM میتواند درخواستهای مدل را به backendهای مختلف مسیریابی کند. در config.yaml مربوط به LiteLLM پیکربندی کنید:
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClaw همچنان claude-opus-4-6 را درخواست میکند — LiteLLM مسیریابی را انجام میدهد.
Viewing usage
داشبورد یا API مربوط به LiteLLM را بررسی کنید:
# Key info
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Spend logs
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
Proxy behavior notes
- LiteLLM بهطور پیشفرض روی
http://localhost:4000اجرا میشود - OpenClaw از طریق endpoint سازگار با OpenAI و proxy-style مربوط به LiteLLM یعنی
/v1وصل میشود - شکلدهی درخواست مخصوص OpenAI بومی از طریق LiteLLM اعمال نمیشود:
نه
service_tier، نه Responsesstore، نه راهنماییهای prompt-cache، و نه شکلدهی payload سازگاری reasoning مربوط به OpenAI - هدرهای attribution پنهان OpenClaw (
originator،version،User-Agent) روی URLهای پایهٔ سفارشی LiteLLM تزریق نمیشوند