Providers
vLLM
vLLM có thể phục vụ các mô hình mã nguồn mở (và một số mô hình tùy chỉnh) qua API HTTP tương thích OpenAI. OpenClaw kết nối với vLLM bằng API openai-completions.
OpenClaw cũng có thể tự động phát hiện các mô hình có sẵn từ vLLM khi bạn chọn tham gia bằng VLLM_API_KEY (giá trị bất kỳ đều dùng được nếu máy chủ của bạn không bắt buộc xác thực) và bạn không định nghĩa mục models.providers.vllm rõ ràng.
OpenClaw xem vllm là một nhà cung cấp cục bộ tương thích OpenAI hỗ trợ
hạch toán mức sử dụng dạng phát trực tuyến, nên số lượng token trạng thái/ngữ cảnh có thể cập nhật từ
các phản hồi stream_options.include_usage.
| Thuộc tính | Giá trị |
|---|---|
| ID nhà cung cấp | vllm |
| API | openai-completions (tương thích OpenAI) |
| Xác thực | Biến môi trường VLLM_API_KEY |
| URL cơ sở mặc định | http://127.0.0.1:8000/v1 |
Bắt đầu
Start vLLM with an OpenAI-compatible server
URL cơ sở của bạn nên cung cấp các điểm cuối /v1 (ví dụ: /v1/models, /v1/chat/completions). vLLM thường chạy tại:
http://127.0.0.1:8000/v1
Set the API key environment variable
Giá trị bất kỳ đều dùng được nếu máy chủ của bạn không bắt buộc xác thực:
export VLLM_API_KEY="vllm-local"
Select a model
Thay bằng một trong các ID mô hình vLLM của bạn:
{
agents: {
defaults: {
model: { primary: "vllm/your-model-id" },
},
},
}
Verify the model is available
openclaw models list --provider vllm
Phát hiện mô hình (nhà cung cấp ngầm định)
Khi VLLM_API_KEY được đặt (hoặc có hồ sơ xác thực) và bạn không định nghĩa models.providers.vllm, OpenClaw truy vấn:
GET http://127.0.0.1:8000/v1/models
và chuyển đổi các ID trả về thành các mục mô hình.
Cấu hình rõ ràng (mô hình thủ công)
Dùng cấu hình rõ ràng khi:
- vLLM chạy trên máy chủ hoặc cổng khác
- Bạn muốn ghim các giá trị
contextWindowhoặcmaxTokens - Máy chủ của bạn yêu cầu khóa API thật (hoặc bạn muốn kiểm soát header)
- Bạn kết nối tới một điểm cuối vLLM loopback, LAN hoặc Tailscale đáng tin cậy
{
models: {
providers: {
vllm: {
baseUrl: "http://127.0.0.1:8000/v1",
apiKey: "${VLLM_API_KEY}",
api: "openai-completions",
request: { allowPrivateNetwork: true },
timeoutSeconds: 300, // Optional: extend connect/header/body/request timeout for slow local models
models: [
{
id: "your-model-id",
name: "Local vLLM Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
Cấu hình nâng cao
Proxy-style behavior
vLLM được xem là backend /v1 tương thích OpenAI kiểu proxy, không phải điểm cuối
OpenAI gốc. Điều này có nghĩa là:
| Hành vi | Áp dụng? |
|---|---|
| Định hình yêu cầu OpenAI gốc | Không |
service_tier |
Không gửi |
Responses store |
Không gửi |
| Gợi ý prompt-cache | Không gửi |
| Định hình payload tương thích suy luận OpenAI | Không áp dụng |
| Header ghi nhận OpenClaw ẩn | Không chèn vào URL cơ sở tùy chỉnh |
Qwen thinking controls
Với các mô hình Qwen được phục vụ qua vLLM, đặt
params.qwenThinkingFormat: "chat-template" trên mục mô hình khi
máy chủ kỳ vọng kwargs mẫu chat của Qwen. OpenClaw ánh xạ /think off thành:
{
"chat_template_kwargs": {
"enable_thinking": false,
"preserve_thinking": true
}
}
Các mức suy nghĩ không phải off gửi enable_thinking: true. Nếu điểm cuối của bạn
kỳ vọng các cờ cấp cao kiểu DashScope thay vào đó, hãy dùng
params.qwenThinkingFormat: "top-level" để gửi enable_thinking ở gốc
yêu cầu. Snake-case params.qwen_thinking_format cũng được chấp nhận.
Nemotron 3 thinking controls
vLLM/Nemotron 3 có thể dùng kwargs mẫu chat để kiểm soát việc suy luận được
trả về dưới dạng suy luận ẩn hay văn bản câu trả lời hiển thị. Khi một phiên OpenClaw
dùng vllm/nemotron-3-* với suy nghĩ tắt, Plugin vLLM đi kèm sẽ gửi:
{
"chat_template_kwargs": {
"enable_thinking": false,
"force_nonempty_content": true
}
}
Để tùy chỉnh các giá trị này, đặt chat_template_kwargs dưới params của mô hình.
Nếu bạn cũng đặt params.extra_body.chat_template_kwargs, giá trị đó có
mức ưu tiên cuối cùng vì extra_body là phần ghi đè thân yêu cầu cuối cùng.
{
agents: {
defaults: {
models: {
"vllm/nemotron-3-super": {
params: {
chat_template_kwargs: {
enable_thinking: false,
force_nonempty_content: true,
},
},
},
},
},
},
}
Qwen tool calls appear as text
Trước tiên hãy đảm bảo vLLM đã được khởi động với bộ phân tích lệnh gọi công cụ và mẫu chat
phù hợp cho mô hình. Ví dụ, vLLM ghi tài liệu hermes cho các mô hình Qwen2.5
và qwen3_xml cho các mô hình Qwen3-Coder.
Triệu chứng:
- Skills hoặc công cụ không bao giờ chạy
- trợ lý in JSON/XML thô như
{"name":"read","arguments":...} - vLLM trả về một mảng
tool_callstrống khi OpenClaw gửitool_choice: "auto"
Một số tổ hợp Qwen/vLLM chỉ trả về lệnh gọi công cụ có cấu trúc khi
yêu cầu dùng tool_choice: "required". Với các mục mô hình đó, hãy buộc
trường yêu cầu tương thích OpenAI bằng params.extra_body:
{
agents: {
defaults: {
models: {
"vllm/Qwen-Qwen2.5-Coder-32B-Instruct": {
params: {
extra_body: {
tool_choice: "required",
},
},
},
},
},
},
}
Thay Qwen-Qwen2.5-Coder-32B-Instruct bằng id chính xác được trả về bởi:
openclaw models list --provider vllm
Bạn có thể áp dụng cùng ghi đè từ CLI:
openclaw config set agents.defaults.models '{"vllm/Qwen-Qwen2.5-Coder-32B-Instruct":{"params":{"extra_body":{"tool_choice":"required"}}}}' --strict-json --merge
Đây là một giải pháp tương thích cần chọn tham gia. Nó khiến mọi lượt mô hình có công cụ đều yêu cầu một lệnh gọi công cụ, vì vậy chỉ dùng cho một mục mô hình cục bộ chuyên dụng khi hành vi đó chấp nhận được. Không dùng nó làm mặc định toàn cục cho tất cả mô hình vLLM, và không dùng proxy chuyển đổi mù quáng văn bản trợ lý bất kỳ thành lệnh gọi công cụ có thể thực thi.
Custom base URL
Nếu máy chủ vLLM của bạn chạy trên máy chủ hoặc cổng không mặc định, đặt baseUrl trong cấu hình nhà cung cấp rõ ràng:
{
models: {
providers: {
vllm: {
baseUrl: "http://192.168.1.50:9000/v1",
apiKey: "${VLLM_API_KEY}",
api: "openai-completions",
request: { allowPrivateNetwork: true },
timeoutSeconds: 300,
models: [
{
id: "my-custom-model",
name: "Remote vLLM Model",
reasoning: false,
input: ["text"],
contextWindow: 64000,
maxTokens: 4096,
},
],
},
},
},
}
Khắc phục sự cố
Slow first response or remote server timeout
Với các mô hình cục bộ lớn, máy chủ LAN từ xa, hoặc liên kết tailnet, hãy đặt thời gian chờ yêu cầu theo phạm vi nhà cung cấp:
{
models: {
providers: {
vllm: {
baseUrl: "http://192.168.1.50:8000/v1",
apiKey: "${VLLM_API_KEY}",
api: "openai-completions",
request: { allowPrivateNetwork: true },
timeoutSeconds: 300,
models: [{ id: "your-model-id", name: "Local vLLM Model" }],
},
},
},
}
timeoutSeconds chỉ áp dụng cho các yêu cầu HTTP mô hình vLLM, bao gồm
thiết lập kết nối, header phản hồi, phát trực tuyến thân phản hồi và tổng
thao tác hủy guarded-fetch. Nên dùng cách này trước khi tăng
agents.defaults.timeoutSeconds, vốn kiểm soát toàn bộ lần chạy tác tử.
Server not reachable
Kiểm tra máy chủ vLLM đang chạy và có thể truy cập:
curl http://127.0.0.1:8000/v1/models
Nếu bạn thấy lỗi kết nối, hãy xác minh máy chủ, cổng, và vLLM đã khởi động với chế độ máy chủ tương thích OpenAI.
Với các điểm cuối loopback, LAN hoặc Tailscale rõ ràng, cũng đặt
models.providers.vllm.request.allowPrivateNetwork: true; các yêu cầu của nhà cung cấp
mặc định chặn URL mạng riêng trừ khi nhà cung cấp được
tin cậy rõ ràng.
Auth errors on requests
Nếu yêu cầu thất bại với lỗi xác thực, hãy đặt VLLM_API_KEY thật khớp với cấu hình máy chủ của bạn, hoặc cấu hình nhà cung cấp rõ ràng dưới models.providers.vllm.
No models discovered
Tự động phát hiện yêu cầu VLLM_API_KEY được đặt và không có mục cấu hình models.providers.vllm rõ ràng. Nếu bạn đã định nghĩa nhà cung cấp thủ công, OpenClaw bỏ qua phát hiện và chỉ dùng các mô hình bạn đã khai báo.
Tools render as raw text
Nếu một mô hình Qwen in cú pháp công cụ JSON/XML thay vì thực thi một skill, hãy kiểm tra hướng dẫn Qwen trong phần Cấu hình nâng cao ở trên. Cách sửa thường là:
- khởi động vLLM với parser/template chính xác cho mô hình đó
- xác nhận id mô hình chính xác bằng
openclaw models list --provider vllm - thêm ghi đè
params.extra_body.tool_choice: "required"riêng cho từng mô hình chỉ khitool_choice: "auto"vẫn trả về lệnh gọi công cụ rỗng hoặc chỉ dạng văn bản