快速开始
SGLang
SGLang 通过兼容 OpenAI 的 HTTP API 提供开放权重模型服务。OpenClaw 使用 openai-completions 提供商系列连接到 SGLang,并自动发现可用模型。
| 属性 | 值 |
|---|---|
| 提供商 ID | sglang |
| 插件 | 内置,enabledByDefault: true |
| 认证环境变量 | SGLANG_API_KEY(如果服务器没有认证,任意非空值均可) |
| 新手引导标志 | --auth-choice sglang |
| API | 兼容 OpenAI(openai-completions) |
| 默认基础 URL | http://127.0.0.1:30000/v1 |
| 默认模型占位符 | sglang/Qwen/Qwen3-8B |
| 流式传输用量 | 是(supportsStreamingUsage: true) |
| 定价 | 标记为外部免费(modelPricing.external: false) |
当你通过 SGLANG_API_KEY 选择启用,并且没有定义显式的 models.providers.sglang 条目时,OpenClaw 还会从 SGLang 自动发现可用模型。请参阅下方的模型发现(隐式提供商)。
入门指南
启动 SGLang
使用兼容 OpenAI 的服务器启动 SGLang。你的基础 URL 应公开
/v1 端点(例如 /v1/models、/v1/chat/completions)。SGLang
通常运行在:
http://127.0.0.1:30000/v1
设置 API key
如果你的服务器未配置认证,任意值都可以:
export SGLANG_API_KEY="sglang-local"
运行新手引导或直接设置模型
openclaw onboard
或者手动配置模型:
{
agents: {
defaults: {
model: { primary: "sglang/your-model-id" },
},
},
}
模型发现(隐式提供商)
当设置了 SGLANG_API_KEY(或存在认证配置档案),并且你没有
定义 models.providers.sglang 时,OpenClaw 将查询:
GET http://127.0.0.1:30000/v1/models
并将返回的 ID 转换为模型条目。
显式配置(手动模型)
在以下情况下使用显式配置:
- SGLang 运行在不同的主机/端口。
- 你想固定
contextWindow/maxTokens值。 - 你的服务器需要真实的 API key(或你想控制标头)。
{
models: {
providers: {
sglang: {
baseUrl: "http://127.0.0.1:30000/v1",
apiKey: "${SGLANG_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-model-id",
name: "Local SGLang Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
高级配置
代理式行为
SGLang 被视为代理式的兼容 OpenAI /v1 后端,而不是
原生 OpenAI 端点。
| 行为 | SGLang |
|---|---|
| 仅适用于 OpenAI 的请求塑形 | 不应用 |
service_tier、Responses store、提示缓存提示 |
不发送 |
| 推理兼容载荷塑形 | 不应用 |
隐藏归因标头(originator、version、User-Agent) |
在自定义 SGLang 基础 URL 上不注入 |
故障排除
无法访问服务器
验证服务器正在运行并响应:
curl http://127.0.0.1:30000/v1/models
认证错误
如果请求因认证错误而失败,请设置与你的服务器配置匹配的真实
SGLANG_API_KEY,或在 models.providers.sglang 下显式配置
提供商。