Providers
SGLang
SGLang serve modelli a pesi aperti tramite un'API HTTP compatibile con OpenAI. OpenClaw si connette a SGLang usando la famiglia di provider openai-completions con rilevamento automatico dei modelli disponibili.
| Proprietà | Valore |
|---|---|
| ID provider | sglang |
| Plugin | in bundle, enabledByDefault: true |
| Variabile env di auth | SGLANG_API_KEY (qualsiasi valore non vuoto se il server non ha auth) |
| Flag di onboarding | --auth-choice sglang |
| API | compatibile con OpenAI (openai-completions) |
| URL base predefinito | http://127.0.0.1:30000/v1 |
| Segnaposto modello predefinito | sglang/Qwen/Qwen3-8B |
| Utilizzo dello streaming | Sì (supportsStreamingUsage: true) |
| Prezzi | Contrassegnato come gratuito esterno (modelPricing.external: false) |
OpenClaw inoltre rileva automaticamente i modelli disponibili da SGLang quando abiliti l'opzione con SGLANG_API_KEY e non definisci una voce esplicita models.providers.sglang — consulta Rilevamento dei modelli (provider implicito) sotto.
Per iniziare
Avvia SGLang
Avvia SGLang con un server compatibile con OpenAI. Il tuo URL base deve esporre
endpoint /v1 (per esempio /v1/models, /v1/chat/completions). SGLang
di solito è in esecuzione su:
http://127.0.0.1:30000/v1
Imposta una chiave API
Qualsiasi valore funziona se sul tuo server non è configurata auth:
export SGLANG_API_KEY="sglang-local"
Esegui l'onboarding o imposta direttamente un modello
openclaw onboard
Oppure configura il modello manualmente:
{
agents: {
defaults: {
model: { primary: "sglang/your-model-id" },
},
},
}
Rilevamento dei modelli (provider implicito)
Quando SGLANG_API_KEY è impostata (o esiste un profilo auth) e non
definisci models.providers.sglang, OpenClaw eseguirà la query:
GET http://127.0.0.1:30000/v1/models
e convertirà gli ID restituiti in voci di modello.
Configurazione esplicita (modelli manuali)
Usa una configurazione esplicita quando:
- SGLang è in esecuzione su host/porta diversi.
- Vuoi fissare i valori
contextWindow/maxTokens. - Il tuo server richiede una vera chiave API (o vuoi controllare gli header).
{
models: {
providers: {
sglang: {
baseUrl: "http://127.0.0.1:30000/v1",
apiKey: "${SGLANG_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-model-id",
name: "Local SGLang Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
Configurazione avanzata
Comportamento in stile proxy
SGLang viene trattato come backend /v1 in stile proxy compatibile con OpenAI, non come
endpoint OpenAI nativo.
| Comportamento | SGLang |
|---|---|
| Modellazione delle richieste solo OpenAI | Non applicata |
service_tier, Responses store, suggerimenti prompt-cache |
Non inviati |
| Modellazione del payload compatibile con reasoning | Non applicata |
Header di attribuzione nascosti (originator, version, User-Agent) |
Non iniettati su URL base SGLang personalizzati |
Risoluzione dei problemi
Server non raggiungibile
Verifica che il server sia in esecuzione e risponda:
curl http://127.0.0.1:30000/v1/models
Errori di auth
Se le richieste falliscono con errori di auth, imposta una vera SGLANG_API_KEY che corrisponda
alla configurazione del tuo server, oppure configura il provider esplicitamente sotto
models.providers.sglang.