Providers

SGLang

SGLang serve modelli a pesi aperti tramite un'API HTTP compatibile con OpenAI. OpenClaw si connette a SGLang usando la famiglia di provider openai-completions con rilevamento automatico dei modelli disponibili.

Proprietà Valore
ID provider sglang
Plugin in bundle, enabledByDefault: true
Variabile env di auth SGLANG_API_KEY (qualsiasi valore non vuoto se il server non ha auth)
Flag di onboarding --auth-choice sglang
API compatibile con OpenAI (openai-completions)
URL base predefinito http://127.0.0.1:30000/v1
Segnaposto modello predefinito sglang/Qwen/Qwen3-8B
Utilizzo dello streaming Sì (supportsStreamingUsage: true)
Prezzi Contrassegnato come gratuito esterno (modelPricing.external: false)

OpenClaw inoltre rileva automaticamente i modelli disponibili da SGLang quando abiliti l'opzione con SGLANG_API_KEY e non definisci una voce esplicita models.providers.sglang — consulta Rilevamento dei modelli (provider implicito) sotto.

Per iniziare

  • Avvia SGLang

    Avvia SGLang con un server compatibile con OpenAI. Il tuo URL base deve esporre endpoint /v1 (per esempio /v1/models, /v1/chat/completions). SGLang di solito è in esecuzione su:

    • http://127.0.0.1:30000/v1
  • Imposta una chiave API

    Qualsiasi valore funziona se sul tuo server non è configurata auth:

    export SGLANG_API_KEY="sglang-local"
    
  • Esegui l'onboarding o imposta direttamente un modello

    openclaw onboard
    

    Oppure configura il modello manualmente:

    {
      agents: {
        defaults: {
          model: { primary: "sglang/your-model-id" },
        },
      },
    }
    
  • Rilevamento dei modelli (provider implicito)

    Quando SGLANG_API_KEY è impostata (o esiste un profilo auth) e non definisci models.providers.sglang, OpenClaw eseguirà la query:

    • GET http://127.0.0.1:30000/v1/models

    e convertirà gli ID restituiti in voci di modello.

    Configurazione esplicita (modelli manuali)

    Usa una configurazione esplicita quando:

    • SGLang è in esecuzione su host/porta diversi.
    • Vuoi fissare i valori contextWindow/maxTokens.
    • Il tuo server richiede una vera chiave API (o vuoi controllare gli header).
    {
      models: {
        providers: {
          sglang: {
            baseUrl: "http://127.0.0.1:30000/v1",
            apiKey: "${SGLANG_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "your-model-id",
                name: "Local SGLang Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    

    Configurazione avanzata

    Comportamento in stile proxy

    SGLang viene trattato come backend /v1 in stile proxy compatibile con OpenAI, non come endpoint OpenAI nativo.

    Comportamento SGLang
    Modellazione delle richieste solo OpenAI Non applicata
    service_tier, Responses store, suggerimenti prompt-cache Non inviati
    Modellazione del payload compatibile con reasoning Non applicata
    Header di attribuzione nascosti (originator, version, User-Agent) Non iniettati su URL base SGLang personalizzati
    Risoluzione dei problemi

    Server non raggiungibile

    Verifica che il server sia in esecuzione e risponda:

    curl http://127.0.0.1:30000/v1/models
    

    Errori di auth

    Se le richieste falliscono con errori di auth, imposta una vera SGLANG_API_KEY che corrisponda alla configurazione del tuo server, oppure configura il provider esplicitamente sotto models.providers.sglang.

    Correlati