Providers

SGLang

SGLang, açık ağırlıklı modelleri OpenAI uyumlu bir HTTP API üzerinden sunar. OpenClaw, kullanılabilir modellerin otomatik keşfiyle openai-completions sağlayıcı ailesini kullanarak SGLang’e bağlanır.

Özellik Değer
Sağlayıcı kimliği sglang
Plugin paketle birlikte gelir, enabledByDefault: true
Kimlik doğrulama ortam değişkeni SGLANG_API_KEY (sunucuda kimlik doğrulama yoksa boş olmayan herhangi bir değer)
İlk kurulum bayrağı --auth-choice sglang
API OpenAI uyumlu (openai-completions)
Varsayılan temel URL http://127.0.0.1:30000/v1
Varsayılan model yer tutucusu sglang/Qwen/Qwen3-8B
Akış kullanım bilgisi Evet (supportsStreamingUsage: true)
Fiyatlandırma harici ücretsiz olarak işaretli (modelPricing.external: false)

OpenClaw ayrıca SGLANG_API_KEY ile dahil olduğunuzda ve açık bir models.providers.sglang girdisi tanımlamadığınızda SGLang’den kullanılabilir modelleri otomatik olarak keşfeder — aşağıdaki Model keşfi (örtük sağlayıcı) bölümüne bakın.

Başlarken

  • SGLang’i başlat

    SGLang’i OpenAI uyumlu bir sunucuyla başlatın. Temel URL’niz /v1 uç noktalarını açığa çıkarmalıdır (örneğin /v1/models, /v1/chat/completions). SGLang genellikle şurada çalışır:

    • http://127.0.0.1:30000/v1
  • Bir API anahtarı ayarla

    Sunucunuzda kimlik doğrulama yapılandırılmadıysa herhangi bir değer çalışır:

    export SGLANG_API_KEY="sglang-local"
    
  • İlk kurulumu çalıştır veya doğrudan bir model ayarla

    openclaw onboard
    

    Veya modeli elle yapılandırın:

    {
      agents: {
        defaults: {
          model: { primary: "sglang/your-model-id" },
        },
      },
    }
    
  • Model keşfi (örtük sağlayıcı)

    SGLANG_API_KEY ayarlandığında (veya bir kimlik doğrulama profili mevcut olduğunda) ve models.providers.sglang tanımlamadığınızda, OpenClaw şunu sorgular:

    • GET http://127.0.0.1:30000/v1/models

    ve döndürülen kimlikleri model girdilerine dönüştürür.

    Açık yapılandırma (elle modeller)

    Şu durumlarda açık yapılandırma kullanın:

    • SGLang farklı bir ana makine/bağlantı noktasında çalışıyorsa.
    • contextWindow/maxTokens değerlerini sabitlemek istiyorsanız.
    • Sunucunuz gerçek bir API anahtarı gerektiriyorsa (veya üst bilgileri denetlemek istiyorsanız).
    {
      models: {
        providers: {
          sglang: {
            baseUrl: "http://127.0.0.1:30000/v1",
            apiKey: "${SGLANG_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "your-model-id",
                name: "Local SGLang Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    

    Gelişmiş yapılandırma

    Proxy tarzı davranış

    SGLang, yerel bir OpenAI uç noktası olarak değil, proxy tarzı OpenAI uyumlu bir /v1 arka ucu olarak ele alınır.

    Davranış SGLang
    Yalnızca OpenAI’ye özgü istek şekillendirme Uygulanmaz
    service_tier, Responses store, prompt-cache ipuçları Gönderilmez
    Akıl yürütme uyumlu yük şekillendirme Uygulanmaz
    Gizli atıf üst bilgileri (originator, version, User-Agent) Özel SGLang temel URL’lerinde eklenmez
    Sorun giderme

    Sunucuya ulaşılamıyor

    Sunucunun çalıştığını ve yanıt verdiğini doğrulayın:

    curl http://127.0.0.1:30000/v1/models
    

    Kimlik doğrulama hataları

    İstekler kimlik doğrulama hatalarıyla başarısız olursa sunucu yapılandırmanızla eşleşen gerçek bir SGLANG_API_KEY ayarlayın veya sağlayıcıyı models.providers.sglang altında açıkça yapılandırın.

    İlgili