Providers

SGLang

SGLang sirve modelos de pesos abiertos mediante una API HTTP compatible con OpenAI. OpenClaw se conecta a SGLang usando la familia de proveedores openai-completions con descubrimiento automático de los modelos disponibles.

Propiedad Valor
ID del proveedor sglang
Plugin incluido, enabledByDefault: true
Variable de entorno de autenticación SGLANG_API_KEY (cualquier valor no vacío si el servidor no tiene autenticación)
Flag de incorporación --auth-choice sglang
API compatible con OpenAI (openai-completions)
URL base predeterminada http://127.0.0.1:30000/v1
Marcador de posición de modelo predeterminado sglang/Qwen/Qwen3-8B
Uso de transmisión Sí (supportsStreamingUsage: true)
Precios Marcado como externo gratuito (modelPricing.external: false)

OpenClaw también descubre automáticamente los modelos disponibles de SGLang cuando habilitas la opción con SGLANG_API_KEY y no defines una entrada explícita models.providers.sglang; consulta Descubrimiento de modelos (proveedor implícito) más abajo.

Primeros pasos

  • Start SGLang

    Inicia SGLang con un servidor compatible con OpenAI. Tu URL base debe exponer endpoints /v1 (por ejemplo, /v1/models, /v1/chat/completions). SGLang suele ejecutarse en:

    • http://127.0.0.1:30000/v1
  • Set an API key

    Cualquier valor funciona si no hay autenticación configurada en tu servidor:

    export SGLANG_API_KEY="sglang-local"
    
  • Run onboarding or set a model directly

    openclaw onboard
    

    O configura el modelo manualmente:

    {
      agents: {
        defaults: {
          model: { primary: "sglang/your-model-id" },
        },
      },
    }
    
  • Descubrimiento de modelos (proveedor implícito)

    Cuando SGLANG_API_KEY está definido (o existe un perfil de autenticación) y no defines models.providers.sglang, OpenClaw consultará:

    • GET http://127.0.0.1:30000/v1/models

    y convertirá los ID devueltos en entradas de modelo.

    Configuración explícita (modelos manuales)

    Usa configuración explícita cuando:

    • SGLang se ejecuta en otro host/puerto.
    • Quieres fijar los valores de contextWindow/maxTokens.
    • Tu servidor requiere una clave de API real (o quieres controlar los encabezados).
    {
      models: {
        providers: {
          sglang: {
            baseUrl: "http://127.0.0.1:30000/v1",
            apiKey: "${SGLANG_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "your-model-id",
                name: "Local SGLang Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    

    Configuración avanzada

    Proxy-style behavior

    SGLang se trata como un backend /v1 compatible con OpenAI de estilo proxy, no como un endpoint nativo de OpenAI.

    Comportamiento SGLang
    Modelado de solicitudes solo para OpenAI No se aplica
    service_tier, store de Responses, sugerencias de caché de prompts No se envían
    Modelado de payload compatible con razonamiento No se aplica
    Encabezados de atribución ocultos (originator, version, User-Agent) No se inyectan en URL base personalizadas de SGLang
    Troubleshooting

    No se puede acceder al servidor

    Verifica que el servidor se esté ejecutando y respondiendo:

    curl http://127.0.0.1:30000/v1/models
    

    Errores de autenticación

    Si las solicitudes fallan con errores de autenticación, define una SGLANG_API_KEY real que coincida con la configuración de tu servidor, o configura el proveedor explícitamente en models.providers.sglang.

    Relacionado