Providers
SGLang
SGLang sirve modelos de pesos abiertos mediante una API HTTP compatible con OpenAI. OpenClaw se conecta a SGLang usando la familia de proveedores openai-completions con descubrimiento automático de los modelos disponibles.
| Propiedad | Valor |
|---|---|
| ID del proveedor | sglang |
| Plugin | incluido, enabledByDefault: true |
| Variable de entorno de autenticación | SGLANG_API_KEY (cualquier valor no vacío si el servidor no tiene autenticación) |
| Flag de incorporación | --auth-choice sglang |
| API | compatible con OpenAI (openai-completions) |
| URL base predeterminada | http://127.0.0.1:30000/v1 |
| Marcador de posición de modelo predeterminado | sglang/Qwen/Qwen3-8B |
| Uso de transmisión | Sí (supportsStreamingUsage: true) |
| Precios | Marcado como externo gratuito (modelPricing.external: false) |
OpenClaw también descubre automáticamente los modelos disponibles de SGLang cuando habilitas la opción con SGLANG_API_KEY y no defines una entrada explícita models.providers.sglang; consulta Descubrimiento de modelos (proveedor implícito) más abajo.
Primeros pasos
Start SGLang
Inicia SGLang con un servidor compatible con OpenAI. Tu URL base debe exponer
endpoints /v1 (por ejemplo, /v1/models, /v1/chat/completions). SGLang
suele ejecutarse en:
http://127.0.0.1:30000/v1
Set an API key
Cualquier valor funciona si no hay autenticación configurada en tu servidor:
export SGLANG_API_KEY="sglang-local"
Run onboarding or set a model directly
openclaw onboard
O configura el modelo manualmente:
{
agents: {
defaults: {
model: { primary: "sglang/your-model-id" },
},
},
}
Descubrimiento de modelos (proveedor implícito)
Cuando SGLANG_API_KEY está definido (o existe un perfil de autenticación) y no
defines models.providers.sglang, OpenClaw consultará:
GET http://127.0.0.1:30000/v1/models
y convertirá los ID devueltos en entradas de modelo.
Configuración explícita (modelos manuales)
Usa configuración explícita cuando:
- SGLang se ejecuta en otro host/puerto.
- Quieres fijar los valores de
contextWindow/maxTokens. - Tu servidor requiere una clave de API real (o quieres controlar los encabezados).
{
models: {
providers: {
sglang: {
baseUrl: "http://127.0.0.1:30000/v1",
apiKey: "${SGLANG_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-model-id",
name: "Local SGLang Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
Configuración avanzada
Proxy-style behavior
SGLang se trata como un backend /v1 compatible con OpenAI de estilo proxy, no como un
endpoint nativo de OpenAI.
| Comportamiento | SGLang |
|---|---|
| Modelado de solicitudes solo para OpenAI | No se aplica |
service_tier, store de Responses, sugerencias de caché de prompts |
No se envían |
| Modelado de payload compatible con razonamiento | No se aplica |
Encabezados de atribución ocultos (originator, version, User-Agent) |
No se inyectan en URL base personalizadas de SGLang |
Troubleshooting
No se puede acceder al servidor
Verifica que el servidor se esté ejecutando y respondiendo:
curl http://127.0.0.1:30000/v1/models
Errores de autenticación
Si las solicitudes fallan con errores de autenticación, define una SGLANG_API_KEY real que coincida
con la configuración de tu servidor, o configura el proveedor explícitamente en
models.providers.sglang.