Concepts and configuration
Proveedores de modelos
Referencia para proveedores de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulta Modelos.
Reglas rápidas
Referencias de modelos y ayudantes de CLI
- Las referencias de modelos usan
provider/model(ejemplo:opencode/claude-opus-4-6). agents.defaults.modelsactúa como una lista de permitidos cuando está configurado.- Ayudantes de CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. models.providers.*.contextWindow/contextTokens/maxTokensestablecen valores predeterminados a nivel de proveedor;models.providers.*.models[].contextWindow/contextTokens/maxTokenslos sobrescriben por modelo.- Reglas de respaldo, sondeos de enfriamiento y persistencia de sobrescrituras de sesión: Conmutación por error de modelos.
Agregar autenticación de proveedor no cambia tu modelo principal
openclaw configure conserva un agents.defaults.model.primary existente cuando agregas o reautenticas un proveedor. Los plugins de proveedor aún pueden devolver un modelo predeterminado recomendado en su parche de configuración de autenticación, pero configure trata eso como "hacer que este modelo esté disponible" cuando ya existe un modelo principal, no como "reemplazar el modelo principal actual".
Para cambiar intencionalmente el modelo predeterminado, usa openclaw models set <provider/model> o openclaw models auth login --provider <id> --set-default.
Separación entre proveedor y runtime de OpenAI
Las rutas de la familia OpenAI son específicas por prefijo:
openai/<model>másagents.defaults.agentRuntime.id: "codex"usa el arnés nativo de servidor de aplicación de Codex. Esta es la configuración habitual de suscripción a ChatGPT/Codex.openai-codex/<model>usa OAuth de Codex en PI.openai/<model>sin una sobrescritura de runtime de Codex usa el proveedor directo de clave de API de OpenAI en PI.
Consulta OpenAI y arnés de Codex. Si la separación entre proveedor y runtime resulta confusa, lee primero Runtimes de agente.
La activación automática de plugins sigue el mismo límite: openai-codex/<model> pertenece al plugin de OpenAI, mientras que el plugin de Codex se activa mediante agentRuntime.id: "codex" o referencias heredadas codex/<model>.
GPT-5.5 está disponible mediante el arnés nativo de servidor de aplicación de Codex cuando agentRuntime.id: "codex" está configurado, mediante openai-codex/gpt-5.5 en PI para OAuth de Codex, y mediante openai/gpt-5.5 en PI para tráfico directo con clave de API cuando tu cuenta lo expone.
Runtimes de CLI
Los runtimes de CLI usan la misma separación: elige referencias de modelo canónicas como anthropic/claude-*, google/gemini-* u openai/gpt-*, y luego establece agents.defaults.agentRuntime.id en claude-cli, google-gemini-cli o codex-cli cuando quieras un backend de CLI local.
Las referencias heredadas claude-cli/*, google-gemini-cli/* y codex-cli/* migran de vuelta a referencias de proveedor canónicas con el runtime registrado por separado.
Comportamiento de proveedor propiedad del plugin
La mayor parte de la lógica específica del proveedor vive en plugins de proveedor (registerProvider(...)), mientras OpenClaw mantiene el bucle de inferencia genérico. Los plugins son propietarios de la incorporación, los catálogos de modelos, el mapeo de variables de entorno de autenticación, la normalización de transporte/configuración, la limpieza de esquemas de herramientas, la clasificación de conmutación por error, la actualización de OAuth, los informes de uso, los perfiles de pensamiento/razonamiento y más.
La lista completa de hooks del SDK de proveedor y ejemplos de plugins incluidos está en Plugins de proveedor. Un proveedor que necesita un ejecutor de solicitudes totalmente personalizado es una superficie de extensión separada y más profunda.
Rotación de claves de API
Fuentes y prioridad de claves
Configura varias claves mediante:
OPENCLAW_LIVE_<PROVIDER>_KEY(sobrescritura activa única, prioridad más alta)<PROVIDER>_API_KEYS(lista separada por comas o punto y coma)<PROVIDER>_API_KEY(clave principal)<PROVIDER>_API_KEY_*(lista numerada, por ejemplo<PROVIDER>_API_KEY_1)
Para proveedores de Google, GOOGLE_API_KEY también se incluye como respaldo. El orden de selección de claves conserva la prioridad y elimina valores duplicados.
Cuándo entra en acción la rotación
- Las solicitudes se reintentan con la siguiente clave solo ante respuestas de límite de tasa (por ejemplo
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceededo mensajes periódicos de límite de uso). - Los fallos que no sean de límite de tasa fallan inmediatamente; no se intenta ninguna rotación de claves.
- Cuando todas las claves candidatas fallan, se devuelve el error final del último intento.
Proveedores integrados (catálogo pi-ai)
OpenClaw se distribuye con el catálogo pi-ai. Estos proveedores no requieren configuración de models.providers; solo configura la autenticación y elige un modelo.
OpenAI
- Proveedor:
openai - Autenticación:
OPENAI_API_KEY - Rotación opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, másOPENCLAW_LIVE_OPENAI_KEY(sobrescritura única) - Modelos de ejemplo:
openai/gpt-5.5,openai/gpt-5.4-mini - Verifica la disponibilidad de cuenta/modelo con
openclaw models list --provider openaisi una instalación específica o clave de API se comporta de manera diferente. - CLI:
openclaw onboard --auth-choice openai-api-key - El transporte predeterminado es
auto(WebSocket primero, respaldo SSE) - Sobrescribe por modelo mediante
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"o"auto") - El calentamiento de WebSocket de OpenAI Responses está habilitado de forma predeterminada mediante
params.openaiWsWarmup(true/false) - El procesamiento prioritario de OpenAI se puede habilitar mediante
agents.defaults.models["openai/<model>"].params.serviceTier /fastyparams.fastModeasignan solicitudes directas de Responsesopenai/*aservice_tier=priorityenapi.openai.com- Usa
params.serviceTiercuando quieras un nivel explícito en lugar del interruptor compartido/fast - Los encabezados ocultos de atribución de OpenClaw (
originator,version,User-Agent) se aplican solo en tráfico nativo de OpenAI haciaapi.openai.com, no a proxies genéricos compatibles con OpenAI - Las rutas nativas de OpenAI también conservan
storede Responses, sugerencias de caché de prompts y conformación de payload compatible con razonamiento de OpenAI; las rutas de proxy no openai/gpt-5.3-codex-sparkse suprime intencionalmente en OpenClaw porque las solicitudes activas a la API de OpenAI lo rechazan y el catálogo actual de Codex no lo expone
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- Proveedor:
anthropic - Autenticación:
ANTHROPIC_API_KEY - Rotación opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, másOPENCLAW_LIVE_ANTHROPIC_KEY(sobrescritura única) - Modelo de ejemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - Las solicitudes públicas directas de Anthropic admiten el interruptor compartido
/fastyparams.fastMode, incluido el tráfico autenticado con clave de API y OAuth enviado aapi.anthropic.com; OpenClaw lo asigna aservice_tierde Anthropic (autofrente astandard_only) - La configuración preferida de Claude CLI conserva la referencia de modelo canónica y selecciona el backend de CLI por separado:
anthropic/claude-opus-4-7conagents.defaults.agentRuntime.id: "claude-cli". Las referencias heredadasclaude-cli/claude-opus-4-7siguen funcionando por compatibilidad.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OAuth de OpenAI Codex
- Proveedor:
openai-codex - Autenticación: OAuth (ChatGPT)
- Referencia de modelo de PI:
openai-codex/gpt-5.5 - Referencia de arnés nativo de servidor de aplicación de Codex:
openai/gpt-5.5conagents.defaults.agentRuntime.id: "codex" - Documentación del arnés nativo de servidor de aplicación de Codex: arnés de Codex
- Referencias de modelos heredadas:
codex/gpt-* - Límite de plugin:
openai-codex/*carga el plugin de OpenAI; el plugin nativo de servidor de aplicación de Codex se selecciona solo mediante el runtime del arnés de Codex o referencias heredadascodex/*. - CLI:
openclaw onboard --auth-choice openai-codexoopenclaw models auth login --provider openai-codex - El transporte predeterminado es
auto(WebSocket primero, respaldo SSE) - Sobrescribe por modelo de PI mediante
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"o"auto") params.serviceTiertambién se reenvía en solicitudes nativas de Codex Responses (chatgpt.com/backend-api)- Los encabezados ocultos de atribución de OpenClaw (
originator,version,User-Agent) solo se adjuntan en tráfico nativo de Codex haciachatgpt.com/backend-api, no a proxies genéricos compatibles con OpenAI - Comparte la misma configuración de interruptor
/fastyparams.fastModequeopenai/*directo; OpenClaw lo asigna aservice_tier=priority openai-codex/gpt-5.5usa elcontextWindow = 400000nativo del catálogo de Codex y el runtime predeterminadocontextTokens = 272000; sobrescribe el límite de runtime conmodels.providers.openai-codex.models[].contextTokens- Nota de política: OAuth de OpenAI Codex es compatible explícitamente con herramientas/flujos de trabajo externos como OpenClaw.
- Para la ruta común de suscripción más runtime nativo de Codex, inicia sesión con autenticación
openai-codex, pero configuraopenai/gpt-5.5másagents.defaults.agentRuntime.id: "codex". - Usa
openai-codex/gpt-5.5solo cuando quieras la ruta OAuth/suscripción de Codex mediante PI; usaopenai/gpt-5.5sin la sobrescritura del runtime de Codex cuando tu configuración con clave de API y el catálogo local expongan la ruta de API pública. - Las referencias antiguas
openai-codex/gpt-5.1*,openai-codex/gpt-5.2*yopenai-codex/gpt-5.3*se suprimen porque las cuentas OAuth de ChatGPT/Codex las rechazan; usaopenai-codex/gpt-5.5o la ruta nativa de runtime de Codex en su lugar.
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Otras opciones alojadas con estilo de suscripción
Z.AI Coding Plan o endpoints generales de API.
OAuth de MiniMax Coding Plan o acceso con clave de API.
Superficie de proveedor de Qwen Cloud más mapeo de endpoints de Alibaba DashScope y Coding Plan.
OpenCode
- Autenticación:
OPENCODE_API_KEY(oOPENCODE_ZEN_API_KEY) - Proveedor de runtime Zen:
opencode - Proveedor de runtime Go:
opencode-go - Modelos de ejemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenoopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (clave de API)
- Proveedor:
google - Autenticación:
GEMINI_API_KEY - Rotación opcional:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, alternativaGOOGLE_API_KEYyOPENCLAW_LIVE_GEMINI_KEY(anulación única) - Modelos de ejemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidad: la configuración heredada de OpenClaw que usa
google/gemini-3.1-flash-previewse normaliza agoogle/gemini-3-flash-preview - Alias: se acepta
google/gemini-3.1-proy se normaliza al id de la API Gemini en vivo de Google,google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - Razonamiento:
/think adaptiveusa el razonamiento dinámico de Google. Gemini 3/3.1 omite unthinkingLevelfijo; Gemini 2.5 envíathinkingBudget: -1. - Las ejecuciones directas de Gemini también aceptan
agents.defaults.models["google/<model>"].params.cachedContent(o el heredadocached_content) para reenviar un identificador nativo del proveedorcachedContents/...; los aciertos de caché de Gemini aparecen comocacheReadde OpenClaw
Google Vertex y Gemini CLI
- Proveedores:
google-vertex,google-gemini-cli - Autenticación: Vertex usa ADC de gcloud; Gemini CLI usa su flujo OAuth
Gemini CLI OAuth se incluye como parte del Plugin google incluido.
Instalar Gemini CLI
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
Habilitar Plugin
openclaw plugins enable google
Iniciar sesión
openclaw models auth login --provider google-gemini-cli --set-default
Modelo predeterminado: google-gemini-cli/gemini-3-flash-preview. No pegues un id de cliente ni un secreto en openclaw.json. El flujo de inicio de sesión de CLI almacena tokens en perfiles de autenticación en el host de Gateway.
Configurar proyecto (si es necesario)
Si las solicitudes fallan después de iniciar sesión, configura GOOGLE_CLOUD_PROJECT o GOOGLE_CLOUD_PROJECT_ID en el host de Gateway.
Las respuestas JSON de Gemini CLI se analizan desde response; el uso recurre a stats, con stats.cached normalizado a cacheRead de OpenClaw.
Z.AI (GLM)
- Proveedor:
zai - Autenticación:
ZAI_API_KEY - Modelo de ejemplo:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- Alias:
z.ai/*yz-ai/*se normalizan azai/* zai-api-keydetecta automáticamente el endpoint correspondiente de Z.AI;zai-coding-global,zai-coding-cn,zai-globalyzai-cnfuerzan una superficie específica
- Alias:
Vercel AI Gateway
- Proveedor:
vercel-ai-gateway - Autenticación:
AI_GATEWAY_API_KEY - Modelos de ejemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6,vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Proveedor:
kilocode - Autenticación:
KILOCODE_API_KEY - Modelo de ejemplo:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - URL base:
https://api.kilo.ai/api/gateway/ - El catálogo alternativo estático incluye
kilocode/kilo/auto; el descubrimiento en vivo dehttps://api.kilo.ai/api/gateway/modelspuede ampliar aún más el catálogo en tiempo de ejecución. - El enrutamiento upstream exacto detrás de
kilocode/kilo/autopertenece a Kilo Gateway, no está codificado de forma rígida en OpenClaw.
Consulta /providers/kilocode para ver los detalles de configuración.
Otros Plugins de proveedor incluidos
| Proveedor | Id | Entorno de autenticación | Modelo de ejemplo |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN o HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY o KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
Peculiaridades que conviene conocer
OpenRouter
Aplica sus encabezados de atribución de app y marcadores Anthropic cache_control solo en rutas openrouter.ai verificadas. Las referencias DeepSeek, Moonshot y ZAI son aptas para cache-TTL en el almacenamiento en caché de prompts gestionado por OpenRouter, pero no reciben marcadores de caché de Anthropic. Como ruta compatible con OpenAI de estilo proxy, omite el modelado exclusivo de OpenAI nativo (serviceTier, Responses store, indicaciones de caché de prompts, compatibilidad de razonamiento de OpenAI). Las referencias respaldadas por Gemini conservan solo la limpieza de firmas de pensamiento proxy-Gemini.
Kilo Gateway
Las referencias respaldadas por Gemini siguen la misma ruta de limpieza proxy-Gemini; kilocode/kilo/auto y otras referencias proxy sin compatibilidad de razonamiento omiten la inyección de razonamiento proxy.
MiniMax
La incorporación con clave de API escribe definiciones explícitas del modelo de chat M2.7 solo de texto; la comprensión de imágenes permanece en el proveedor de medios MiniMax-VL-01, propiedad del plugin.
NVIDIA
Los id. de modelo usan un espacio de nombres nvidia/<vendor>/<model> (por ejemplo nvidia/nvidia/nemotron-... junto con nvidia/moonshotai/kimi-k2.5); los selectores preservan la composición literal <provider>/<model-id>, mientras que la clave canónica enviada a la API mantiene un único prefijo.
xAI
Usa la ruta xAI Responses. grok-4.3 es el modelo de chat predeterminado incluido. /fast o params.fastMode: true reescribe grok-3, grok-3-mini, grok-4 y grok-4-0709 a sus variantes *-fast. tool_stream está activado de forma predeterminada; desactívalo mediante agents.defaults.models["xai/<model>"].params.tool_stream=false.
Cerebras
Se distribuye como el plugin de proveedor cerebras incluido. GLM usa zai-glm-4.7; la URL base compatible con OpenAI es https://api.cerebras.ai/v1.
Proveedores mediante models.providers (personalizados/URL base)
Usa models.providers (o models.json) para añadir proveedores personalizados o proxies compatibles con OpenAI/Anthropic.
Muchos de los plugins de proveedor incluidos a continuación ya publican un catálogo predeterminado. Usa entradas explícitas de models.providers.<id> solo cuando quieras sobrescribir la URL base, los encabezados o la lista de modelos predeterminados.
Las comprobaciones de capacidad de modelos del Gateway también leen metadatos explícitos de models.providers.<id>.models[]. Si un modelo personalizado o proxy acepta imágenes, define input: ["text", "image"] en ese modelo para que WebChat y las rutas de adjuntos originadas en nodos pasen imágenes como entradas nativas del modelo en vez de referencias multimedia solo de texto.
Moonshot AI (Kimi)
Moonshot se distribuye como un plugin de proveedor incluido. Usa el proveedor integrado de forma predeterminada y añade una entrada explícita models.providers.moonshot solo cuando necesites sobrescribir la URL base o los metadatos del modelo:
- Proveedor:
moonshot - Autenticación:
MOONSHOT_API_KEY - Modelo de ejemplo:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyoopenclaw onboard --auth-choice moonshot-api-key-cn
Id. de modelo Kimi K2:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Programación con Kimi
Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:
- Proveedor:
kimi - Autenticación:
KIMI_API_KEY - Modelo de ejemplo:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
Legacy kimi/k2p5 sigue aceptándose como id de modelo de compatibilidad.
Volcano Engine (Doubao)
Volcano Engine (火山引擎) proporciona acceso a Doubao y otros modelos en China.
- Proveedor:
volcengine(codificación:volcengine-plan) - Autenticación:
VOLCANO_ENGINE_API_KEY - Modelo de ejemplo:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
La incorporación usa de forma predeterminada la superficie de codificación, pero el catálogo general volcengine/* se registra al mismo tiempo.
En los selectores de modelos de incorporación/configuración, la opción de autenticación de Volcengine prefiere tanto las filas volcengine/* como volcengine-plan/*. Si esos modelos aún no están cargados, OpenClaw recurre al catálogo sin filtrar en lugar de mostrar un selector vacío limitado al proveedor.
Modelos estándar
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Modelos de codificación (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internacional)
BytePlus ARK proporciona acceso a los mismos modelos que Volcano Engine para usuarios internacionales.
- Proveedor:
byteplus(codificación:byteplus-plan) - Autenticación:
BYTEPLUS_API_KEY - Modelo de ejemplo:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
La incorporación usa de forma predeterminada la superficie de codificación, pero el catálogo general byteplus/* se registra al mismo tiempo.
En los selectores de modelos de incorporación/configuración, la opción de autenticación de BytePlus prefiere tanto las filas byteplus/* como byteplus-plan/*. Si esos modelos aún no están cargados, OpenClaw recurre al catálogo sin filtrar en lugar de mostrar un selector vacío limitado al proveedor.
Modelos estándar
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Modelos de codificación (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic proporciona modelos compatibles con Anthropic detrás del proveedor synthetic:
- Proveedor:
synthetic - Autenticación:
SYNTHETIC_API_KEY - Modelo de ejemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax se configura mediante models.providers porque usa endpoints personalizados:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - Clave de API de MiniMax (Global):
--auth-choice minimax-global-api - Clave de API de MiniMax (CN):
--auth-choice minimax-cn-api - Autenticación:
MINIMAX_API_KEYparaminimax;MINIMAX_OAUTH_TOKENoMINIMAX_API_KEYparaminimax-portal
Consulta /providers/minimax para ver detalles de configuración, opciones de modelos y fragmentos de configuración.
División de capacidades propiedad del Plugin:
- Los valores predeterminados de texto/chat permanecen en
minimax/MiniMax-M2.7 - La generación de imágenes es
minimax/image-01ominimax-portal/image-01 - La comprensión de imágenes es
MiniMax-VL-01, propiedad del Plugin, en ambas rutas de autenticación de MiniMax - La búsqueda web permanece en el id de proveedor
minimax
LM Studio
LM Studio se distribuye como un Plugin de proveedor incluido que usa la API nativa:
- Proveedor:
lmstudio - Autenticación:
LM_API_TOKEN - URL base predeterminada de inferencia:
http://localhost:1234/v1
Luego configura un modelo (reemplázalo por uno de los IDs devueltos por http://localhost:1234/api/v1/models):
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw usa los endpoints nativos /api/v1/models y /api/v1/models/load de LM Studio para descubrimiento y carga automática, con /v1/chat/completions para inferencia de forma predeterminada. Si quieres que la carga JIT, el TTL y la expulsión automática de LM Studio controlen el ciclo de vida del modelo, configura models.providers.lmstudio.params.preload: false. Consulta /providers/lmstudio para configuración y solución de problemas.
Ollama
Ollama se distribuye como un Plugin de proveedor incluido y usa la API nativa de Ollama:
- Proveedor:
ollama - Autenticación: no requerida (servidor local)
- Modelo de ejemplo:
ollama/llama3.3 - Instalación: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama se detecta localmente en http://127.0.0.1:11434 cuando optas por usarlo con OLLAMA_API_KEY, y el Plugin de proveedor incluido agrega Ollama directamente a openclaw onboard y al selector de modelos. Consulta /providers/ollama para incorporación, modo en la nube/local y configuración personalizada.
vLLM
vLLM se distribuye como un Plugin de proveedor incluido para servidores locales/autohospedados compatibles con OpenAI:
- Proveedor:
vllm - Autenticación: opcional (depende de tu servidor)
- URL base predeterminada:
http://127.0.0.1:8000/v1
Para optar por el descubrimiento automático localmente (cualquier valor funciona si tu servidor no exige autenticación):
export VLLM_API_KEY="vllm-local"
Luego configura un modelo (reemplázalo por uno de los IDs devueltos por /v1/models):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Consulta /providers/vllm para ver detalles.
SGLang
SGLang se distribuye como un Plugin de proveedor incluido para servidores rápidos autohospedados compatibles con OpenAI:
- Proveedor:
sglang - Autenticación: opcional (depende de tu servidor)
- URL base predeterminada:
http://127.0.0.1:30000/v1
Para optar por el descubrimiento automático localmente (cualquier valor funciona si tu servidor no exige autenticación):
export SGLANG_API_KEY="sglang-local"
Luego configura un modelo (reemplázalo por uno de los IDs devueltos por /v1/models):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Consulta /providers/sglang para ver detalles.
Proxies locales (LM Studio, vLLM, LiteLLM, etc.)
Ejemplo (compatible con OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Campos opcionales predeterminados
Para proveedores personalizados, reasoning, input, cost, contextWindow y maxTokens son opcionales. Cuando se omiten, OpenClaw usa de forma predeterminada:
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Recomendado: configura valores explícitos que coincidan con los límites de tu proxy/modelo.
Reglas de conformación de rutas de proxy
- Para
api: "openai-completions"en endpoints no nativos (cualquierbaseUrlno vacío cuyo host no seaapi.openai.com), OpenClaw fuerzacompat.supportsDeveloperRole: falsepara evitar errores 400 del proveedor por rolesdeveloperno admitidos. - Las rutas de estilo proxy compatibles con OpenAI también omiten el modelado de solicitudes nativo exclusivo de OpenAI: sin
service_tier, sinstorede Responses, sinstorede Completions, sin sugerencias de caché de prompts, sin modelado de carga útil compatible con razonamiento de OpenAI y sin encabezados ocultos de atribución de OpenClaw. - Para proxies de Completions compatibles con OpenAI que necesitan campos específicos del proveedor, configura
agents.defaults.models["provider/model"].params.extra_body(oextraBody) para fusionar JSON adicional en el cuerpo de la solicitud saliente. - Para controles de plantilla de chat de vLLM, configura
agents.defaults.models["provider/model"].params.chat_template_kwargs. El Plugin de vLLM incluido envía automáticamenteenable_thinking: falseyforce_nonempty_content: trueparavllm/nemotron-3-*cuando el nivel de razonamiento de la sesión está desactivado. - Para modelos locales lentos o hosts remotos de LAN/tailnet, configura
models.providers.<id>.timeoutSeconds. Esto extiende el manejo de solicitudes HTTP del modelo del proveedor, incluida la conexión, los encabezados, el streaming del cuerpo y la cancelación total protegida de la obtención, sin aumentar el tiempo de espera de ejecución completo del agente. - Las llamadas HTTP del proveedor del modelo permiten respuestas DNS fake-IP de Surge, Clash y sing-box en
198.18.0.0/15yfc00::/7solo para el nombre de hostbaseUrldel proveedor configurado. Otros destinos privados, loopback, link-local y de metadatos siguen requiriendo una aceptación explícita conmodels.providers.<id>.request.allowPrivateNetwork: true. - Si
baseUrlestá vacío/se omite, OpenClaw conserva el comportamiento predeterminado de OpenAI (que resuelve aapi.openai.com). - Por seguridad, un
compat.supportsDeveloperRole: trueexplícito sigue siendo sobrescrito en endpointsopenai-completionsno nativos. - Para
api: "anthropic-messages"en endpoints no directos (cualquier proveedor distinto delanthropiccanónico, o unmodels.providers.anthropic.baseUrlpersonalizado cuyo host no sea un endpoint públicoapi.anthropic.com), OpenClaw suprime encabezados beta implícitos de Anthropic comoclaude-code-20250219,interleaved-thinking-2025-05-14y marcadores OAuth, para que los proxies personalizados compatibles con Anthropic no rechacen indicadores beta no admitidos. Configuramodels.providers.<id>.headers["anthropic-beta"]explícitamente si tu proxy necesita funciones beta específicas.
Ejemplos de CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Consulta también: Configuración para ver ejemplos completos de configuración.
Relacionado
- Referencia de configuración - claves de configuración de modelos
- Conmutación por error de modelos - cadenas de respaldo y comportamiento de reintento
- Modelos - configuración de modelos y alias
- Proveedores - guías de configuración por proveedor