Concepts and configuration

Proveedores de modelos

Referencia para proveedores de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulta Modelos.

Reglas rápidas

Referencias de modelos y ayudantes de CLI
  • Las referencias de modelos usan provider/model (ejemplo: opencode/claude-opus-4-6).
  • agents.defaults.models actúa como una lista de permitidos cuando está configurado.
  • Ayudantes de CLI: openclaw onboard, openclaw models list, openclaw models set <provider/model>.
  • models.providers.*.contextWindow / contextTokens / maxTokens establecen valores predeterminados a nivel de proveedor; models.providers.*.models[].contextWindow / contextTokens / maxTokens los sobrescriben por modelo.
  • Reglas de respaldo, sondeos de enfriamiento y persistencia de sobrescrituras de sesión: Conmutación por error de modelos.
Agregar autenticación de proveedor no cambia tu modelo principal

openclaw configure conserva un agents.defaults.model.primary existente cuando agregas o reautenticas un proveedor. Los plugins de proveedor aún pueden devolver un modelo predeterminado recomendado en su parche de configuración de autenticación, pero configure trata eso como "hacer que este modelo esté disponible" cuando ya existe un modelo principal, no como "reemplazar el modelo principal actual".

Para cambiar intencionalmente el modelo predeterminado, usa openclaw models set <provider/model> o openclaw models auth login --provider <id> --set-default.

Separación entre proveedor y runtime de OpenAI

Las rutas de la familia OpenAI son específicas por prefijo:

  • openai/<model> más agents.defaults.agentRuntime.id: "codex" usa el arnés nativo de servidor de aplicación de Codex. Esta es la configuración habitual de suscripción a ChatGPT/Codex.
  • openai-codex/<model> usa OAuth de Codex en PI.
  • openai/<model> sin una sobrescritura de runtime de Codex usa el proveedor directo de clave de API de OpenAI en PI.

Consulta OpenAI y arnés de Codex. Si la separación entre proveedor y runtime resulta confusa, lee primero Runtimes de agente.

La activación automática de plugins sigue el mismo límite: openai-codex/<model> pertenece al plugin de OpenAI, mientras que el plugin de Codex se activa mediante agentRuntime.id: "codex" o referencias heredadas codex/<model>.

GPT-5.5 está disponible mediante el arnés nativo de servidor de aplicación de Codex cuando agentRuntime.id: "codex" está configurado, mediante openai-codex/gpt-5.5 en PI para OAuth de Codex, y mediante openai/gpt-5.5 en PI para tráfico directo con clave de API cuando tu cuenta lo expone.

Runtimes de CLI

Los runtimes de CLI usan la misma separación: elige referencias de modelo canónicas como anthropic/claude-*, google/gemini-* u openai/gpt-*, y luego establece agents.defaults.agentRuntime.id en claude-cli, google-gemini-cli o codex-cli cuando quieras un backend de CLI local.

Las referencias heredadas claude-cli/*, google-gemini-cli/* y codex-cli/* migran de vuelta a referencias de proveedor canónicas con el runtime registrado por separado.

Comportamiento de proveedor propiedad del plugin

La mayor parte de la lógica específica del proveedor vive en plugins de proveedor (registerProvider(...)), mientras OpenClaw mantiene el bucle de inferencia genérico. Los plugins son propietarios de la incorporación, los catálogos de modelos, el mapeo de variables de entorno de autenticación, la normalización de transporte/configuración, la limpieza de esquemas de herramientas, la clasificación de conmutación por error, la actualización de OAuth, los informes de uso, los perfiles de pensamiento/razonamiento y más.

La lista completa de hooks del SDK de proveedor y ejemplos de plugins incluidos está en Plugins de proveedor. Un proveedor que necesita un ejecutor de solicitudes totalmente personalizado es una superficie de extensión separada y más profunda.

Rotación de claves de API

Fuentes y prioridad de claves

Configura varias claves mediante:

  • OPENCLAW_LIVE_&lt;PROVIDER&gt;_KEY (sobrescritura activa única, prioridad más alta)
  • &lt;PROVIDER&gt;_API_KEYS (lista separada por comas o punto y coma)
  • &lt;PROVIDER&gt;_API_KEY (clave principal)
  • &lt;PROVIDER&gt;_API_KEY_* (lista numerada, por ejemplo &lt;PROVIDER&gt;_API_KEY_1)

Para proveedores de Google, GOOGLE_API_KEY también se incluye como respaldo. El orden de selección de claves conserva la prioridad y elimina valores duplicados.

Cuándo entra en acción la rotación
  • Las solicitudes se reintentan con la siguiente clave solo ante respuestas de límite de tasa (por ejemplo 429, rate_limit, quota, resource exhausted, Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded o mensajes periódicos de límite de uso).
  • Los fallos que no sean de límite de tasa fallan inmediatamente; no se intenta ninguna rotación de claves.
  • Cuando todas las claves candidatas fallan, se devuelve el error final del último intento.

Proveedores integrados (catálogo pi-ai)

OpenClaw se distribuye con el catálogo pi-ai. Estos proveedores no requieren configuración de models.providers; solo configura la autenticación y elige un modelo.

OpenAI

  • Proveedor: openai
  • Autenticación: OPENAI_API_KEY
  • Rotación opcional: OPENAI_API_KEYS, OPENAI_API_KEY_1, OPENAI_API_KEY_2, más OPENCLAW_LIVE_OPENAI_KEY (sobrescritura única)
  • Modelos de ejemplo: openai/gpt-5.5, openai/gpt-5.4-mini
  • Verifica la disponibilidad de cuenta/modelo con openclaw models list --provider openai si una instalación específica o clave de API se comporta de manera diferente.
  • CLI: openclaw onboard --auth-choice openai-api-key
  • El transporte predeterminado es auto (WebSocket primero, respaldo SSE)
  • Sobrescribe por modelo mediante agents.defaults.models["openai/<model>"].params.transport ("sse", "websocket" o "auto")
  • El calentamiento de WebSocket de OpenAI Responses está habilitado de forma predeterminada mediante params.openaiWsWarmup (true/false)
  • El procesamiento prioritario de OpenAI se puede habilitar mediante agents.defaults.models["openai/<model>"].params.serviceTier
  • /fast y params.fastMode asignan solicitudes directas de Responses openai/* a service_tier=priority en api.openai.com
  • Usa params.serviceTier cuando quieras un nivel explícito en lugar del interruptor compartido /fast
  • Los encabezados ocultos de atribución de OpenClaw (originator, version, User-Agent) se aplican solo en tráfico nativo de OpenAI hacia api.openai.com, no a proxies genéricos compatibles con OpenAI
  • Las rutas nativas de OpenAI también conservan store de Responses, sugerencias de caché de prompts y conformación de payload compatible con razonamiento de OpenAI; las rutas de proxy no
  • openai/gpt-5.3-codex-spark se suprime intencionalmente en OpenClaw porque las solicitudes activas a la API de OpenAI lo rechazan y el catálogo actual de Codex no lo expone
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • Proveedor: anthropic
  • Autenticación: ANTHROPIC_API_KEY
  • Rotación opcional: ANTHROPIC_API_KEYS, ANTHROPIC_API_KEY_1, ANTHROPIC_API_KEY_2, más OPENCLAW_LIVE_ANTHROPIC_KEY (sobrescritura única)
  • Modelo de ejemplo: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice apiKey
  • Las solicitudes públicas directas de Anthropic admiten el interruptor compartido /fast y params.fastMode, incluido el tráfico autenticado con clave de API y OAuth enviado a api.anthropic.com; OpenClaw lo asigna a service_tier de Anthropic (auto frente a standard_only)
  • La configuración preferida de Claude CLI conserva la referencia de modelo canónica y selecciona el backend de CLI por separado: anthropic/claude-opus-4-7 con agents.defaults.agentRuntime.id: "claude-cli". Las referencias heredadas claude-cli/claude-opus-4-7 siguen funcionando por compatibilidad.
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OAuth de OpenAI Codex

  • Proveedor: openai-codex
  • Autenticación: OAuth (ChatGPT)
  • Referencia de modelo de PI: openai-codex/gpt-5.5
  • Referencia de arnés nativo de servidor de aplicación de Codex: openai/gpt-5.5 con agents.defaults.agentRuntime.id: "codex"
  • Documentación del arnés nativo de servidor de aplicación de Codex: arnés de Codex
  • Referencias de modelos heredadas: codex/gpt-*
  • Límite de plugin: openai-codex/* carga el plugin de OpenAI; el plugin nativo de servidor de aplicación de Codex se selecciona solo mediante el runtime del arnés de Codex o referencias heredadas codex/*.
  • CLI: openclaw onboard --auth-choice openai-codex o openclaw models auth login --provider openai-codex
  • El transporte predeterminado es auto (WebSocket primero, respaldo SSE)
  • Sobrescribe por modelo de PI mediante agents.defaults.models["openai-codex/<model>"].params.transport ("sse", "websocket" o "auto")
  • params.serviceTier también se reenvía en solicitudes nativas de Codex Responses (chatgpt.com/backend-api)
  • Los encabezados ocultos de atribución de OpenClaw (originator, version, User-Agent) solo se adjuntan en tráfico nativo de Codex hacia chatgpt.com/backend-api, no a proxies genéricos compatibles con OpenAI
  • Comparte la misma configuración de interruptor /fast y params.fastMode que openai/* directo; OpenClaw lo asigna a service_tier=priority
  • openai-codex/gpt-5.5 usa el contextWindow = 400000 nativo del catálogo de Codex y el runtime predeterminado contextTokens = 272000; sobrescribe el límite de runtime con models.providers.openai-codex.models[].contextTokens
  • Nota de política: OAuth de OpenAI Codex es compatible explícitamente con herramientas/flujos de trabajo externos como OpenClaw.
  • Para la ruta común de suscripción más runtime nativo de Codex, inicia sesión con autenticación openai-codex, pero configura openai/gpt-5.5 más agents.defaults.agentRuntime.id: "codex".
  • Usa openai-codex/gpt-5.5 solo cuando quieras la ruta OAuth/suscripción de Codex mediante PI; usa openai/gpt-5.5 sin la sobrescritura del runtime de Codex cuando tu configuración con clave de API y el catálogo local expongan la ruta de API pública.
  • Las referencias antiguas openai-codex/gpt-5.1*, openai-codex/gpt-5.2* y openai-codex/gpt-5.3* se suprimen porque las cuentas OAuth de ChatGPT/Codex las rechazan; usa openai-codex/gpt-5.5 o la ruta nativa de runtime de Codex en su lugar.
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

Otras opciones alojadas con estilo de suscripción

OpenCode

  • Autenticación: OPENCODE_API_KEY (o OPENCODE_ZEN_API_KEY)
  • Proveedor de runtime Zen: opencode
  • Proveedor de runtime Go: opencode-go
  • Modelos de ejemplo: opencode/claude-opus-4-6, opencode-go/kimi-k2.6
  • CLI: openclaw onboard --auth-choice opencode-zen o openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (clave de API)

  • Proveedor: google
  • Autenticación: GEMINI_API_KEY
  • Rotación opcional: GEMINI_API_KEYS, GEMINI_API_KEY_1, GEMINI_API_KEY_2, alternativa GOOGLE_API_KEY y OPENCLAW_LIVE_GEMINI_KEY (anulación única)
  • Modelos de ejemplo: google/gemini-3.1-pro-preview, google/gemini-3-flash-preview
  • Compatibilidad: la configuración heredada de OpenClaw que usa google/gemini-3.1-flash-preview se normaliza a google/gemini-3-flash-preview
  • Alias: se acepta google/gemini-3.1-pro y se normaliza al id de la API Gemini en vivo de Google, google/gemini-3.1-pro-preview
  • CLI: openclaw onboard --auth-choice gemini-api-key
  • Razonamiento: /think adaptive usa el razonamiento dinámico de Google. Gemini 3/3.1 omite un thinkingLevel fijo; Gemini 2.5 envía thinkingBudget: -1.
  • Las ejecuciones directas de Gemini también aceptan agents.defaults.models["google/<model>"].params.cachedContent (o el heredado cached_content) para reenviar un identificador nativo del proveedor cachedContents/...; los aciertos de caché de Gemini aparecen como cacheRead de OpenClaw

Google Vertex y Gemini CLI

  • Proveedores: google-vertex, google-gemini-cli
  • Autenticación: Vertex usa ADC de gcloud; Gemini CLI usa su flujo OAuth

Gemini CLI OAuth se incluye como parte del Plugin google incluido.

  • Instalar Gemini CLI

    brew

    brew install gemini-cli
    

    npm

    npm install -g @google/gemini-cli
    
  • Habilitar Plugin

    openclaw plugins enable google
    
  • Iniciar sesión

    openclaw models auth login --provider google-gemini-cli --set-default
    

    Modelo predeterminado: google-gemini-cli/gemini-3-flash-preview. No pegues un id de cliente ni un secreto en openclaw.json. El flujo de inicio de sesión de CLI almacena tokens en perfiles de autenticación en el host de Gateway.

  • Configurar proyecto (si es necesario)

    Si las solicitudes fallan después de iniciar sesión, configura GOOGLE_CLOUD_PROJECT o GOOGLE_CLOUD_PROJECT_ID en el host de Gateway.

  • Las respuestas JSON de Gemini CLI se analizan desde response; el uso recurre a stats, con stats.cached normalizado a cacheRead de OpenClaw.

    Z.AI (GLM)

    • Proveedor: zai
    • Autenticación: ZAI_API_KEY
    • Modelo de ejemplo: zai/glm-5.1
    • CLI: openclaw onboard --auth-choice zai-api-key
      • Alias: z.ai/* y z-ai/* se normalizan a zai/*
      • zai-api-key detecta automáticamente el endpoint correspondiente de Z.AI; zai-coding-global, zai-coding-cn, zai-global y zai-cn fuerzan una superficie específica

    Vercel AI Gateway

    • Proveedor: vercel-ai-gateway
    • Autenticación: AI_GATEWAY_API_KEY
    • Modelos de ejemplo: vercel-ai-gateway/anthropic/claude-opus-4.6, vercel-ai-gateway/moonshotai/kimi-k2.6
    • CLI: openclaw onboard --auth-choice ai-gateway-api-key

    Kilo Gateway

    • Proveedor: kilocode
    • Autenticación: KILOCODE_API_KEY
    • Modelo de ejemplo: kilocode/kilo/auto
    • CLI: openclaw onboard --auth-choice kilocode-api-key
    • URL base: https://api.kilo.ai/api/gateway/
    • El catálogo alternativo estático incluye kilocode/kilo/auto; el descubrimiento en vivo de https://api.kilo.ai/api/gateway/models puede ampliar aún más el catálogo en tiempo de ejecución.
    • El enrutamiento upstream exacto detrás de kilocode/kilo/auto pertenece a Kilo Gateway, no está codificado de forma rígida en OpenClaw.

    Consulta /providers/kilocode para ver los detalles de configuración.

    Otros Plugins de proveedor incluidos

    Proveedor Id Entorno de autenticación Modelo de ejemplo
    BytePlus byteplus / byteplus-plan BYTEPLUS_API_KEY byteplus-plan/ark-code-latest
    Cerebras cerebras CEREBRAS_API_KEY cerebras/zai-glm-4.7
    Cloudflare AI Gateway cloudflare-ai-gateway CLOUDFLARE_AI_GATEWAY_API_KEY -
    DeepInfra deepinfra DEEPINFRA_API_KEY deepinfra/deepseek-ai/DeepSeek-V3.2
    DeepSeek deepseek DEEPSEEK_API_KEY deepseek/deepseek-v4-flash
    GitHub Copilot github-copilot COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN -
    Groq groq GROQ_API_KEY -
    Hugging Face Inference huggingface HUGGINGFACE_HUB_TOKEN o HF_TOKEN huggingface/deepseek-ai/DeepSeek-R1
    Kilo Gateway kilocode KILOCODE_API_KEY kilocode/kilo/auto
    Kimi Coding kimi KIMI_API_KEY o KIMICODE_API_KEY kimi/kimi-code
    MiniMax minimax / minimax-portal MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN minimax/MiniMax-M2.7
    Mistral mistral MISTRAL_API_KEY mistral/mistral-large-latest
    Moonshot moonshot MOONSHOT_API_KEY moonshot/kimi-k2.6
    NVIDIA nvidia NVIDIA_API_KEY nvidia/nvidia/nemotron-3-super-120b-a12b
    OpenRouter openrouter OPENROUTER_API_KEY openrouter/auto
    Qianfan qianfan QIANFAN_API_KEY qianfan/deepseek-v3.2
    Qwen Cloud qwen QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY qwen/qwen3.5-plus
    StepFun stepfun / stepfun-plan STEPFUN_API_KEY stepfun/step-3.5-flash
    Together together TOGETHER_API_KEY together/moonshotai/Kimi-K2.5
    Venice venice VENICE_API_KEY -
    Vercel AI Gateway vercel-ai-gateway AI_GATEWAY_API_KEY vercel-ai-gateway/anthropic/claude-opus-4.6
    Volcano Engine (Doubao) volcengine / volcengine-plan VOLCANO_ENGINE_API_KEY volcengine-plan/ark-code-latest
    xAI xai XAI_API_KEY xai/grok-4.3
    Xiaomi xiaomi XIAOMI_API_KEY xiaomi/mimo-v2-flash

    Peculiaridades que conviene conocer

    OpenRouter

    Aplica sus encabezados de atribución de app y marcadores Anthropic cache_control solo en rutas openrouter.ai verificadas. Las referencias DeepSeek, Moonshot y ZAI son aptas para cache-TTL en el almacenamiento en caché de prompts gestionado por OpenRouter, pero no reciben marcadores de caché de Anthropic. Como ruta compatible con OpenAI de estilo proxy, omite el modelado exclusivo de OpenAI nativo (serviceTier, Responses store, indicaciones de caché de prompts, compatibilidad de razonamiento de OpenAI). Las referencias respaldadas por Gemini conservan solo la limpieza de firmas de pensamiento proxy-Gemini.

    Kilo Gateway

    Las referencias respaldadas por Gemini siguen la misma ruta de limpieza proxy-Gemini; kilocode/kilo/auto y otras referencias proxy sin compatibilidad de razonamiento omiten la inyección de razonamiento proxy.

    MiniMax

    La incorporación con clave de API escribe definiciones explícitas del modelo de chat M2.7 solo de texto; la comprensión de imágenes permanece en el proveedor de medios MiniMax-VL-01, propiedad del plugin.

    NVIDIA

    Los id. de modelo usan un espacio de nombres nvidia/<vendor>/<model> (por ejemplo nvidia/nvidia/nemotron-... junto con nvidia/moonshotai/kimi-k2.5); los selectores preservan la composición literal <provider>/<model-id>, mientras que la clave canónica enviada a la API mantiene un único prefijo.

    xAI

    Usa la ruta xAI Responses. grok-4.3 es el modelo de chat predeterminado incluido. /fast o params.fastMode: true reescribe grok-3, grok-3-mini, grok-4 y grok-4-0709 a sus variantes *-fast. tool_stream está activado de forma predeterminada; desactívalo mediante agents.defaults.models["xai/<model>"].params.tool_stream=false.

    Cerebras

    Se distribuye como el plugin de proveedor cerebras incluido. GLM usa zai-glm-4.7; la URL base compatible con OpenAI es https://api.cerebras.ai/v1.

    Proveedores mediante models.providers (personalizados/URL base)

    Usa models.providers (o models.json) para añadir proveedores personalizados o proxies compatibles con OpenAI/Anthropic.

    Muchos de los plugins de proveedor incluidos a continuación ya publican un catálogo predeterminado. Usa entradas explícitas de models.providers.<id> solo cuando quieras sobrescribir la URL base, los encabezados o la lista de modelos predeterminados.

    Las comprobaciones de capacidad de modelos del Gateway también leen metadatos explícitos de models.providers.<id>.models[]. Si un modelo personalizado o proxy acepta imágenes, define input: ["text", "image"] en ese modelo para que WebChat y las rutas de adjuntos originadas en nodos pasen imágenes como entradas nativas del modelo en vez de referencias multimedia solo de texto.

    Moonshot AI (Kimi)

    Moonshot se distribuye como un plugin de proveedor incluido. Usa el proveedor integrado de forma predeterminada y añade una entrada explícita models.providers.moonshot solo cuando necesites sobrescribir la URL base o los metadatos del modelo:

    • Proveedor: moonshot
    • Autenticación: MOONSHOT_API_KEY
    • Modelo de ejemplo: moonshot/kimi-k2.6
    • CLI: openclaw onboard --auth-choice moonshot-api-key o openclaw onboard --auth-choice moonshot-api-key-cn

    Id. de modelo Kimi K2:

    • moonshot/kimi-k2.6
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
    • moonshot/kimi-k2-turbo
    {
      agents: {
        defaults: { model: { primary: "moonshot/kimi-k2.6" } },
      },
      models: {
        mode: "merge",
        providers: {
          moonshot: {
            baseUrl: "https://api.moonshot.ai/v1",
            apiKey: "${MOONSHOT_API_KEY}",
            api: "openai-completions",
            models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
          },
        },
      },
    }
    

    Programación con Kimi

    Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:

    • Proveedor: kimi
    • Autenticación: KIMI_API_KEY
    • Modelo de ejemplo: kimi/kimi-code
    {
      env: { KIMI_API_KEY: "sk-..." },
      agents: {
        defaults: { model: { primary: "kimi/kimi-code" } },
      },
    }
    

    Legacy kimi/k2p5 sigue aceptándose como id de modelo de compatibilidad.

    Volcano Engine (Doubao)

    Volcano Engine (火山引擎) proporciona acceso a Doubao y otros modelos en China.

    • Proveedor: volcengine (codificación: volcengine-plan)
    • Autenticación: VOLCANO_ENGINE_API_KEY
    • Modelo de ejemplo: volcengine-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice volcengine-api-key
    {
      agents: {
        defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
      },
    }
    

    La incorporación usa de forma predeterminada la superficie de codificación, pero el catálogo general volcengine/* se registra al mismo tiempo.

    En los selectores de modelos de incorporación/configuración, la opción de autenticación de Volcengine prefiere tanto las filas volcengine/* como volcengine-plan/*. Si esos modelos aún no están cargados, OpenClaw recurre al catálogo sin filtrar en lugar de mostrar un selector vacío limitado al proveedor.

    Modelos estándar

    • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
    • volcengine/doubao-seed-code-preview-251028
    • volcengine/kimi-k2-5-260127 (Kimi K2.5)
    • volcengine/glm-4-7-251222 (GLM 4.7)
    • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

    Modelos de codificación (volcengine-plan)

    • volcengine-plan/ark-code-latest
    • volcengine-plan/doubao-seed-code
    • volcengine-plan/kimi-k2.5
    • volcengine-plan/kimi-k2-thinking
    • volcengine-plan/glm-4.7

    BytePlus (Internacional)

    BytePlus ARK proporciona acceso a los mismos modelos que Volcano Engine para usuarios internacionales.

    • Proveedor: byteplus (codificación: byteplus-plan)
    • Autenticación: BYTEPLUS_API_KEY
    • Modelo de ejemplo: byteplus-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice byteplus-api-key
    {
      agents: {
        defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
      },
    }
    

    La incorporación usa de forma predeterminada la superficie de codificación, pero el catálogo general byteplus/* se registra al mismo tiempo.

    En los selectores de modelos de incorporación/configuración, la opción de autenticación de BytePlus prefiere tanto las filas byteplus/* como byteplus-plan/*. Si esos modelos aún no están cargados, OpenClaw recurre al catálogo sin filtrar en lugar de mostrar un selector vacío limitado al proveedor.

    Modelos estándar

    • byteplus/seed-1-8-251228 (Seed 1.8)
    • byteplus/kimi-k2-5-260127 (Kimi K2.5)
    • byteplus/glm-4-7-251222 (GLM 4.7)

    Modelos de codificación (byteplus-plan)

    • byteplus-plan/ark-code-latest
    • byteplus-plan/doubao-seed-code
    • byteplus-plan/kimi-k2.5
    • byteplus-plan/kimi-k2-thinking
    • byteplus-plan/glm-4.7

    Synthetic

    Synthetic proporciona modelos compatibles con Anthropic detrás del proveedor synthetic:

    • Proveedor: synthetic
    • Autenticación: SYNTHETIC_API_KEY
    • Modelo de ejemplo: synthetic/hf:MiniMaxAI/MiniMax-M2.5
    • CLI: openclaw onboard --auth-choice synthetic-api-key
    {
      agents: {
        defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
      },
      models: {
        mode: "merge",
        providers: {
          synthetic: {
            baseUrl: "https://api.synthetic.new/anthropic",
            apiKey: "${SYNTHETIC_API_KEY}",
            api: "anthropic-messages",
            models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
          },
        },
      },
    }
    

    MiniMax

    MiniMax se configura mediante models.providers porque usa endpoints personalizados:

    • MiniMax OAuth (Global): --auth-choice minimax-global-oauth
    • MiniMax OAuth (CN): --auth-choice minimax-cn-oauth
    • Clave de API de MiniMax (Global): --auth-choice minimax-global-api
    • Clave de API de MiniMax (CN): --auth-choice minimax-cn-api
    • Autenticación: MINIMAX_API_KEY para minimax; MINIMAX_OAUTH_TOKEN o MINIMAX_API_KEY para minimax-portal

    Consulta /providers/minimax para ver detalles de configuración, opciones de modelos y fragmentos de configuración.

    División de capacidades propiedad del Plugin:

    • Los valores predeterminados de texto/chat permanecen en minimax/MiniMax-M2.7
    • La generación de imágenes es minimax/image-01 o minimax-portal/image-01
    • La comprensión de imágenes es MiniMax-VL-01, propiedad del Plugin, en ambas rutas de autenticación de MiniMax
    • La búsqueda web permanece en el id de proveedor minimax

    LM Studio

    LM Studio se distribuye como un Plugin de proveedor incluido que usa la API nativa:

    • Proveedor: lmstudio
    • Autenticación: LM_API_TOKEN
    • URL base predeterminada de inferencia: http://localhost:1234/v1

    Luego configura un modelo (reemplázalo por uno de los IDs devueltos por http://localhost:1234/api/v1/models):

    {
      agents: {
        defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
      },
    }
    

    OpenClaw usa los endpoints nativos /api/v1/models y /api/v1/models/load de LM Studio para descubrimiento y carga automática, con /v1/chat/completions para inferencia de forma predeterminada. Si quieres que la carga JIT, el TTL y la expulsión automática de LM Studio controlen el ciclo de vida del modelo, configura models.providers.lmstudio.params.preload: false. Consulta /providers/lmstudio para configuración y solución de problemas.

    Ollama

    Ollama se distribuye como un Plugin de proveedor incluido y usa la API nativa de Ollama:

    • Proveedor: ollama
    • Autenticación: no requerida (servidor local)
    • Modelo de ejemplo: ollama/llama3.3
    • Instalación: https://ollama.com/download
    # Install Ollama, then pull a model:
    ollama pull llama3.3
    
    {
      agents: {
        defaults: { model: { primary: "ollama/llama3.3" } },
      },
    }
    

    Ollama se detecta localmente en http://127.0.0.1:11434 cuando optas por usarlo con OLLAMA_API_KEY, y el Plugin de proveedor incluido agrega Ollama directamente a openclaw onboard y al selector de modelos. Consulta /providers/ollama para incorporación, modo en la nube/local y configuración personalizada.

    vLLM

    vLLM se distribuye como un Plugin de proveedor incluido para servidores locales/autohospedados compatibles con OpenAI:

    • Proveedor: vllm
    • Autenticación: opcional (depende de tu servidor)
    • URL base predeterminada: http://127.0.0.1:8000/v1

    Para optar por el descubrimiento automático localmente (cualquier valor funciona si tu servidor no exige autenticación):

    export VLLM_API_KEY="vllm-local"
    

    Luego configura un modelo (reemplázalo por uno de los IDs devueltos por /v1/models):

    {
      agents: {
        defaults: { model: { primary: "vllm/your-model-id" } },
      },
    }
    

    Consulta /providers/vllm para ver detalles.

    SGLang

    SGLang se distribuye como un Plugin de proveedor incluido para servidores rápidos autohospedados compatibles con OpenAI:

    • Proveedor: sglang
    • Autenticación: opcional (depende de tu servidor)
    • URL base predeterminada: http://127.0.0.1:30000/v1

    Para optar por el descubrimiento automático localmente (cualquier valor funciona si tu servidor no exige autenticación):

    export SGLANG_API_KEY="sglang-local"
    

    Luego configura un modelo (reemplázalo por uno de los IDs devueltos por /v1/models):

    {
      agents: {
        defaults: { model: { primary: "sglang/your-model-id" } },
      },
    }
    

    Consulta /providers/sglang para ver detalles.

    Proxies locales (LM Studio, vLLM, LiteLLM, etc.)

    Ejemplo (compatible con OpenAI):

    {
      agents: {
        defaults: {
          model: { primary: "lmstudio/my-local-model" },
          models: { "lmstudio/my-local-model": { alias: "Local" } },
        },
      },
      models: {
        providers: {
          lmstudio: {
            baseUrl: "http://localhost:1234/v1",
            apiKey: "${LM_API_TOKEN}",
            api: "openai-completions",
            timeoutSeconds: 300,
            models: [
              {
                id: "my-local-model",
                name: "Local Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 200000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    
    Campos opcionales predeterminados

    Para proveedores personalizados, reasoning, input, cost, contextWindow y maxTokens son opcionales. Cuando se omiten, OpenClaw usa de forma predeterminada:

    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192

    Recomendado: configura valores explícitos que coincidan con los límites de tu proxy/modelo.

    Reglas de conformación de rutas de proxy
    • Para api: "openai-completions" en endpoints no nativos (cualquier baseUrl no vacío cuyo host no sea api.openai.com), OpenClaw fuerza compat.supportsDeveloperRole: false para evitar errores 400 del proveedor por roles developer no admitidos.
    • Las rutas de estilo proxy compatibles con OpenAI también omiten el modelado de solicitudes nativo exclusivo de OpenAI: sin service_tier, sin store de Responses, sin store de Completions, sin sugerencias de caché de prompts, sin modelado de carga útil compatible con razonamiento de OpenAI y sin encabezados ocultos de atribución de OpenClaw.
    • Para proxies de Completions compatibles con OpenAI que necesitan campos específicos del proveedor, configura agents.defaults.models["provider/model"].params.extra_body (o extraBody) para fusionar JSON adicional en el cuerpo de la solicitud saliente.
    • Para controles de plantilla de chat de vLLM, configura agents.defaults.models["provider/model"].params.chat_template_kwargs. El Plugin de vLLM incluido envía automáticamente enable_thinking: false y force_nonempty_content: true para vllm/nemotron-3-* cuando el nivel de razonamiento de la sesión está desactivado.
    • Para modelos locales lentos o hosts remotos de LAN/tailnet, configura models.providers.<id>.timeoutSeconds. Esto extiende el manejo de solicitudes HTTP del modelo del proveedor, incluida la conexión, los encabezados, el streaming del cuerpo y la cancelación total protegida de la obtención, sin aumentar el tiempo de espera de ejecución completo del agente.
    • Las llamadas HTTP del proveedor del modelo permiten respuestas DNS fake-IP de Surge, Clash y sing-box en 198.18.0.0/15 y fc00::/7 solo para el nombre de host baseUrl del proveedor configurado. Otros destinos privados, loopback, link-local y de metadatos siguen requiriendo una aceptación explícita con models.providers.<id>.request.allowPrivateNetwork: true.
    • Si baseUrl está vacío/se omite, OpenClaw conserva el comportamiento predeterminado de OpenAI (que resuelve a api.openai.com).
    • Por seguridad, un compat.supportsDeveloperRole: true explícito sigue siendo sobrescrito en endpoints openai-completions no nativos.
    • Para api: "anthropic-messages" en endpoints no directos (cualquier proveedor distinto del anthropic canónico, o un models.providers.anthropic.baseUrl personalizado cuyo host no sea un endpoint público api.anthropic.com), OpenClaw suprime encabezados beta implícitos de Anthropic como claude-code-20250219, interleaved-thinking-2025-05-14 y marcadores OAuth, para que los proxies personalizados compatibles con Anthropic no rechacen indicadores beta no admitidos. Configura models.providers.<id>.headers["anthropic-beta"] explícitamente si tu proxy necesita funciones beta específicas.

    Ejemplos de CLI

    openclaw onboard --auth-choice opencode-zen
    openclaw models set opencode/claude-opus-4-6
    openclaw models list
    

    Consulta también: Configuración para ver ejemplos completos de configuración.

    Relacionado