FAQ
Preguntas frecuentes: modelos y autenticación
Preguntas y respuestas sobre modelos y perfiles de autenticación. Para configuración, sesiones, Gateway, canales y solución de problemas, consulta la FAQ principal.
Modelos: valores predeterminados, selección, alias, cambio
¿Qué es el "modelo predeterminado"?
El modelo predeterminado de OpenClaw es lo que configures como:
agents.defaults.model.primary
Los modelos se referencian como provider/model (ejemplo: openai/gpt-5.5 o anthropic/claude-sonnet-4-6). Si omites el proveedor, OpenClaw primero intenta usar un alias, luego una coincidencia única de proveedor configurado para ese ID exacto de modelo y solo después recurre al proveedor predeterminado configurado como una ruta de compatibilidad obsoleta. Si ese proveedor ya no expone el modelo predeterminado configurado, OpenClaw recurre al primer proveedor/modelo configurado en lugar de mostrar un valor predeterminado obsoleto de un proveedor eliminado. Aun así, deberías configurar explícitamente provider/model.
¿Qué modelo recomiendas?
Valor predeterminado recomendado: usa el modelo de última generación más potente disponible en tu conjunto de proveedores. Para agentes con herramientas habilitadas o entrada no confiable: prioriza la potencia del modelo sobre el coste. Para chat rutinario/de bajo riesgo: usa modelos alternativos más baratos y enruta por rol del agente.
MiniMax tiene su propia documentación: MiniMax y Modelos locales.
Regla general: usa el mejor modelo que puedas permitirte para trabajos de alto riesgo y un modelo más barato para chat rutinario o resúmenes. Puedes enrutar modelos por agente y usar subagentes para paralelizar tareas largas (cada subagente consume tokens). Consulta Modelos y Subagentes.
Advertencia importante: los modelos más débiles o excesivamente cuantizados son más vulnerables a la inyección de prompts y a comportamientos inseguros. Consulta Seguridad.
Más contexto: Modelos.
¿Cómo cambio de modelo sin borrar mi configuración?
Usa comandos de modelo o edita solo los campos de modelo. Evita reemplazos completos de configuración.
Opciones seguras:
/modelen el chat (rápido, por sesión)openclaw models set ...(actualiza solo la configuración del modelo)openclaw configure --section model(interactivo)- edita
agents.defaults.modelen~/.openclaw/openclaw.json
Evita config.apply con un objeto parcial a menos que quieras reemplazar toda la configuración.
Para ediciones RPC, inspecciona primero con config.schema.lookup y prefiere config.patch. La carga de lookup te da la ruta normalizada, documentación/restricciones superficiales del esquema y resúmenes inmediatos de los hijos.
para actualizaciones parciales.
Si sobrescribiste la configuración, restaura desde una copia de seguridad o vuelve a ejecutar openclaw doctor para repararla.
Documentación: Modelos, Configurar, Configuración, Doctor.
¿Puedo usar modelos autoalojados (llama.cpp, vLLM, Ollama)?
Sí. Ollama es la ruta más sencilla para modelos locales.
Configuración más rápida:
- Instala Ollama desde
https://ollama.com/download - Descarga un modelo local como
ollama pull gemma4 - Si también quieres modelos en la nube, ejecuta
ollama signin - Ejecuta
openclaw onboardy eligeOllama - Elige
LocaloCloud + Local
Notas:
Cloud + Localte da modelos en la nube más tus modelos locales de Ollama- los modelos en la nube como
kimi-k2.5:cloudno necesitan descarga local - para cambio manual, usa
openclaw models listyopenclaw models set ollama/<model>
Nota de seguridad: los modelos más pequeños o muy cuantizados son más vulnerables a la inyección de prompts. Recomendamos encarecidamente modelos grandes para cualquier bot que pueda usar herramientas. Si aun así quieres modelos pequeños, habilita el aislamiento y listas estrictas de herramientas permitidas.
Documentación: Ollama, Modelos locales, Proveedores de modelos, Seguridad, Aislamiento.
¿Qué usan OpenClaw, Flawd y Krill como modelos?
- Estos despliegues pueden diferir y cambiar con el tiempo; no hay una recomendación fija de proveedor.
- Comprueba la configuración de runtime actual en cada Gateway con
openclaw models status. - Para agentes sensibles a seguridad o con herramientas habilitadas, usa el modelo de última generación más potente disponible.
¿Cómo cambio de modelo sobre la marcha (sin reiniciar)?
Usa el comando /model como mensaje independiente:
/model sonnet
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash
/model gemini-flash-lite
Estos son los alias integrados. Se pueden añadir alias personalizados mediante agents.defaults.models.
Puedes listar los modelos disponibles con /model, /model list o /model status.
/model (y /model list) muestra un selector compacto y numerado. Selecciona por número:
/model 3
También puedes forzar un perfil de autenticación específico para el proveedor (por sesión):
/model opus@anthropic:default
/model opus@anthropic:work
Consejo: /model status muestra qué agente está activo, qué archivo auth-profiles.json se está usando y qué perfil de autenticación se intentará a continuación.
También muestra el endpoint configurado del proveedor (baseUrl) y el modo de API (api) cuando están disponibles.
¿Cómo quito la fijación de un perfil que configuré con @profile?
Vuelve a ejecutar /model sin el sufijo @profile:
/model anthropic/claude-opus-4-6
Si quieres volver al valor predeterminado, selecciónalo desde /model (o envía /model <default provider/model>).
Usa /model status para confirmar qué perfil de autenticación está activo.
¿Puedo usar GPT 5.5 para tareas diarias y Codex 5.5 para programación?
Sí. Trata la elección del modelo y la elección del runtime por separado:
- Agente de programación nativo Codex: configura
agents.defaults.model.primarycomoopenai/gpt-5.5. Inicia sesión conopenclaw models auth login --provider openai-codexcuando quieras autenticación de suscripción ChatGPT/Codex. - Tareas directas de la API de OpenAI fuera del bucle del agente: configura
OPENAI_API_KEYpara imágenes, embeddings, voz, realtime y otras superficies de API de OpenAI que no sean de agente. - Autenticación con clave de API para agente de OpenAI: usa
/model openai/gpt-5.5con un perfil de clave de APIopenai-codexordenado. - Subagentes: enruta tareas de programación a un agente solo de Codex con su propio modelo y valor predeterminado de
agentRuntime.
Consulta Modelos y Comandos slash.
¿Cómo configuro el modo rápido para GPT 5.5?
Usa un conmutador de sesión o un valor predeterminado de configuración:
- Por sesión: envía
/fast onmientras la sesión usaopenai/gpt-5.5. - Valor predeterminado por modelo: configura
agents.defaults.models["openai/gpt-5.5"].params.fastModecomotrue.
Ejemplo:
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
fastMode: true,
},
},
},
},
},
}
Para OpenAI, el modo rápido se asigna a service_tier = "priority" en solicitudes nativas Responses compatibles. Las anulaciones de sesión /fast prevalecen sobre los valores predeterminados de configuración.
Consulta Pensamiento y modo rápido y Modo rápido de OpenAI.
¿Por qué veo "Model ... is not allowed" y luego no hay respuesta?
Si agents.defaults.models está configurado, se convierte en la lista de permitidos para /model y cualquier
anulación de sesión. Elegir un modelo que no esté en esa lista devuelve:
Model "provider/model" is not allowed. Use /models to list providers, or /models <provider> to list models.
Add it with: openclaw config set agents.defaults.models '{"provider/model":{}}' --strict-json --merge
Ese error se devuelve en lugar de una respuesta normal. Solución: añade el modelo a
agents.defaults.models, elimina la lista de permitidos o elige un modelo de /model list.
Si el comando también incluía --runtime codex, añade primero el modelo y luego vuelve a intentar
el mismo comando /model provider/model --runtime codex.
¿Por qué veo "Unknown model: minimax/MiniMax-M2.7"?
Esto significa que el proveedor no está configurado (no se encontró configuración del proveedor MiniMax ni perfil de autenticación), por lo que el modelo no se puede resolver.
Lista de comprobación para solucionarlo:
-
Actualiza a una versión actual de OpenClaw (o ejecuta desde
mainen el código fuente) y luego reinicia el Gateway. -
Asegúrate de que MiniMax esté configurado (asistente o JSON), o de que la autenticación de MiniMax exista en env/perfiles de autenticación para que se pueda inyectar el proveedor correspondiente (
MINIMAX_API_KEYparaminimax,MINIMAX_OAUTH_TOKENo OAuth de MiniMax almacenado paraminimax-portal). -
Usa el ID exacto del modelo (distingue mayúsculas y minúsculas) para tu ruta de autenticación:
minimax/MiniMax-M2.7ominimax/MiniMax-M2.7-highspeedpara la configuración con clave de API, ominimax-portal/MiniMax-M2.7/minimax-portal/MiniMax-M2.7-highspeedpara la configuración con OAuth. -
Ejecuta:
openclaw models listy elige de la lista (o
/model listen el chat).
¿Puedo usar MiniMax como valor predeterminado y OpenAI para tareas complejas?
Sí. Usa MiniMax como valor predeterminado y cambia de modelo por sesión cuando sea necesario.
Los fallbacks son para errores, no para "tareas difíciles", así que usa /model o un agente separado.
Opción A: cambiar por sesión
{
env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.7" },
models: {
"minimax/MiniMax-M2.7": { alias: "minimax" },
"openai/gpt-5.5": { alias: "gpt" },
},
},
},
}
Entonces:
/model gpt
Opción B: agentes separados
- Valor predeterminado del agente A: MiniMax
- Valor predeterminado del agente B: OpenAI
- Enruta por agente o usa
/agentpara cambiar
Documentación: Modelos, Enrutamiento multiagente, MiniMax, OpenAI.
¿Son opus / sonnet / gpt accesos directos integrados?
Sí. OpenClaw incluye algunos atajos predeterminados (solo se aplican cuando el modelo existe en agents.defaults.models):
opus→anthropic/claude-opus-4-6sonnet→anthropic/claude-sonnet-4-6gpt→openai/gpt-5.5gpt-mini→openai/gpt-5.4-minigpt-nano→openai/gpt-5.4-nanogemini→google/gemini-3.1-pro-previewgemini-flash→google/gemini-3-flash-previewgemini-flash-lite→google/gemini-3.1-flash-lite-preview
Si configuras tu propio alias con el mismo nombre, tu valor prevalece.
¿Cómo defino/anulo accesos directos de modelos (alias)?
Los alias vienen de agents.defaults.models.<modelId>.alias. Ejemplo:
{
agents: {
defaults: {
model: { primary: "anthropic/claude-opus-4-6" },
models: {
"anthropic/claude-opus-4-6": { alias: "opus" },
"anthropic/claude-sonnet-4-6": { alias: "sonnet" },
"anthropic/claude-haiku-4-5": { alias: "haiku" },
},
},
},
}
Entonces /model sonnet (o /<alias> cuando sea compatible) se resuelve a ese ID de modelo.
¿Cómo añado modelos de otros proveedores como OpenRouter o Z.AI?
OpenRouter (pago por token; muchos modelos):
{
agents: {
defaults: {
model: { primary: "openrouter/anthropic/claude-sonnet-4-6" },
models: { "openrouter/anthropic/claude-sonnet-4-6": {} },
},
},
env: { OPENROUTER_API_KEY: "sk-or-..." },
}
Z.AI (modelos GLM):
{
agents: {
defaults: {
model: { primary: "zai/glm-5" },
models: { "zai/glm-5": {} },
},
},
env: { ZAI_API_KEY: "..." },
}
Si haces referencia a un proveedor/modelo pero falta la clave requerida del proveedor, obtendrás un error de autenticación en tiempo de ejecución (por ejemplo, No API key found for provider "zai").
No se encontró ninguna clave API para el proveedor después de agregar un agente nuevo
Esto suele significar que el agente nuevo tiene un almacén de autenticación vacío. La autenticación es por agente y se almacena en:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Opciones de corrección:
- Ejecuta
openclaw agents add <id>y configura la autenticación durante el asistente. - O copia únicamente perfiles portátiles estáticos
api_key/tokendesde el almacén de autenticación del agente principal al almacén de autenticación del agente nuevo. - Para perfiles OAuth, inicia sesión desde el agente nuevo cuando necesite su propia cuenta; de lo contrario, OpenClaw puede leer a través del agente predeterminado/principal sin clonar tokens de actualización.
No reutilices agentDir entre agentes; causa colisiones de autenticación/sesión.
Conmutación por error de modelos y "Todos los modelos fallaron"
¿Cómo funciona la conmutación por error?
La conmutación por error ocurre en dos etapas:
- Rotación de perfiles de autenticación dentro del mismo proveedor.
- Respaldo de modelo al siguiente modelo en
agents.defaults.model.fallbacks.
Los tiempos de espera se aplican a los perfiles que fallan (retroceso exponencial), por lo que OpenClaw puede seguir respondiendo incluso cuando un proveedor tiene límites de frecuencia o falla temporalmente.
El segmento de límite de frecuencia incluye más que respuestas 429 simples. OpenClaw
también trata mensajes como Too many concurrent requests,
ThrottlingException, concurrency limit reached,
workers_ai ... quota limit exceeded, resource exhausted y límites
periódicos de ventana de uso (weekly/monthly limit reached) como límites
de frecuencia que justifican la conmutación por error.
Algunas respuestas con apariencia de facturación no son 402, y algunas respuestas HTTP 402
también permanecen en ese segmento transitorio. Si un proveedor devuelve
texto explícito de facturación en 401 o 403, OpenClaw todavía puede mantenerlo en
la vía de facturación, pero los comparadores de texto específicos del proveedor permanecen limitados al
proveedor al que pertenecen (por ejemplo, OpenRouter Key limit exceeded). Si un mensaje 402
en cambio parece una ventana de uso reintentable o un límite de gasto
de organización/espacio de trabajo (daily limit reached, resets tomorrow,
organization spending limit exceeded), OpenClaw lo trata como
rate_limit, no como una desactivación prolongada por facturación.
Los errores de desbordamiento de contexto son distintos: firmas como
request_too_large, input exceeds the maximum number of tokens,
input token count exceeds the maximum number of input tokens,
input is too long for the model u ollama error: context length exceeded permanecen en la ruta de Compaction/reintento en lugar de avanzar al respaldo
de modelo.
El texto genérico de error de servidor es intencionalmente más estrecho que "cualquier cosa con
unknown/error en él". OpenClaw sí trata formas transitorias acotadas por proveedor
como el An unknown error occurred básico de Anthropic, el Provider returned error
básico de OpenRouter, errores de razón de detención como Unhandled stop reason: error, cargas JSON api_error con texto transitorio de servidor
(internal server error, unknown error, 520, upstream error, backend error) y errores de proveedor ocupado como ModelNotReadyException como
señales de tiempo de espera/sobrecarga que justifican la conmutación por error cuando coincide el contexto
del proveedor.
El texto genérico de respaldo interno como LLM request failed with an unknown error. sigue siendo conservador y no activa por sí solo el respaldo de modelo.
¿Qué significa "No credentials found for profile anthropic:default"?
Significa que el sistema intentó usar el ID de perfil de autenticación anthropic:default, pero no pudo encontrar credenciales para él en el almacén de autenticación esperado.
Lista de verificación de corrección:
- Confirma dónde residen los perfiles de autenticación (rutas nuevas frente a heredadas)
- Actual:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - Heredada:
~/.openclaw/agent/*(migrada poropenclaw doctor)
- Actual:
- Confirma que tu variable de entorno la carga el Gateway
- Si estableces
ANTHROPIC_API_KEYen tu shell pero ejecutas el Gateway mediante systemd/launchd, quizá no la herede. Ponla en~/.openclaw/.envo habilitaenv.shellEnv.
- Si estableces
- Asegúrate de estar editando el agente correcto
- Las configuraciones multiagente significan que puede haber varios archivos
auth-profiles.json.
- Las configuraciones multiagente significan que puede haber varios archivos
- Comprueba de forma básica el estado de modelo/autenticación
- Usa
openclaw models statuspara ver los modelos configurados y si los proveedores están autenticados.
- Usa
Lista de verificación de corrección para "No credentials found for profile anthropic"
Esto significa que la ejecución está fijada a un perfil de autenticación de Anthropic, pero el Gateway no puede encontrarlo en su almacén de autenticación.
-
Usa Claude CLI
- Ejecuta
openclaw models auth login --provider anthropic --method cli --set-defaulten el host del gateway.
- Ejecuta
-
Si quieres usar una clave API en su lugar
-
Pon
ANTHROPIC_API_KEYen~/.openclaw/.enven el host del gateway. -
Borra cualquier orden fijado que fuerce un perfil faltante:
openclaw models auth order clear --provider anthropic
-
-
Confirma que estás ejecutando comandos en el host del gateway
- En modo remoto, los perfiles de autenticación residen en la máquina gateway, no en tu portátil.
¿Por qué también probó Google Gemini y falló?
Si tu configuración de modelos incluye Google Gemini como respaldo (o cambiaste a una forma abreviada de Gemini), OpenClaw lo intentará durante el respaldo de modelo. Si no has configurado credenciales de Google, verás No API key found for provider "google".
Corrección: proporciona autenticación de Google, o elimina/evita modelos de Google en agents.defaults.model.fallbacks / alias para que el respaldo no enrute allí.
Solicitud LLM rechazada: se requiere firma de pensamiento (Google Antigravity)
Causa: el historial de sesión contiene bloques de pensamiento sin firmas (a menudo de un flujo abortado/parcial). Google Antigravity requiere firmas para los bloques de pensamiento.
Corrección: OpenClaw ahora elimina bloques de pensamiento sin firma para Google Antigravity Claude. Si todavía aparece, inicia una sesión nueva o establece /thinking off para ese agente.
Perfiles de autenticación: qué son y cómo administrarlos
Relacionado: /concepts/oauth (flujos OAuth, almacenamiento de tokens, patrones multicuenta)
¿Qué es un perfil de autenticación?
Un perfil de autenticación es un registro de credenciales con nombre (OAuth o clave API) vinculado a un proveedor. Los perfiles residen en:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Para inspeccionar los perfiles guardados sin volcar secretos, ejecuta openclaw models auth list (opcionalmente --provider <id> o --json). Consulta CLI de modelos para obtener detalles.
¿Cuáles son los ID de perfil típicos?
OpenClaw usa ID con prefijo de proveedor como:
anthropic:default(común cuando no existe identidad de correo electrónico)anthropic:<email>para identidades OAuth- ID personalizados que elijas (por ejemplo,
anthropic:work)
¿Puedo controlar qué perfil de autenticación se prueba primero?
Sí. La configuración admite metadatos opcionales para perfiles y un orden por proveedor (auth.order.<provider>). Esto no almacena secretos; asigna ID a proveedor/modo y establece el orden de rotación.
OpenClaw puede omitir temporalmente un perfil si está en un tiempo de espera breve (límites de frecuencia/tiempos de espera/fallos de autenticación) o en un estado deshabilitado más largo (facturación/créditos insuficientes). Para inspeccionarlo, ejecuta openclaw models status --json y revisa auth.unusableProfiles. Ajuste: auth.cooldowns.billingBackoffHours*.
Los tiempos de espera por límite de frecuencia pueden estar acotados al modelo. Un perfil que está en espera para un modelo todavía puede ser usable para un modelo hermano del mismo proveedor, mientras que las ventanas de facturación/deshabilitación siguen bloqueando todo el perfil.
También puedes establecer una anulación de orden por agente (almacenada en el auth-state.json de ese agente) mediante la CLI:
# Defaults to the configured default agent (omit --agent)
openclaw models auth order get --provider anthropic
# Lock rotation to a single profile (only try this one)
openclaw models auth order set --provider anthropic anthropic:default
# Or set an explicit order (fallback within provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default
# Clear override (fall back to config auth.order / round-robin)
openclaw models auth order clear --provider anthropic
Para apuntar a un agente específico:
openclaw models auth order set --provider anthropic --agent main anthropic:default
Para verificar qué se intentará realmente, usa:
openclaw models status --probe
Si un perfil almacenado se omite del orden explícito, la prueba informa
excluded_by_auth_order para ese perfil en lugar de intentarlo silenciosamente.
OAuth frente a clave API: ¿cuál es la diferencia?
OpenClaw admite ambos:
- OAuth a menudo aprovecha el acceso de suscripción (donde corresponda).
- Las claves API usan facturación por token.
El asistente admite explícitamente Anthropic Claude CLI, OpenAI Codex OAuth y claves API.
Relacionado
- Preguntas frecuentes — las preguntas frecuentes principales
- Preguntas frecuentes — inicio rápido y configuración de primera ejecución
- Selección de modelo
- Conmutación por error de modelos