FAQ
Preguntas frecuentes: configuración inicial
Preguntas y respuestas de inicio rápido y primera ejecución. Para operaciones diarias, modelos, autenticación, sesiones y solución de problemas, consulta la FAQ principal.
Inicio rápido y configuración de primera ejecución
Estoy bloqueado, forma más rápida de desbloquearme
Usa un agente de IA local que pueda ver tu máquina. Eso es mucho más eficaz que preguntar en Discord, porque la mayoría de los casos de "estoy bloqueado" son problemas de configuración local o de entorno que los ayudantes remotos no pueden inspeccionar.
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
Estas herramientas pueden leer el repositorio, ejecutar comandos, inspeccionar registros y ayudar a corregir la configuración a nivel de máquina (PATH, servicios, permisos, archivos de autenticación). Dales el checkout completo del código fuente mediante la instalación hackable (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Esto instala OpenClaw desde un checkout de git, de modo que el agente pueda leer el código y la documentación, y
razonar sobre la versión exacta que estás ejecutando. Siempre puedes volver a la versión estable más adelante
volviendo a ejecutar el instalador sin --install-method git.
Consejo: pídele al agente que planifique y supervise la corrección (paso a paso) y luego ejecute solo los comandos necesarios. Eso mantiene los cambios pequeños y más fáciles de auditar.
Si descubres un error real o una corrección, abre un issue en GitHub o envía un PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
Empieza con estos comandos (comparte las salidas cuando pidas ayuda):
openclaw status
openclaw models status
openclaw doctor
Qué hacen:
openclaw status: instantánea rápida del estado del gateway/agente + configuración básica.openclaw models status: comprueba la autenticación del proveedor + disponibilidad de modelos.openclaw doctor: valida y repara problemas comunes de configuración/estado.
Otras comprobaciones útiles de CLI: openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.
Bucle rápido de depuración: Primeros 60 segundos si algo está roto. Documentación de instalación: Instalar, Flags del instalador, Actualizar.
Heartbeat sigue omitiéndose. ¿Qué significan los motivos de omisión?
Motivos comunes de omisión de Heartbeat:
quiet-hours: fuera de la ventana configurada de horas activasempty-heartbeat-file:HEARTBEAT.mdexiste, pero solo contiene andamiaje en blanco o solo con encabezadono-tasks-due: el modo de tareas deHEARTBEAT.mdestá activo, pero todavía no vence ninguno de los intervalos de tareasalerts-disabled: toda la visibilidad de Heartbeat está deshabilitada (showOk,showAlertsyuseIndicatorestán desactivados)
En modo de tareas, las marcas de tiempo de vencimiento solo avanzan después de que se complete una ejecución real de Heartbeat. Las ejecuciones omitidas no marcan tareas como completadas.
Documentación: Heartbeat, Automatización y tareas.
Forma recomendada de instalar y configurar OpenClaw
El repositorio recomienda ejecutar desde el código fuente y usar el onboarding:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
El asistente también puede compilar automáticamente los recursos de la UI. Después del onboarding, normalmente ejecutas el Gateway en el puerto 18789.
Desde el código fuente (colaboradores/desarrollo):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
Si aún no tienes una instalación global, ejecútalo mediante pnpm openclaw onboard.
¿Cómo abro el panel después del onboarding?
El asistente abre tu navegador con una URL limpia del panel (sin token) justo después del onboarding y también imprime el enlace en el resumen. Mantén abierta esa pestaña; si no se abrió, copia y pega la URL impresa en la misma máquina.
¿Cómo autentico el panel en localhost frente a remoto?
Localhost (misma máquina):
- Abre
http://127.0.0.1:18789/. - Si pide autenticación con secreto compartido, pega el token o la contraseña configurados en la configuración de Control UI.
- Fuente del token:
gateway.auth.token(oOPENCLAW_GATEWAY_TOKEN). - Fuente de la contraseña:
gateway.auth.password(oOPENCLAW_GATEWAY_PASSWORD). - Si todavía no hay ningún secreto compartido configurado, genera un token con
openclaw doctor --generate-gateway-token.
No en localhost:
- Tailscale Serve (recomendado): mantén el bind en local loopback, ejecuta
openclaw gateway --tailscale serve, abrehttps://<magicdns>/. Sigateway.auth.allowTailscaleestrue, los encabezados de identidad satisfacen la autenticación de Control UI/WebSocket (sin pegar un secreto compartido, asume un host Gateway confiable); las API HTTP siguen requiriendo autenticación con secreto compartido, salvo que uses deliberadamentenonepara ingreso privado o autenticación HTTP de proxy confiable. Los intentos de autenticación incorrectos concurrentes de Serve desde el mismo cliente se serializan antes de que el limitador de autenticación fallida los registre, por lo que el segundo reintento incorrecto ya puede mostrarretry later. - Bind tailnet: ejecuta
openclaw gateway --bind tailnet --token "<token>"(o configura autenticación por contraseña), abrehttp://<tailscale-ip>:18789/y luego pega el secreto compartido correspondiente en la configuración del panel. - Proxy inverso con identidad: mantén el Gateway detrás de un proxy confiable, configura
gateway.auth.mode: "trusted-proxy"y luego abre la URL del proxy. Los proxies de local loopback en el mismo host requierengateway.auth.trustedProxy.allowLoopback = trueexplícito. - Túnel SSH:
ssh -N -L 18789:127.0.0.1:18789 user@hosty luego abrehttp://127.0.0.1:18789/. La autenticación con secreto compartido sigue aplicándose sobre el túnel; pega el token o la contraseña configurados si se solicita.
Consulta Panel y Superficies web para ver los modos de bind y los detalles de autenticación.
¿Por qué hay dos configuraciones de aprobación exec para aprobaciones por chat?
Controlan capas distintas:
approvals.exec: reenvía solicitudes de aprobación a destinos de chatchannels.<channel>.execApprovals: hace que ese canal actúe como cliente de aprobación nativo para aprobaciones exec
La política exec del host sigue siendo la verdadera puerta de aprobación. La configuración de chat solo controla dónde aparecen las solicitudes de aprobación y cómo pueden responderlas las personas.
En la mayoría de las configuraciones no necesitas ambas:
- Si el chat ya admite comandos y respuestas,
/approveen el mismo chat funciona a través de la ruta compartida. - Si un canal nativo compatible puede inferir aprobadores de forma segura, OpenClaw ahora habilita automáticamente aprobaciones nativas con DM primero cuando
channels.<channel>.execApprovals.enabledno está definido o es"auto". - Cuando hay disponibles tarjetas/botones de aprobación nativos, esa UI nativa es la ruta principal; el agente solo debe incluir un comando manual
/approvesi el resultado de la herramienta indica que las aprobaciones por chat no están disponibles o que la aprobación manual es la única ruta. - Usa
approvals.execsolo cuando las solicitudes también deban reenviarse a otros chats o salas de operaciones explícitas. - Usa
channels.<channel>.execApprovals.target: "channel"o"both"solo cuando quieras explícitamente que las solicitudes de aprobación se publiquen de vuelta en la sala/tema de origen. - Las aprobaciones de Plugin son otra cosa separada: usan
/approveen el mismo chat de forma predeterminada, reenvío opcional conapprovals.plugin, y solo algunos canales nativos mantienen manejo nativo de aprobaciones de Plugin encima.
Versión corta: el reenvío sirve para enrutar; la configuración de cliente nativo sirve para una UX más rica y específica del canal. Consulta Aprobaciones exec.
¿Qué runtime necesito?
Se requiere Node >= 22. Se recomienda pnpm. Bun no se recomienda para el Gateway.
¿Se ejecuta en Raspberry Pi?
Sí. El Gateway es ligero: la documentación indica 512MB-1GB de RAM, 1 núcleo y unos 500MB de disco como suficiente para uso personal, y señala que una Raspberry Pi 4 puede ejecutarlo.
Si quieres margen adicional (registros, medios, otros servicios), se recomiendan 2GB, pero no es un mínimo estricto.
Consejo: una Pi/VPS pequeña puede hospedar el Gateway, y puedes emparejar nodos en tu portátil/teléfono para pantalla/cámara/canvas local o ejecución de comandos. Consulta Nodos.
¿Algún consejo para instalaciones en Raspberry Pi?
Versión corta: funciona, pero espera algunas asperezas.
- Usa un sistema operativo de 64 bits y mantén Node >= 22.
- Prefiere la instalación hackable (git) para poder ver registros y actualizar rápido.
- Empieza sin canales/skills y luego agrégalos uno por uno.
- Si encuentras problemas binarios extraños, normalmente es un problema de compatibilidad con ARM.
Se queda bloqueado en wake up my friend / el onboarding no eclosiona. ¿Y ahora qué?
Esa pantalla depende de que el Gateway sea accesible y esté autenticado. La TUI también envía "Wake up, my friend!" automáticamente en la primera eclosión. Si ves esa línea sin ninguna respuesta y los tokens permanecen en 0, el agente nunca se ejecutó.
- Reinicia el Gateway:
openclaw gateway restart
- Comprueba el estado + autenticación:
openclaw status
openclaw models status
openclaw logs --follow
- Si sigue colgado, ejecuta:
openclaw doctor
Si el Gateway es remoto, asegúrate de que el túnel/conexión Tailscale esté activo y de que la UI apunte al Gateway correcto. Consulta Acceso remoto.
¿Puedo migrar mi configuración a una máquina nueva (Mac mini) sin repetir el onboarding?
Sí. Copia el directorio de estado y el workspace, y luego ejecuta Doctor una vez. Esto mantiene tu bot "exactamente igual" (memoria, historial de sesiones, autenticación y estado de canales) siempre que copies ambas ubicaciones:
- Instala OpenClaw en la nueva máquina.
- Copia
$OPENCLAW_STATE_DIR(predeterminado:~/.openclaw) desde la máquina antigua. - Copia tu workspace (predeterminado:
~/.openclaw/workspace). - Ejecuta
openclaw doctory reinicia el servicio Gateway.
Eso conserva configuración, perfiles de autenticación, credenciales de WhatsApp, sesiones y memoria. Si estás en modo remoto, recuerda que el host del gateway es dueño del almacén de sesiones y el workspace.
Importante: si solo haces commit/push de tu workspace a GitHub, estás haciendo una copia de seguridad
de memoria + archivos de arranque, pero no del historial de sesiones ni de la autenticación. Esos viven
bajo ~/.openclaw/ (por ejemplo ~/.openclaw/agents/<agentId>/sessions/).
Relacionado: Migración, Dónde viven las cosas en disco, Workspace del agente, Doctor, Modo remoto.
¿Dónde veo qué hay de nuevo en la versión más reciente?
Revisa el changelog de GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Las entradas más nuevas están arriba. Si la sección superior está marcada como Unreleased, la siguiente sección con fecha es la última versión publicada. Las entradas se agrupan por Highlights, Changes y Fixes (además de secciones de documentación/otros cuando sea necesario).
No se puede acceder a docs.openclaw.ai (error SSL)
Algunas conexiones Comcast/Xfinity bloquean incorrectamente docs.openclaw.ai mediante Xfinity
Advanced Security. Desactívalo o añade docs.openclaw.ai a la lista de permitidos y vuelve a intentarlo.
Ayúdanos a desbloquearlo reportándolo aquí: https://spa.xfinity.com/check_url_status.
Si aún no puedes acceder al sitio, la documentación está replicada en GitHub: https://github.com/openclaw/openclaw/tree/main/docs
Diferencia entre estable y beta
Estable y beta son dist-tags de npm, no líneas de código separadas:
latest= establebeta= compilación temprana para pruebas
Normalmente, una versión estable llega primero a beta y luego un paso explícito
de promoción mueve esa misma versión a latest. Los mantenedores también pueden
publicar directamente en latest cuando sea necesario. Por eso beta y estable pueden
apuntar a la misma versión después de la promoción.
Consulta qué cambió: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Para comandos de instalación de una línea y la diferencia entre beta y dev, consulta el acordeón siguiente.
¿Cómo instalo la versión beta y cuál es la diferencia entre beta y dev?
Beta es el dist-tag de npm beta (puede coincidir con latest después de la promoción).
Dev es la cabecera móvil de main (git); cuando se publica, usa el dist-tag de npm dev.
Comandos de una línea (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Instalador de Windows (PowerShell): https://openclaw.ai/install.ps1
Más detalles: Canales de desarrollo y Flags del instalador.
¿Cómo pruebo los últimos cambios?
Dos opciones:
- Canal dev (checkout de git):
openclaw update --channel dev
Esto cambia a la rama main y actualiza desde el código fuente.
- Instalación modificable (desde el sitio del instalador):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Eso te da un repositorio local que puedes editar y luego actualizar mediante git.
Si prefieres una clonación limpia manualmente, usa:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
Documentación: Actualizar, Canales de desarrollo, Instalar.
¿Cuánto suelen tardar la instalación y el onboarding?
Guía aproximada:
- Instalación: 2-5 minutos
- Onboarding: 5-15 minutos, según cuántos canales/modelos configures
Si se queda colgado, usa Instalador bloqueado y el ciclo rápido de depuración en Estoy bloqueado.
¿Instalador bloqueado? ¿Cómo obtengo más información?
Vuelve a ejecutar el instalador con salida detallada:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Instalación beta con salida detallada:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Para una instalación modificable (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Equivalente en Windows (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
Más opciones: Flags del instalador.
La instalación en Windows dice que no se encontró git o que openclaw no se reconoce
Dos problemas comunes en Windows:
1) Error de npm spawn git / no se encontró git
- Instala Git for Windows y asegúrate de que
gitesté en tu PATH. - Cierra y vuelve a abrir PowerShell, luego vuelve a ejecutar el instalador.
2) openclaw no se reconoce después de instalar
-
Tu carpeta global bin de npm no está en PATH.
-
Comprueba la ruta:
npm config get prefix -
Añade ese directorio a tu PATH de usuario (no se necesita el sufijo
\binen Windows; en la mayoría de los sistemas es%AppData%\npm). -
Cierra y vuelve a abrir PowerShell después de actualizar PATH.
Si quieres la configuración más fluida en Windows, usa WSL2 en lugar de Windows nativo. Documentación: Windows.
La salida de exec en Windows muestra texto chino ilegible: ¿qué debo hacer?
Esto suele ser una discrepancia de página de códigos de la consola en shells nativos de Windows.
Síntomas:
- La salida de
system.run/execmuestra chino como mojibake - El mismo comando se ve bien en otro perfil de terminal
Solución rápida en PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
Luego reinicia el Gateway y vuelve a intentar tu comando:
openclaw gateway restart
Si todavía puedes reproducir esto en la versión más reciente de OpenClaw, haz seguimiento o repórtalo en:
La documentación no respondió mi pregunta: ¿cómo obtengo una mejor respuesta?
Usa la instalación modificable (git) para tener todo el código fuente y la documentación localmente, luego pregunta a tu bot (o Claude/Codex) desde esa carpeta para que pueda leer el repositorio y responder con precisión.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Más detalles: Instalar y Flags del instalador.
¿Cómo instalo OpenClaw en Linux?
Respuesta breve: sigue la guía de Linux y luego ejecuta el onboarding.
- Ruta rápida de Linux + instalación del servicio: Linux.
- Recorrido completo: Primeros pasos.
- Instalador + actualizaciones: Instalación y actualizaciones.
¿Cómo instalo OpenClaw en un VPS?
Cualquier VPS Linux funciona. Instálalo en el servidor y luego usa SSH/Tailscale para acceder al Gateway.
Guías: exe.dev, Hetzner, Fly.io. Acceso remoto: Gateway remoto.
¿Dónde están las guías de instalación en la nube/VPS?
Mantenemos un hub de hosting con los proveedores comunes. Elige uno y sigue la guía:
- Hosting VPS (todos los proveedores en un solo lugar)
- Fly.io
- Hetzner
- exe.dev
Cómo funciona en la nube: el Gateway se ejecuta en el servidor y accedes a él desde tu portátil/teléfono mediante la Control UI (o Tailscale/SSH). Tu estado + workspace viven en el servidor, así que trata el host como la fuente de la verdad y haz copias de seguridad.
Puedes emparejar nodos (Mac/iOS/Android/headless) con ese Gateway en la nube para acceder a pantalla/cámara/canvas locales o ejecutar comandos en tu portátil mientras mantienes el Gateway en la nube.
Hub: Plataformas. Acceso remoto: Gateway remoto. Nodos: Nodos, CLI de nodos.
¿Puedo pedirle a OpenClaw que se actualice solo?
Respuesta breve: posible, no recomendado. El flujo de actualización puede reiniciar el Gateway (lo que interrumpe la sesión activa), puede necesitar un checkout de git limpio y puede pedir confirmación. Más seguro: ejecuta las actualizaciones desde una shell como operador.
Usa la CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Si debes automatizarlo desde un agente:
openclaw update --yes --no-restart
openclaw gateway restart
Documentación: Actualizar, Actualización.
¿Qué hace realmente el onboarding?
openclaw onboard es la ruta de configuración recomendada. En modo local te guía por:
- Configuración de modelo/autenticación (OAuth de proveedores, claves de API, setup-token de Anthropic, además de opciones de modelos locales como LM Studio)
- Ubicación del workspace + archivos de arranque
- Configuración del Gateway (bind/port/auth/tailscale)
- Canales (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, además de plugins de canal incluidos como QQ Bot)
- Instalación del daemon (LaunchAgent en macOS; unidad de usuario systemd en Linux/WSL2)
- Comprobaciones de estado y selección de Skills
También advierte si tu modelo configurado es desconocido o no tiene autenticación.
¿Necesito una suscripción a Claude u OpenAI para ejecutar esto?
No. Puedes ejecutar OpenClaw con claves de API (Anthropic/OpenAI/otros) o con modelos solo locales para que tus datos permanezcan en tu dispositivo. Las suscripciones (Claude Pro/Max u OpenAI Codex) son formas opcionales de autenticar esos proveedores.
Para Anthropic en OpenClaw, la división práctica es:
- Clave de API de Anthropic: facturación normal de la API de Anthropic
- Claude CLI / autenticación de suscripción a Claude en OpenClaw: el personal de Anthropic
nos dijo que este uso vuelve a estar permitido, y OpenClaw trata el uso de
claude -pcomo autorizado para esta integración salvo que Anthropic publique una nueva política
Para hosts de Gateway de larga duración, las claves de API de Anthropic siguen siendo la configuración más predecible. OAuth de OpenAI Codex está admitido explícitamente para herramientas externas como OpenClaw.
OpenClaw también admite otras opciones alojadas de tipo suscripción, incluidas Qwen Cloud Coding Plan, MiniMax Coding Plan y Z.AI / GLM Coding Plan.
Documentación: Anthropic, OpenAI, Qwen Cloud, MiniMax, GLM Models, Modelos locales, Modelos.
¿Puedo usar la suscripción Claude Max sin una clave de API?
Sí.
El personal de Anthropic nos dijo que el uso de Claude CLI al estilo OpenClaw vuelve a estar permitido, así que
OpenClaw trata la autenticación de suscripción a Claude y el uso de claude -p como autorizados
para esta integración salvo que Anthropic publique una nueva política. Si quieres
la configuración del lado del servidor más predecible, usa en su lugar una clave de API de Anthropic.
¿Admiten autenticación de suscripción a Claude (Claude Pro o Max)?
Sí.
El personal de Anthropic nos dijo que este uso vuelve a estar permitido, así que OpenClaw trata
la reutilización de Claude CLI y el uso de claude -p como autorizados para esta integración
salvo que Anthropic publique una nueva política.
El setup-token de Anthropic sigue estando disponible como ruta de token admitida por OpenClaw, pero OpenClaw ahora prefiere la reutilización de Claude CLI y claude -p cuando estén disponibles.
Para cargas de trabajo de producción o multiusuario, la autenticación con clave de API de Anthropic sigue siendo la
opción más segura y predecible. Si quieres otras opciones alojadas de tipo suscripción
en OpenClaw, consulta OpenAI, Qwen / Model
Cloud, MiniMax y GLM
Models.
¿Por qué veo HTTP 429 rate_limit_error de Anthropic?
Eso significa que tu cuota/límite de frecuencia de Anthropic se agotó para la ventana actual. Si usas Claude CLI, espera a que se restablezca la ventana o mejora tu plan. Si usas una clave de API de Anthropic, revisa la Anthropic Console para ver uso/facturación y aumenta los límites según sea necesario.
Si el mensaje es específicamente:
Extra usage is required for long context requests, la solicitud está intentando usar
la beta de contexto de 1M de Anthropic (context1m: true). Eso solo funciona cuando tu
credencial es apta para facturación de contexto largo (facturación con clave de API o la
ruta de inicio de sesión de OpenClaw Claude con Extra Usage habilitado).
Consejo: configura un modelo alternativo para que OpenClaw pueda seguir respondiendo mientras un proveedor está limitado por tasa. Consulta Modelos, OAuth y /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
¿AWS Bedrock es compatible?
Sí. OpenClaw incluye un proveedor Amazon Bedrock (Converse) integrado. Con los marcadores de entorno de AWS presentes, OpenClaw puede detectar automáticamente el catálogo de streaming/texto de Bedrock y combinarlo como un proveedor amazon-bedrock implícito; de lo contrario, puedes habilitar explícitamente plugins.entries.amazon-bedrock.config.discovery.enabled o agregar una entrada de proveedor manual. Consulta Amazon Bedrock y Proveedores de modelos. Si prefieres un flujo de clave administrada, un proxy compatible con OpenAI delante de Bedrock sigue siendo una opción válida.
¿Cómo funciona la autenticación de Codex?
OpenClaw admite OpenAI Code (Codex) mediante OAuth (inicio de sesión con ChatGPT). Usa
openai/gpt-5.5 con agentRuntime.id: "codex" para la configuración habitual:
autenticación de suscripción ChatGPT/Codex más ejecución nativa del servidor de aplicaciones de Codex. Usa
openai-codex/gpt-5.5 solo cuando quieras OAuth de Codex mediante el runtime predeterminado
de Codex. El acceso directo con clave de API de OpenAI sigue disponible para superficies
de la API de OpenAI que no son de agente y para modelos de agente mediante un perfil
de clave de API openai-codex ordenado.
Consulta Proveedores de modelos y Configuración inicial (CLI).
¿Por qué OpenClaw todavía menciona openai-codex?
openai-codex es el id de proveedor y de perfil de autenticación para OAuth de ChatGPT/Codex.
Las configuraciones antiguas también lo usaban como prefijo de modelo:
openai/gpt-5.5= autenticación de suscripción ChatGPT/Codex con runtime nativo de Codex para turnos de agenteopenai-codex/gpt-5.5= ruta de modelo heredada reparada poropenclaw doctor --fixopenai/gpt-5.5más un perfil de clave de APIopenai-codexordenado = autenticación con clave de API para un modelo de agente de OpenAIopenai-codex:...= id de perfil de autenticación, no una referencia de modelo
Si quieres la ruta directa de facturación/límites de OpenAI Platform, configura
OPENAI_API_KEY. Si quieres autenticación de suscripción ChatGPT/Codex, inicia sesión con
openclaw models auth login --provider openai-codex. Mantén la referencia de modelo como
openai/gpt-5.5; las referencias de modelo openai-codex/* son configuración heredada que
openclaw doctor --fix reescribe.
¿Por qué los límites de OAuth de Codex pueden diferir de ChatGPT web?
OAuth de Codex usa ventanas de cuota administradas por OpenAI y dependientes del plan. En la práctica, esos límites pueden diferir de la experiencia del sitio web/aplicación de ChatGPT, incluso cuando ambas están vinculadas a la misma cuenta.
OpenClaw puede mostrar las ventanas de uso/cuota del proveedor actualmente visibles en
openclaw models status, pero no inventa ni normaliza derechos de ChatGPT web
como acceso directo a la API. Si quieres la ruta directa de facturación/límites de OpenAI Platform,
usa openai/* con una clave de API.
¿Admiten autenticación de suscripción de OpenAI (OAuth de Codex)?
Sí. OpenClaw admite completamente OAuth de suscripción de OpenAI Code (Codex). OpenAI permite explícitamente el uso de OAuth de suscripción en herramientas/flujos de trabajo externos como OpenClaw. La configuración inicial puede ejecutar el flujo OAuth por ti.
Consulta OAuth, Proveedores de modelos y Configuración inicial (CLI).
¿Cómo configuro OAuth de Gemini CLI?
Gemini CLI usa un flujo de autenticación de Plugin, no un id de cliente ni un secreto en openclaw.json.
Pasos:
- Instala Gemini CLI localmente para que
geminiesté enPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Habilita el Plugin:
openclaw plugins enable google - Inicia sesión:
openclaw models auth login --provider google-gemini-cli --set-default - Modelo predeterminado después del inicio de sesión:
google-gemini-cli/gemini-3-flash-preview - Si las solicitudes fallan, configura
GOOGLE_CLOUD_PROJECToGOOGLE_CLOUD_PROJECT_IDen el host del Gateway
Esto almacena tokens OAuth en perfiles de autenticación en el host del Gateway. Detalles: Proveedores de modelos.
¿Un modelo local es adecuado para chats casuales?
Normalmente no. OpenClaw necesita un contexto grande y seguridad sólida; las tarjetas pequeñas truncan y filtran. Si debes hacerlo, ejecuta localmente la compilación de modelo más grande que puedas (LM Studio) y consulta /gateway/local-models. Los modelos más pequeños/cuantizados aumentan el riesgo de inyección de prompts; consulta Seguridad.
¿Cómo mantengo el tráfico de modelos alojados en una región específica?
Elige endpoints fijados por región. OpenRouter expone opciones alojadas en EE. UU. para MiniMax, Kimi y GLM; elige la variante alojada en EE. UU. para mantener los datos dentro de la región. Aun así puedes listar Anthropic/OpenAI junto a estos usando models.mode: "merge" para que los modelos alternativos sigan disponibles mientras respetas el proveedor regional que selecciones.
¿Tengo que comprar un Mac Mini para instalar esto?
No. OpenClaw se ejecuta en macOS o Linux (Windows mediante WSL2). Un Mac mini es opcional; algunas personas compran uno como host siempre activo, pero un VPS pequeño, un servidor doméstico o un equipo de clase Raspberry Pi también funcionan.
Solo necesitas un Mac para herramientas exclusivas de macOS. Para iMessage, usa BlueBubbles (recomendado): el servidor BlueBubbles se ejecuta en cualquier Mac, y el Gateway puede ejecutarse en Linux o en otro lugar. Si quieres otras herramientas exclusivas de macOS, ejecuta el Gateway en un Mac o empareja un nodo macOS.
Documentación: BlueBubbles, Nodos, Modo remoto de Mac.
¿Necesito un Mac mini para la compatibilidad con iMessage?
Necesitas algún dispositivo macOS con sesión iniciada en Mensajes. No tiene que ser un Mac mini; cualquier Mac sirve. Usa BlueBubbles (recomendado) para iMessage: el servidor BlueBubbles se ejecuta en macOS, mientras que el Gateway puede ejecutarse en Linux o en otro lugar.
Configuraciones habituales:
- Ejecuta el Gateway en Linux/VPS y el servidor BlueBubbles en cualquier Mac con sesión iniciada en Mensajes.
- Ejecuta todo en el Mac si quieres la configuración más sencilla en una sola máquina.
Documentación: BlueBubbles, Nodos, Modo remoto de Mac.
Si compro un Mac mini para ejecutar OpenClaw, ¿puedo conectarlo a mi MacBook Pro?
Sí. El Mac mini puede ejecutar el Gateway, y tu MacBook Pro puede conectarse como un
nodo (dispositivo complementario). Los nodos no ejecutan el Gateway; proporcionan capacidades
adicionales como pantalla/cámara/lienzo y system.run en ese dispositivo.
Patrón habitual:
- Gateway en el Mac mini (siempre activo).
- MacBook Pro ejecuta la aplicación de macOS o un host de nodo y se empareja con el Gateway.
- Usa
openclaw nodes status/openclaw nodes listpara verlo.
Documentación: Nodos, CLI de nodos.
¿Puedo usar Bun?
Bun no se recomienda. Vemos errores de runtime, especialmente con WhatsApp y Telegram. Usa Node para Gateways estables.
Si aun así quieres experimentar con Bun, hazlo en un Gateway que no sea de producción sin WhatsApp/Telegram.
Telegram: ¿qué va en allowFrom?
channels.telegram.allowFrom es el ID de usuario de Telegram del remitente humano (numérico). No es el nombre de usuario del bot.
La configuración solo pide IDs de usuario numéricos. Si ya tienes entradas @username heredadas en la configuración, openclaw doctor --fix puede intentar resolverlas.
Más seguro (sin bot de terceros):
- Envía un DM a tu bot, luego ejecuta
openclaw logs --followy leefrom.id.
API oficial de bots:
- Envía un DM a tu bot, luego llama a
https://api.telegram.org/bot<bot_token>/getUpdatesy leemessage.from.id.
Terceros (menos privado):
- Envía un DM a
@userinfoboto@getidsbot.
Consulta /channels/telegram.
¿Pueden varias personas usar un número de WhatsApp con distintas instancias de OpenClaw?
Sí, mediante enrutamiento multiagente. Vincula el DM de WhatsApp de cada remitente (par kind: "direct", remitente E.164 como +15551234567) a un agentId distinto, para que cada persona tenga su propio espacio de trabajo y almacén de sesión. Las respuestas siguen saliendo de la misma cuenta de WhatsApp, y el control de acceso de DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) es global por cuenta de WhatsApp. Consulta Enrutamiento multiagente y WhatsApp.
¿Puedo ejecutar un agente de "chat rápido" y un agente "Opus para programación"?
Sí. Usa enrutamiento multiagente: da a cada agente su propio modelo predeterminado y luego vincula rutas entrantes (cuenta de proveedor o pares específicos) a cada agente. La configuración de ejemplo está en Enrutamiento multiagente. Consulta también Modelos y Configuración.
¿Homebrew funciona en Linux?
Sí. Homebrew es compatible con Linux (Linuxbrew). Configuración rápida:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
Si ejecutas OpenClaw mediante systemd, asegúrate de que el PATH del servicio incluya /home/linuxbrew/.linuxbrew/bin (o tu prefijo de brew) para que las herramientas instaladas con brew se resuelvan en shells sin inicio de sesión.
Las compilaciones recientes también anteponen directorios bin de usuario comunes en servicios systemd de Linux (por ejemplo ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) y respetan PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR y FNM_DIR cuando están configurados.
Diferencia entre la instalación git modificable y la instalación npm
- Instalación modificable (git): checkout completo del código fuente, editable, ideal para colaboradores. Ejecutas compilaciones localmente y puedes parchear código/documentación.
- Instalación npm: instalación global de CLI, sin repositorio, ideal para "solo ejecutarlo". Las actualizaciones vienen de dist-tags de npm.
Documentación: Primeros pasos, Actualización.
¿Puedo cambiar entre instalaciones npm y git más adelante?
Sí. Usa openclaw update --channel ... cuando OpenClaw ya esté instalado.
Esto no elimina tus datos; solo cambia la instalación del código de OpenClaw.
Tu estado (~/.openclaw) y espacio de trabajo (~/.openclaw/workspace) permanecen intactos.
De npm a git:
openclaw update --channel dev
De git a npm:
openclaw update --channel stable
Agrega --dry-run para previsualizar primero el cambio de modo planificado. El actualizador ejecuta
seguimientos de Doctor, actualiza las fuentes de plugins para el canal de destino y
reinicia el Gateway salvo que pases --no-restart.
El instalador también puede forzar cualquiera de los dos modos:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
Consejos de copia de seguridad: consulta Estrategia de copia de seguridad.
¿Debería ejecutar el Gateway en mi portátil o en un VPS?
Respuesta corta: si quieres fiabilidad 24/7, usa un VPS. Si quieres la menor fricción y no te importan la suspensión/reinicios, ejecútalo localmente.
Portátil (Gateway local)
- Ventajas: sin costo de servidor, acceso directo a archivos locales, ventana de navegador en vivo.
- Desventajas: suspensión/cortes de red = desconexiones, las actualizaciones/reinicios del SO interrumpen, debe permanecer activo.
VPS / nube
- Ventajas: siempre activo, red estable, sin problemas de suspensión del portátil, más fácil de mantener en ejecución.
- Desventajas: a menudo se ejecuta sin interfaz gráfica (usa capturas de pantalla), solo acceso remoto a archivos, debes usar SSH para las actualizaciones.
Nota específica de OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord funcionan bien desde un VPS. La única compensación real es navegador sin interfaz gráfica frente a una ventana visible. Consulta Navegador.
Valor predeterminado recomendado: VPS si antes tuviste desconexiones del Gateway. Local es excelente cuando usas activamente el Mac y quieres acceso a archivos locales o automatización de UI con un navegador visible.
How important is it to run OpenClaw on a dedicated machine?
No es obligatorio, pero se recomienda para fiabilidad y aislamiento.
- Host dedicado (VPS/Mac mini/Pi): siempre activo, menos interrupciones por suspensión/reinicio, permisos más limpios, más fácil de mantener en ejecución.
- Portátil/escritorio compartido: totalmente válido para pruebas y uso activo, pero espera pausas cuando la máquina entre en suspensión o se actualice.
Si quieres lo mejor de ambos mundos, mantén el Gateway en un host dedicado y empareja tu portátil como Node para herramientas locales de pantalla/cámara/exec. Consulta Nodes. Para orientación de seguridad, lee Seguridad.
What are the minimum VPS requirements and recommended OS?
OpenClaw es ligero. Para un Gateway básico + un canal de chat:
- Mínimo absoluto: 1 vCPU, 1 GB de RAM, ~500 MB de disco.
- Recomendado: 1-2 vCPU, 2 GB de RAM o más para margen (registros, multimedia, varios canales). Las herramientas de Node y la automatización del navegador pueden consumir muchos recursos.
SO: usa Ubuntu LTS (o cualquier Debian/Ubuntu moderno). La ruta de instalación en Linux está mejor probada allí.
Documentación: Linux, alojamiento VPS.
Can I run OpenClaw in a VM and what are the requirements?
Sí. Trata una VM igual que un VPS: debe estar siempre encendida, ser accesible y tener suficiente RAM para el Gateway y cualquier canal que habilites.
Guía básica:
- Mínimo absoluto: 1 vCPU, 1 GB de RAM.
- Recomendado: 2 GB de RAM o más si ejecutas varios canales, automatización del navegador o herramientas multimedia.
- SO: Ubuntu LTS u otro Debian/Ubuntu moderno.
Si estás en Windows, WSL2 es la configuración de estilo VM más sencilla y tiene la mejor compatibilidad con herramientas. Consulta Windows, alojamiento VPS. Si estás ejecutando macOS en una VM, consulta VM de macOS.
Relacionado
- FAQ — la FAQ principal (modelos, sesiones, Gateway, seguridad, más)
- Resumen de instalación
- Primeros pasos
- Solución de problemas