FAQ
Perguntas frequentes: configuração da primeira execução
Início rápido e perguntas e respostas da primeira execução. Para operações diárias, modelos, autenticação, sessões e solução de problemas, consulte a FAQ principal.
Início rápido e configuração da primeira execução
Estou travado, a maneira mais rápida de destravar
Use um agente de IA local que consiga ver sua máquina. Isso é muito mais eficaz do que perguntar no Discord, porque a maioria dos casos de "estou travado" são problemas de configuração local ou de ambiente que ajudantes remotos não conseguem inspecionar.
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
Essas ferramentas podem ler o repositório, executar comandos, inspecionar logs e ajudar a corrigir sua configuração em nível de máquina (PATH, serviços, permissões, arquivos de autenticação). Dê a elas o checkout completo do código-fonte por meio da instalação hackeável (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Isso instala o OpenClaw a partir de um checkout git, para que o agente possa ler o código + a documentação e
raciocinar sobre a versão exata que você está executando. Você sempre pode voltar para a versão estável depois
executando novamente o instalador sem --install-method git.
Dica: peça ao agente para planejar e supervisionar a correção (passo a passo) e, em seguida, executar apenas os comandos necessários. Isso mantém as alterações pequenas e mais fáceis de auditar.
Se você descobrir um bug real ou uma correção, abra uma issue no GitHub ou envie um PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
Comece com estes comandos (compartilhe as saídas ao pedir ajuda):
openclaw status
openclaw models status
openclaw doctor
O que eles fazem:
openclaw status: captura rápida da saúde do gateway/agente + configuração básica.openclaw models status: verifica autenticação de provedor + disponibilidade de modelos.openclaw doctor: valida e repara problemas comuns de configuração/estado.
Outras verificações úteis da CLI: openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.
Loop rápido de depuração: Primeiros 60 segundos se algo estiver quebrado. Documentação de instalação: Instalar, Flags do instalador, Atualizar.
Heartbeat continua sendo pulado. O que significam os motivos de pulo?
Motivos comuns para pular o Heartbeat:
quiet-hours: fora da janela de horas ativas configuradaempty-heartbeat-file:HEARTBEAT.mdexiste, mas contém apenas estrutura em branco/somente cabeçalhono-tasks-due: o modo de tarefas deHEARTBEAT.mdestá ativo, mas nenhum dos intervalos de tarefa venceu aindaalerts-disabled: toda a visibilidade do Heartbeat está desativada (showOk,showAlertseuseIndicatorestão todos desligados)
No modo de tarefas, os carimbos de data/hora de vencimento só são avançados depois que uma execução real do Heartbeat é concluída. Execuções puladas não marcam tarefas como concluídas.
Documentação: Heartbeat, Automação e tarefas.
Maneira recomendada de instalar e configurar o OpenClaw
O repositório recomenda executar a partir do código-fonte e usar o onboarding:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
O assistente também pode compilar assets de UI automaticamente. Após o onboarding, você normalmente executa o Gateway na porta 18789.
A partir do código-fonte (contribuidores/desenvolvimento):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
Se você ainda não tiver uma instalação global, execute via pnpm openclaw onboard.
Como abro o painel depois do onboarding?
O assistente abre seu navegador com uma URL limpa (sem token) do painel logo após o onboarding e também imprime o link no resumo. Mantenha essa aba aberta; se ela não abriu, copie/cole a URL impressa na mesma máquina.
Como autentico o painel em localhost versus remoto?
Localhost (mesma máquina):
- Abra
http://127.0.0.1:18789/. - Se ele pedir autenticação por segredo compartilhado, cole o token ou a senha configurada nas configurações da Control UI.
- Fonte do token:
gateway.auth.token(ouOPENCLAW_GATEWAY_TOKEN). - Fonte da senha:
gateway.auth.password(ouOPENCLAW_GATEWAY_PASSWORD). - Se ainda não houver segredo compartilhado configurado, gere um token com
openclaw doctor --generate-gateway-token.
Fora de localhost:
- Tailscale Serve (recomendado): mantenha o bind em local loopback, execute
openclaw gateway --tailscale serve, abrahttps://<magicdns>/. Segateway.auth.allowTailscalefortrue, cabeçalhos de identidade satisfazem a autenticação da Control UI/WebSocket (sem segredo compartilhado colado, pressupõe host de Gateway confiável); APIs HTTP ainda exigem autenticação por segredo compartilhado, a menos que você use deliberadamente private-ingressnoneou autenticação HTTP por trusted-proxy. Tentativas ruins simultâneas de autenticação no Serve vindas do mesmo cliente são serializadas antes que o limitador de autenticação com falha as registre, então a segunda nova tentativa ruim já pode mostrarretry later. - Bind de tailnet: execute
openclaw gateway --bind tailnet --token "<token>"(ou configure autenticação por senha), abrahttp://<tailscale-ip>:18789/e então cole o segredo compartilhado correspondente nas configurações do painel. - Proxy reverso com reconhecimento de identidade: mantenha o Gateway atrás de um proxy confiável, configure
gateway.auth.mode: "trusted-proxy"e então abra a URL do proxy. Proxies de local loopback no mesmo host exigemgateway.auth.trustedProxy.allowLoopback = trueexplícito. - Túnel SSH:
ssh -N -L 18789:127.0.0.1:18789 user@hoste então abrahttp://127.0.0.1:18789/. A autenticação por segredo compartilhado ainda se aplica pelo túnel; cole o token ou a senha configurada se solicitado.
Consulte Painel e Superfícies web para detalhes sobre modos de bind e autenticação.
Por que há duas configurações de aprovação de exec para aprovações no chat?
Elas controlam camadas diferentes:
approvals.exec: encaminha prompts de aprovação para destinos de chatchannels.<channel>.execApprovals: faz esse canal agir como um cliente de aprovação nativo para aprovações de exec
A política de exec do host ainda é o verdadeiro portão de aprovação. A configuração de chat controla apenas onde os prompts de aprovação aparecem e como as pessoas podem respondê-los.
Na maioria das configurações, você não precisa de ambos:
- Se o chat já oferece suporte a comandos e respostas,
/approveno mesmo chat funciona pelo caminho compartilhado. - Se um canal nativo compatível consegue inferir aprovadores com segurança, o OpenClaw agora ativa automaticamente aprovações nativas com DM primeiro quando
channels.<channel>.execApprovals.enabledestá indefinido ou é"auto". - Quando cartões/botões de aprovação nativos estão disponíveis, essa UI nativa é o caminho principal; o agente só deve incluir um comando
/approvemanual se o resultado da ferramenta disser que aprovações por chat estão indisponíveis ou que a aprovação manual é o único caminho. - Use
approvals.execapenas quando os prompts também precisarem ser encaminhados para outros chats ou salas explícitas de operações. - Use
channels.<channel>.execApprovals.target: "channel"ou"both"apenas quando você quiser explicitamente que os prompts de aprovação sejam postados de volta na sala/tópico de origem. - Aprovações de plugin são separadas novamente: elas usam
/approveno mesmo chat por padrão, encaminhamento opcional porapprovals.plugine apenas alguns canais nativos mantêm tratamento nativo de aprovação de plugin por cima.
Versão curta: encaminhamento é para roteamento, configuração de cliente nativo é para uma UX mais rica específica do canal. Consulte Aprovações de Exec.
De qual runtime eu preciso?
Node >= 22 é obrigatório. pnpm é recomendado. Bun não é recomendado para o Gateway.
Ele roda no Raspberry Pi?
Sim. O Gateway é leve - a documentação lista 512MB-1GB de RAM, 1 núcleo e cerca de 500MB de disco como suficientes para uso pessoal, e observa que um Raspberry Pi 4 consegue executá-lo.
Se você quiser folga extra (logs, mídia, outros serviços), 2GB é recomendado, mas isso não é um mínimo obrigatório.
Dica: um Pi/VPS pequeno pode hospedar o Gateway, e você pode parear nodes no seu laptop/telefone para tela/câmera/canvas local ou execução de comandos. Consulte Nodes.
Alguma dica para instalações em Raspberry Pi?
Versão curta: funciona, mas espere algumas arestas.
- Use um SO de 64 bits e mantenha Node >= 22.
- Prefira a instalação hackeável (git) para poder ver logs e atualizar rapidamente.
- Comece sem canais/Skills, depois adicione um por um.
- Se você encontrar problemas estranhos de binário, geralmente é um problema de compatibilidade com ARM.
Está travado em wake up my friend / o onboarding não vai hatch. E agora?
Essa tela depende de o Gateway estar acessível e autenticado. A TUI também envia "Wake up, my friend!" automaticamente no primeiro hatch. Se você vir essa linha sem resposta e os tokens permanecerem em 0, o agente nunca foi executado.
- Reinicie o Gateway:
openclaw gateway restart
- Verifique status + autenticação:
openclaw status
openclaw models status
openclaw logs --follow
- Se ainda travar, execute:
openclaw doctor
Se o Gateway for remoto, garanta que a conexão por túnel/Tailscale esteja ativa e que a UI esteja apontada para o Gateway correto. Consulte Acesso remoto.
Posso migrar minha configuração para uma nova máquina (Mac mini) sem refazer o onboarding?
Sim. Copie o diretório de estado e o workspace e então execute o Doctor uma vez. Isso mantém seu bot "exatamente igual" (memória, histórico de sessões, autenticação e estado de canais) desde que você copie ambos os locais:
- Instale o OpenClaw na nova máquina.
- Copie
$OPENCLAW_STATE_DIR(padrão:~/.openclaw) da máquina antiga. - Copie seu workspace (padrão:
~/.openclaw/workspace). - Execute
openclaw doctore reinicie o serviço do Gateway.
Isso preserva configuração, perfis de autenticação, credenciais do WhatsApp, sessões e memória. Se você estiver no modo remoto, lembre-se de que o host do gateway é dono do armazenamento de sessões e do workspace.
Importante: se você apenas fizer commit/push do seu workspace para o GitHub, estará fazendo backup
de memória + arquivos de bootstrap, mas não do histórico de sessões ou da autenticação. Eles ficam
em ~/.openclaw/ (por exemplo, ~/.openclaw/agents/<agentId>/sessions/).
Relacionado: Migração, Onde as coisas ficam no disco, Workspace do agente, Doctor, Modo remoto.
Onde vejo o que há de novo na versão mais recente?
Verifique o changelog do GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
As entradas mais novas ficam no topo. Se a seção superior estiver marcada como Unreleased, a próxima seção com data é a versão mais recente já entregue. As entradas são agrupadas por Destaques, Alterações e Correções (além de seções de documentação/outras quando necessário).
Não consigo acessar docs.openclaw.ai (erro de SSL)
Algumas conexões Comcast/Xfinity bloqueiam incorretamente docs.openclaw.ai via Xfinity
Advanced Security. Desative isso ou adicione docs.openclaw.ai à lista de permissões e tente novamente.
Ajude-nos a desbloqueá-lo relatando aqui: https://spa.xfinity.com/check_url_status.
Se você ainda não conseguir acessar o site, a documentação está espelhada no GitHub: https://github.com/openclaw/openclaw/tree/main/docs
Diferença entre stable e beta
Stable e beta são npm dist-tags, não linhas de código separadas:
latest= stablebeta= build inicial para testes
Normalmente, uma versão stable chega primeiro em beta e, depois, uma etapa explícita
de promoção move essa mesma versão para latest. Mantenedores também podem
publicar direto em latest quando necessário. É por isso que beta e stable podem
apontar para a mesma versão após a promoção.
Veja o que mudou: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Para comandos de instalação de uma linha e a diferença entre beta e dev, veja o accordion abaixo.
Como instalo a versão beta e qual é a diferença entre beta e dev?
Beta é o npm dist-tag beta (pode corresponder a latest após a promoção).
Dev é a ponta móvel de main (git); quando publicada, usa o npm dist-tag dev.
Comandos de uma linha (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Instalador do Windows (PowerShell): https://openclaw.ai/install.ps1
Mais detalhes: Canais de desenvolvimento e Flags do instalador.
Como testo os bits mais recentes?
Duas opções:
- Canal dev (git checkout):
openclaw update --channel dev
Isso muda para a branch main e atualiza a partir do código-fonte.
- Instalação editável (a partir do site do instalador):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Isso fornece um repositório local que você pode editar e depois atualizar via git.
Se preferir fazer um clone limpo manualmente, use:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
Documentação: Atualizar, Canais de desenvolvimento, Instalar.
Quanto tempo a instalação e o onboarding normalmente levam?
Guia aproximado:
- Instalação: 2-5 minutos
- Onboarding: 5-15 minutos, dependendo de quantos canais/modelos você configurar
Se travar, use Instalador travado e o loop rápido de depuração em Estou travado.
Instalador travado? Como obtenho mais feedback?
Execute o instalador novamente com saída detalhada:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Instalação beta com saída detalhada:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Para uma instalação editável (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Equivalente no Windows (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
Mais opções: Flags do instalador.
A instalação no Windows diz que git não foi encontrado ou openclaw não é reconhecido
Dois problemas comuns no Windows:
1) Erro npm spawn git / git não encontrado
- Instale o Git for Windows e garanta que
gitesteja no seu PATH. - Feche e reabra o PowerShell e execute o instalador novamente.
2) openclaw não é reconhecido após a instalação
-
Sua pasta npm global bin não está no PATH.
-
Verifique o caminho:
npm config get prefix -
Adicione esse diretório ao seu PATH de usuário (sem sufixo
\binno Windows; na maioria dos sistemas é%AppData%\npm). -
Feche e reabra o PowerShell depois de atualizar o PATH.
Se quiser a configuração mais tranquila no Windows, use WSL2 em vez do Windows nativo. Documentação: Windows.
A saída de exec no Windows mostra texto chinês corrompido - o que devo fazer?
Isso normalmente é uma incompatibilidade de página de código do console em shells nativos do Windows.
Sintomas:
- A saída de
system.run/execrenderiza chinês como mojibake - O mesmo comando aparece corretamente em outro perfil de terminal
Solução rápida no PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
Depois reinicie o Gateway e tente o comando novamente:
openclaw gateway restart
Se você ainda reproduzir isso na versão mais recente do OpenClaw, acompanhe/relate em:
A documentação não respondeu à minha pergunta - como obtenho uma resposta melhor?
Use a instalação editável (git) para ter todo o código-fonte e a documentação localmente, depois pergunte ao seu bot (ou Claude/Codex) a partir dessa pasta para que ele possa ler o repositório e responder com precisão.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Mais detalhes: Instalar e Flags do instalador.
Como instalo o OpenClaw no Linux?
Resposta curta: siga o guia do Linux e depois execute o onboarding.
- Caminho rápido no Linux + instalação de serviço: Linux.
- Passo a passo completo: Primeiros passos.
- Instalador + atualizações: Instalação e atualizações.
Como instalo o OpenClaw em uma VPS?
Qualquer VPS Linux funciona. Instale no servidor e depois use SSH/Tailscale para acessar o Gateway.
Guias: exe.dev, Hetzner, Fly.io. Acesso remoto: Gateway remoto.
Onde estão os guias de instalação em cloud/VPS?
Mantemos um hub de hospedagem com os provedores comuns. Escolha um e siga o guia:
- Hospedagem VPS (todos os provedores em um só lugar)
- Fly.io
- Hetzner
- exe.dev
Como funciona na cloud: o Gateway roda no servidor, e você o acessa do seu laptop/celular pela Control UI (ou Tailscale/SSH). Seu estado + workspace ficam no servidor, então trate o host como a fonte da verdade e faça backup dele.
Você pode parear nodes (Mac/iOS/Android/headless) com esse Gateway na cloud para acessar tela/câmera/canvas locais ou executar comandos no seu laptop enquanto mantém o Gateway na cloud.
Hub: Plataformas. Acesso remoto: Gateway remoto. Nodes: Nodes, CLI de nodes.
Posso pedir para o OpenClaw se atualizar sozinho?
Resposta curta: possível, não recomendado. O fluxo de atualização pode reiniciar o Gateway (o que derruba a sessão ativa), pode precisar de um git checkout limpo e pode solicitar confirmação. Mais seguro: execute atualizações a partir de um shell como operador.
Use a CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Se precisar automatizar a partir de um agente:
openclaw update --yes --no-restart
openclaw gateway restart
Documentação: Atualizar, Atualizando.
O que o onboarding realmente faz?
openclaw onboard é o caminho de configuração recomendado. No modo local, ele orienta você por:
- Configuração de modelo/autenticação (OAuth de provedor, chaves de API, token de configuração Anthropic, além de opções de modelo local como LM Studio)
- Local do workspace + arquivos de bootstrap
- Configurações do Gateway (bind/porta/autenticação/tailscale)
- Canais (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, além de plugins de canal incluídos, como QQ Bot)
- Instalação do daemon (LaunchAgent no macOS; unidade de usuário systemd no Linux/WSL2)
- Verificações de integridade e seleção de skills
Ele também avisa se o modelo configurado é desconhecido ou não tem autenticação.
Preciso de uma assinatura Claude ou OpenAI para executar isso?
Não. Você pode executar o OpenClaw com chaves de API (Anthropic/OpenAI/outros) ou com modelos somente locais para que seus dados permaneçam no seu dispositivo. Assinaturas (Claude Pro/Max ou OpenAI Codex) são formas opcionais de autenticar esses provedores.
Para Anthropic no OpenClaw, a divisão prática é:
- Chave de API Anthropic: cobrança normal da API Anthropic
- Claude CLI / autenticação de assinatura Claude no OpenClaw: a equipe da Anthropic
nos disse que esse uso é permitido novamente, e o OpenClaw está tratando o uso de
claude -pcomo sancionado para esta integração, a menos que a Anthropic publique uma nova política
Para hosts de gateway de longa duração, chaves de API Anthropic ainda são a configuração mais previsível. O OAuth do OpenAI Codex é explicitamente compatível com ferramentas externas como o OpenClaw.
O OpenClaw também oferece suporte a outras opções hospedadas no estilo assinatura, incluindo Qwen Cloud Coding Plan, MiniMax Coding Plan e Z.AI / GLM Coding Plan.
Documentação: Anthropic, OpenAI, Qwen Cloud, MiniMax, Modelos GLM, Modelos locais, Modelos.
Posso usar uma assinatura Claude Max sem uma chave de API?
Sim.
A equipe da Anthropic nos disse que o uso do Claude CLI no estilo OpenClaw é permitido novamente, então
o OpenClaw trata a autenticação por assinatura Claude e o uso de claude -p como sancionados
para esta integração, a menos que a Anthropic publique uma nova política. Se você quiser
a configuração de servidor mais previsível, use uma chave de API Anthropic.
Vocês oferecem suporte à autenticação por assinatura Claude (Claude Pro ou Max)?
Sim.
A equipe da Anthropic nos disse que esse uso é permitido novamente, então o OpenClaw trata
a reutilização do Claude CLI e o uso de claude -p como sancionados para esta integração,
a menos que a Anthropic publique uma nova política.
O token de configuração Anthropic ainda está disponível como um caminho de token compatível no OpenClaw, mas agora o OpenClaw prefere a reutilização do Claude CLI e claude -p quando disponíveis.
Para cargas de trabalho de produção ou multiusuário, a autenticação por chave de API Anthropic ainda é a
escolha mais segura e previsível. Se você quiser outras opções hospedadas
no estilo assinatura no OpenClaw, veja OpenAI, Qwen / Model
Cloud, MiniMax e Modelos
GLM.
Por que estou vendo HTTP 429 rate_limit_error da Anthropic?
Isso significa que sua cota/limite de taxa da Anthropic se esgotou para a janela atual. Se você usa Claude CLI, aguarde a janela ser redefinida ou faça upgrade do seu plano. Se você usa uma chave de API Anthropic, verifique o Anthropic Console para uso/cobrança e aumente os limites conforme necessário.
Se a mensagem for especificamente:
Extra usage is required for long context requests, a solicitação está tentando usar
o beta de contexto de 1M da Anthropic (context1m: true). Isso só funciona quando sua
credencial é elegível para cobrança de contexto longo (cobrança por chave de API ou o
caminho de login Claude do OpenClaw com Extra Usage ativado).
Dica: defina um modelo de fallback para que o OpenClaw continue respondendo enquanto um provedor estiver com limite de taxa. Consulte Modelos, OAuth e /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
Há suporte ao AWS Bedrock?
Sim. O OpenClaw tem um provedor Amazon Bedrock (Converse) incluído. Com marcadores de ambiente AWS presentes, o OpenClaw pode descobrir automaticamente o catálogo Bedrock de streaming/texto e mesclá-lo como um provedor implícito amazon-bedrock; caso contrário, você pode ativar explicitamente plugins.entries.amazon-bedrock.config.discovery.enabled ou adicionar uma entrada manual de provedor. Consulte Amazon Bedrock e Provedores de modelo. Se você preferir um fluxo de chave gerenciada, um proxy compatível com OpenAI na frente do Bedrock ainda é uma opção válida.
Como a autenticação do Codex funciona?
O OpenClaw oferece suporte ao OpenAI Code (Codex) via OAuth (login do ChatGPT). Use
openai/gpt-5.5 com agentRuntime.id: "codex" para a configuração comum:
autenticação por assinatura ChatGPT/Codex mais execução nativa no servidor de app do Codex. Use
openai-codex/gpt-5.5 apenas quando quiser OAuth do Codex pelo runtime padrão
do Codex. O acesso direto por chave de API da OpenAI continua disponível para superfícies da API
da OpenAI que não sejam de agentes e para modelos de agentes por meio de um perfil de chave de API
openai-codex ordenado.
Consulte Provedores de modelo e Onboarding (CLI).
Por que o OpenClaw ainda menciona openai-codex?
openai-codex é o ID de provedor e de perfil de autenticação para OAuth ChatGPT/Codex.
Configurações antigas também o usavam como prefixo de modelo:
openai/gpt-5.5= autenticação por assinatura ChatGPT/Codex com runtime nativo do Codex para turnos de agenteopenai-codex/gpt-5.5= rota de modelo legada reparada poropenclaw doctor --fixopenai/gpt-5.5mais um perfil de chave de APIopenai-codexordenado = autenticação por chave de API para um modelo de agente da OpenAIopenai-codex:...= ID de perfil de autenticação, não uma referência de modelo
Se você quiser o caminho direto de cobrança/limite da OpenAI Platform, defina
OPENAI_API_KEY. Se você quiser autenticação por assinatura ChatGPT/Codex, entre com
openclaw models auth login --provider openai-codex. Mantenha a referência de modelo como
openai/gpt-5.5; referências de modelo openai-codex/* são configuração legada que
openclaw doctor --fix reescreve.
Por que os limites de OAuth do Codex podem ser diferentes dos do ChatGPT web?
O OAuth do Codex usa janelas de cota gerenciadas pela OpenAI e dependentes do plano. Na prática, esses limites podem diferir da experiência do site/app do ChatGPT, mesmo quando ambos estão vinculados à mesma conta.
O OpenClaw pode mostrar as janelas de uso/cota do provedor atualmente visíveis em
openclaw models status, mas ele não inventa nem normaliza direitos do ChatGPT web
para acesso direto à API. Se você quiser o caminho direto de cobrança/limite da OpenAI Platform,
use openai/* com uma chave de API.
Vocês oferecem suporte à autenticação por assinatura da OpenAI (OAuth do Codex)?
Sim. O OpenClaw oferece suporte completo ao OAuth por assinatura do OpenAI Code (Codex). A OpenAI permite explicitamente o uso de OAuth por assinatura em ferramentas/fluxos de trabalho externos como o OpenClaw. O onboarding pode executar o fluxo OAuth para você.
Consulte OAuth, Provedores de modelo e Onboarding (CLI).
Como configuro o OAuth do Gemini CLI?
O Gemini CLI usa um fluxo de autenticação de Plugin, não um ID de cliente ou segredo em openclaw.json.
Etapas:
- Instale o Gemini CLI localmente para que
geminiesteja noPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Ative o Plugin:
openclaw plugins enable google - Faça login:
openclaw models auth login --provider google-gemini-cli --set-default - Modelo padrão após o login:
google-gemini-cli/gemini-3-flash-preview - Se as solicitações falharem, defina
GOOGLE_CLOUD_PROJECTouGOOGLE_CLOUD_PROJECT_IDno host do gateway
Isso armazena tokens OAuth em perfis de autenticação no host do gateway. Detalhes: Provedores de modelo.
Um modelo local é adequado para conversas casuais?
Normalmente, não. O OpenClaw precisa de contexto grande + segurança forte; placas pequenas truncam e vazam. Se precisar, execute localmente a build do maior modelo que conseguir (LM Studio) e consulte /gateway/local-models. Modelos menores/quantizados aumentam o risco de injeção de prompt - consulte Segurança.
Como mantenho o tráfego de modelos hospedados em uma região específica?
Escolha endpoints fixados por região. O OpenRouter expõe opções hospedadas nos EUA para MiniMax, Kimi e GLM; escolha a variante hospedada nos EUA para manter os dados na região. Você ainda pode listar Anthropic/OpenAI junto com esses usando models.mode: "merge" para que fallbacks continuem disponíveis enquanto respeitam o provedor regional selecionado.
Preciso comprar um Mac Mini para instalar isto?
Não. O OpenClaw roda em macOS ou Linux (Windows via WSL2). Um Mac mini é opcional - algumas pessoas compram um como host sempre ligado, mas um VPS pequeno, servidor doméstico ou caixa da classe Raspberry Pi também funciona.
Você só precisa de um Mac para ferramentas exclusivas do macOS. Para iMessage, use BlueBubbles (recomendado) - o servidor BlueBubbles roda em qualquer Mac, e o Gateway pode rodar no Linux ou em outro lugar. Se quiser outras ferramentas exclusivas do macOS, execute o Gateway em um Mac ou emparelhe um Node macOS.
Documentação: BlueBubbles, Nodes, Modo remoto no Mac.
Preciso de um Mac mini para suporte ao iMessage?
Você precisa de algum dispositivo macOS conectado ao Mensagens. Não precisa ser um Mac mini - qualquer Mac funciona. Use BlueBubbles (recomendado) para iMessage - o servidor BlueBubbles roda no macOS, enquanto o Gateway pode rodar no Linux ou em outro lugar.
Configurações comuns:
- Execute o Gateway no Linux/VPS e execute o servidor BlueBubbles em qualquer Mac conectado ao Mensagens.
- Execute tudo no Mac se quiser a configuração de máquina única mais simples.
Documentação: BlueBubbles, Nodes, Modo remoto no Mac.
Se eu comprar um Mac mini para executar o OpenClaw, posso conectá-lo ao meu MacBook Pro?
Sim. O Mac mini pode executar o Gateway, e seu MacBook Pro pode se conectar como um
Node (dispositivo complementar). Nodes não executam o Gateway - eles fornecem recursos extras
como tela/câmera/canvas e system.run nesse dispositivo.
Padrão comum:
- Gateway no Mac mini (sempre ligado).
- MacBook Pro executa o app macOS ou um host de Node e se emparelha ao Gateway.
- Use
openclaw nodes status/openclaw nodes listpara vê-lo.
Documentação: Nodes, CLI de Nodes.
Posso usar Bun?
Bun não é recomendado. Vemos bugs de runtime, especialmente com WhatsApp e Telegram. Use Node para gateways estáveis.
Se você ainda quiser experimentar com Bun, faça isso em um gateway que não seja de produção sem WhatsApp/Telegram.
Telegram: o que vai em allowFrom?
channels.telegram.allowFrom é o ID de usuário do Telegram do remetente humano (numérico). Não é o nome de usuário do bot.
A configuração pede apenas IDs de usuário numéricos. Se você já tiver entradas legadas @username na configuração, openclaw doctor --fix pode tentar resolvê-las.
Mais seguro (sem bot de terceiros):
- Envie uma DM para seu bot, depois execute
openclaw logs --followe leiafrom.id.
API oficial de Bots:
- Envie uma DM para seu bot, depois chame
https://api.telegram.org/bot<bot_token>/getUpdatese leiamessage.from.id.
Terceiros (menos privado):
- Envie uma DM para
@userinfobotou@getidsbot.
Consulte /channels/telegram.
Várias pessoas podem usar um número do WhatsApp com instâncias diferentes do OpenClaw?
Sim, via roteamento multiagente. Vincule a DM do WhatsApp de cada remetente (peer kind: "direct", remetente E.164 como +15551234567) a um agentId diferente, para que cada pessoa tenha seu próprio workspace e armazenamento de sessão. As respostas ainda vêm da mesma conta do WhatsApp, e o controle de acesso de DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) é global por conta do WhatsApp. Consulte Roteamento multiagente e WhatsApp.
Posso executar um agente de "chat rápido" e um agente de "Opus para programação"?
Sim. Use roteamento multiagente: dê a cada agente seu próprio modelo padrão e então vincule rotas de entrada (conta do provedor ou peers específicos) a cada agente. Um exemplo de configuração fica em Roteamento multiagente. Consulte também Modelos e Configuração.
O Homebrew funciona no Linux?
Sim. O Homebrew oferece suporte ao Linux (Linuxbrew). Configuração rápida:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
Se você executar o OpenClaw via systemd, garanta que o PATH do serviço inclua /home/linuxbrew/.linuxbrew/bin (ou seu prefixo brew) para que ferramentas instaladas com brew sejam resolvidas em shells sem login.
Builds recentes também antepõem diretórios bin de usuário comuns em serviços systemd do Linux (por exemplo ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) e respeitam PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR e FNM_DIR quando definidos.
Diferença entre a instalação git hackeável e a instalação npm
- Instalação hackeável (git): checkout completo do código-fonte, editável, melhor para contribuidores. Você executa builds localmente e pode corrigir código/documentação.
- Instalação npm: instalação global da CLI, sem repositório, melhor para "só executar". Atualizações vêm dos dist-tags do npm.
Documentação: Primeiros passos, Atualização.
Posso alternar entre instalações npm e git depois?
Sim. Use openclaw update --channel ... quando o OpenClaw já estiver instalado.
Isso não exclui seus dados - apenas altera a instalação do código do OpenClaw.
Seu estado (~/.openclaw) e workspace (~/.openclaw/workspace) permanecem intocados.
De npm para git:
openclaw update --channel dev
De git para npm:
openclaw update --channel stable
Adicione --dry-run para pré-visualizar primeiro a troca de modo planejada. O atualizador executa
acompanhamentos do Doctor, atualiza as fontes de Plugin para o canal de destino e
reinicia o gateway, a menos que você passe --no-restart.
O instalador também pode forçar qualquer um dos modos:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
Dicas de backup: consulte Estratégia de backup.
Devo executar o Gateway no meu laptop ou em um VPS?
Resposta curta: se você quer confiabilidade 24/7, use um VPS. Se quiser o mínimo de atrito e não se importar com suspensão/reinicializações, execute localmente.
Laptop (Gateway local)
- Prós: sem custo de servidor, acesso direto a arquivos locais, janela do navegador ao vivo.
- Contras: suspensão/quedas de rede = desconexões, atualizações/reinicializações do SO interrompem, precisa permanecer ativo.
VPS / nuvem
- Prós: sempre ligado, rede estável, sem problemas de suspensão do laptop, mais fácil de manter em execução.
- Contras: geralmente roda em modo headless (use capturas de tela), acesso remoto apenas aos arquivos, você precisa usar SSH para atualizações.
Observação específica do OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord funcionam bem a partir de uma VPS. A única troca real é navegador headless vs uma janela visível. Veja Navegador.
Padrão recomendado: VPS se você já teve desconexões do Gateway antes. Local é ótimo quando você está usando ativamente o Mac e quer acesso a arquivos locais ou automação de interface com um navegador visível.
Qual é a importância de executar o OpenClaw em uma máquina dedicada?
Não é obrigatório, mas é recomendado para confiabilidade e isolamento.
- Host dedicado (VPS/Mac mini/Pi): sempre ligado, menos interrupções por suspensão/reinicialização, permissões mais limpas, mais fácil de manter em execução.
- Laptop/desktop compartilhado: totalmente adequado para testes e uso ativo, mas espere pausas quando a máquina suspender ou atualizar.
Se você quer o melhor dos dois mundos, mantenha o Gateway em um host dedicado e pareie seu laptop como um Node para ferramentas locais de tela/câmera/exec. Veja Nodes. Para orientações de segurança, leia Segurança.
Quais são os requisitos mínimos de VPS e o SO recomendado?
O OpenClaw é leve. Para um Gateway básico + um canal de chat:
- Mínimo absoluto: 1 vCPU, 1 GB de RAM, ~500 MB de disco.
- Recomendado: 1-2 vCPU, 2 GB de RAM ou mais para folga (logs, mídia, vários canais). Ferramentas de Node e automação de navegador podem consumir muitos recursos.
SO: use Ubuntu LTS (ou qualquer Debian/Ubuntu moderno). O caminho de instalação no Linux é mais bem testado nele.
Documentação: Linux, Hospedagem VPS.
Posso executar o OpenClaw em uma VM e quais são os requisitos?
Sim. Trate uma VM da mesma forma que uma VPS: ela precisa estar sempre ligada, acessível e ter RAM suficiente para o Gateway e quaisquer canais que você habilitar.
Orientação básica:
- Mínimo absoluto: 1 vCPU, 1 GB de RAM.
- Recomendado: 2 GB de RAM ou mais se você executar vários canais, automação de navegador ou ferramentas de mídia.
- SO: Ubuntu LTS ou outro Debian/Ubuntu moderno.
Se você está no Windows, WSL2 é a configuração em estilo VM mais fácil e tem a melhor compatibilidade com ferramentas. Veja Windows, Hospedagem VPS. Se você está executando macOS em uma VM, veja VM macOS.
Relacionado
- FAQ — o FAQ principal (modelos, sessões, gateway, segurança, mais)
- Visão geral da instalação
- Primeiros passos
- Solução de problemas