Guides

Referência de configuração da CLI

Esta página é a referência completa para openclaw onboard. Para o guia curto, consulte Onboarding (CLI).

O que o assistente faz

O modo local (padrão) orienta você por:

  • Configuração de modelo e autenticação (OAuth da assinatura OpenAI Code, CLI ou chave de API do Anthropic Claude, além de opções MiniMax, GLM, Ollama, Moonshot, StepFun e AI Gateway)
  • Local do workspace e arquivos de bootstrap
  • Configurações do Gateway (porta, bind, autenticação, Tailscale)
  • Canais e provedores (Telegram, WhatsApp, Discord, Google Chat, Mattermost, Signal, BlueBubbles e outros plugins de canal incluídos)
  • Instalação do daemon (LaunchAgent, unidade de usuário systemd ou Tarefa Agendada nativa do Windows com fallback para a pasta Inicializar)
  • Verificação de integridade
  • Configuração de Skills

O modo remoto configura esta máquina para se conectar a um gateway em outro lugar. Ele não instala nem modifica nada no host remoto.

Detalhes do fluxo local

  • Detecção de configuração existente

    • Se ~/.openclaw/openclaw.json existir, escolha Manter, Modificar ou Redefinir.
    • Executar o assistente novamente não apaga nada, a menos que você escolha Redefinir explicitamente (ou passe --reset).
    • CLI --reset usa config+creds+sessions por padrão; use --reset-scope full para também remover o workspace.
    • Se a configuração for inválida ou contiver chaves legadas, o assistente para e pede que você execute openclaw doctor antes de continuar.
    • A redefinição usa trash e oferece escopos:
      • Apenas configuração
      • Configuração + credenciais + sessões
      • Redefinição completa (também remove o workspace)
  • Modelo e autenticação

  • Workspace

    • Padrão ~/.openclaw/workspace (configurável).
    • Preenche arquivos do workspace necessários para o ritual de bootstrap da primeira execução.
    • Layout do workspace: Workspace do agente.
  • Gateway

    • Solicita porta, bind, modo de autenticação e exposição via Tailscale.
    • Recomendado: mantenha a autenticação por token ativada mesmo para loopback, para que clientes WS locais precisem se autenticar.
    • No modo token, a configuração interativa oferece:
      • Gerar/armazenar token em texto simples (padrão)
      • Usar SecretRef (opcional)
    • No modo senha, a configuração interativa também oferece armazenamento em texto simples ou SecretRef.
    • Caminho SecretRef de token não interativo: --gateway-token-ref-env <ENV_VAR>.
      • Exige uma variável de ambiente não vazia no ambiente do processo de onboarding.
      • Não pode ser combinado com --gateway-token.
    • Desative a autenticação apenas se você confiar totalmente em todos os processos locais.
    • Binds que não são de loopback ainda exigem autenticação.
  • Canais

    • WhatsApp: login opcional por QR
    • Telegram: token de bot
    • Discord: token de bot
    • Google Chat: JSON de conta de serviço + público do Webhook
    • Mattermost: token de bot + URL base
    • Signal: instalação opcional de signal-cli + configuração da conta
    • BlueBubbles: recomendado para iMessage; URL do servidor + senha + Webhook
    • iMessage: caminho legado da CLI imsg + acesso ao banco de dados
    • Segurança de DM: o padrão é pareamento. A primeira DM envia um código; aprove via openclaw pairing approve <channel> <code> ou use listas de permissão.
  • Instalação do daemon

    • macOS: LaunchAgent
      • Exige sessão de usuário conectada; para headless, use um LaunchDaemon personalizado (não incluído).
    • Linux e Windows via WSL2: unidade de usuário systemd
      • O assistente tenta loginctl enable-linger <user> para que o gateway continue ativo após logout.
      • Pode solicitar sudo (grava em /var/lib/systemd/linger); ele tenta sem sudo primeiro.
    • Windows nativo: Tarefa Agendada primeiro
      • Se a criação da tarefa for negada, o OpenClaw volta para um item de login por usuário na pasta Inicializar e inicia o gateway imediatamente.
      • Tarefas Agendadas continuam sendo preferidas porque fornecem melhor status de supervisor.
    • Seleção de runtime: Node (recomendado; obrigatório para WhatsApp e Telegram). Bun não é recomendado.
  • Verificação de integridade

    • Inicia o gateway (se necessário) e executa openclaw health.
    • openclaw status --deep adiciona a sondagem de integridade do gateway ao vivo à saída de status, incluindo sondagens de canal quando compatíveis.
  • Skills

    • Lê as skills disponíveis e verifica requisitos.
    • Permite escolher o gerenciador de node: npm, pnpm ou bun.
    • Instala dependências opcionais (algumas usam Homebrew no macOS).
  • Concluir

    • Resumo e próximos passos, incluindo opções de app para iOS, Android e macOS.
  • Detalhes do modo remoto

    O modo remoto configura esta máquina para se conectar a um gateway em outro lugar.

    O que você configura:

    • URL do gateway remoto (ws://...)
    • Token, se a autenticação do gateway remoto for obrigatória (recomendado)

    Opções de autenticação e modelo

    Chave de API Anthropic

    Usa ANTHROPIC_API_KEY se presente ou solicita uma chave, depois a salva para uso pelo daemon.

    Assinatura OpenAI Code (OAuth)

    Fluxo no navegador; cole code#state.

    Define agents.defaults.model como openai-codex/gpt-5.5 quando o modelo não está definido ou já é da família OpenAI.

    Assinatura OpenAI Code (pareamento de dispositivo)

    Fluxo de pareamento no navegador com um código de dispositivo de curta duração.

    Define agents.defaults.model como openai-codex/gpt-5.5 quando o modelo não está definido ou já é da família OpenAI.

    Chave de API OpenAI

    Usa OPENAI_API_KEY se presente ou solicita uma chave, depois armazena a credencial nos perfis de autenticação.

    Define agents.defaults.model como openai/gpt-5.5 quando o modelo não está definido, openai/* ou openai-codex/*.

    Chave de API xAI (Grok)

    Solicita XAI_API_KEY e configura xAI como provedor de modelo.

    OpenCode

    Solicita OPENCODE_API_KEY (ou OPENCODE_ZEN_API_KEY) e permite escolher o catálogo Zen ou Go. URL de configuração: opencode.ai/auth.

    Chave de API (genérica)

    Armazena a chave para você.

    Vercel AI Gateway

    Solicita AI_GATEWAY_API_KEY. Mais detalhes: Vercel AI Gateway.

    Cloudflare AI Gateway

    Solicita ID da conta, ID do gateway e CLOUDFLARE_AI_GATEWAY_API_KEY. Mais detalhes: Cloudflare AI Gateway.

    MiniMax

    A configuração é gravada automaticamente. O padrão hospedado é MiniMax-M2.7; a configuração com chave de API usa minimax/..., e a configuração com OAuth usa minimax-portal/.... Mais detalhes: MiniMax.

    StepFun

    A configuração é gravada automaticamente para StepFun padrão ou Step Plan em endpoints da China ou globais. Atualmente, o padrão inclui step-3.5-flash, e o Step Plan também inclui step-3.5-flash-2603. Mais detalhes: StepFun.

    Synthetic (compatível com Anthropic)

    Solicita SYNTHETIC_API_KEY. Mais detalhes: Synthetic.

    Ollama (modelos abertos locais e Cloud)

    Solicita primeiro Cloud + Local, Cloud only ou Local only. Cloud only usa OLLAMA_API_KEY com https://ollama.com. Os modos baseados em host solicitam a URL base (padrão http://127.0.0.1:11434), descobrem modelos disponíveis e sugerem padrões. Cloud + Local também verifica se esse host Ollama está autenticado para acesso à cloud. Mais detalhes: Ollama.

    Moonshot e Kimi Coding

    As configurações Moonshot (Kimi K2) e Kimi Coding são gravadas automaticamente. Mais detalhes: Moonshot AI (Kimi + Kimi Coding).

    Provedor personalizado

    Funciona com endpoints compatíveis com OpenAI e compatíveis com Anthropic.

    O onboarding interativo oferece as mesmas opções de armazenamento de chave de API que outros fluxos de chave de API de provedores:

    • Colar chave de API agora (texto simples)
    • Usar referência secreta (ref de ambiente ou ref de provedor configurado, com validação de pré-voo)

    Flags não interativas:

    • --auth-choice custom-api-key
    • --custom-base-url
    • --custom-model-id
    • --custom-api-key (opcional; usa CUSTOM_API_KEY como fallback)
    • --custom-provider-id (opcional)
    • --custom-compatibility <openai|anthropic> (opcional; padrão openai)
    • --custom-image-input / --custom-text-input (opcional; substitui a capacidade inferida de entrada do modelo)
    Pular

    Deixa a autenticação sem configurar.

    Comportamento do modelo:

    • Escolha o modelo padrão entre as opções detectadas ou informe provedor e modelo manualmente.
    • O onboarding de provedor personalizado infere suporte a imagem para IDs de modelo comuns e pergunta apenas quando o nome do modelo é desconhecido.
    • Quando o onboarding começa a partir de uma opção de autenticação de provedor, o seletor de modelo prefere esse provedor automaticamente. Para Volcengine e BytePlus, a mesma preferência também corresponde às variantes de plano de codificação (volcengine-plan/*, byteplus-plan/*).
    • Se esse filtro de provedor preferido ficar vazio, o seletor volta para o catálogo completo em vez de não mostrar modelos.
    • O assistente executa uma verificação de modelo e avisa se o modelo configurado é desconhecido ou se falta autenticação.

    Caminhos de credenciais e perfis:

    • Perfis de autenticação (chaves de API + OAuth): ~/.openclaw/agents/<agentId>/agent/auth-profiles.json
    • Importação OAuth legada: ~/.openclaw/credentials/oauth.json

    Modo de armazenamento de credenciais:

    • O comportamento padrão de onboarding persiste chaves de API como valores em texto simples nos perfis de autenticação.
    • --secret-input-mode ref ativa o modo de referência em vez de armazenamento de chave em texto simples. Na configuração interativa, você pode escolher:
      • ref de variável de ambiente (por exemplo keyRef: { source: "env", provider: "default", id: "OPENAI_API_KEY" })
      • ref de provedor configurado (file ou exec) com alias do provedor + id
    • O modo de referência interativo executa uma validação rápida de pré-voo antes de salvar.
      • Refs de env: valida o nome da variável + valor não vazio no ambiente atual de onboarding.
      • Refs de provedor: valida a configuração do provedor e resolve o id solicitado.
      • Se o pré-voo falhar, o onboarding mostra o erro e permite tentar novamente.
    • No modo não interativo, --secret-input-mode ref é baseado apenas em env.
      • Defina a variável de ambiente do provedor no ambiente do processo de onboarding.
      • Flags de chave embutidas (por exemplo --openai-api-key) exigem que essa variável de ambiente esteja definida; caso contrário, o onboarding falha rapidamente.
      • Para provedores personalizados, o modo ref não interativo armazena models.providers.<id>.apiKey como { source: "env", provider: "default", id: "CUSTOM_API_KEY" }.
      • Nesse caso de provedor personalizado, --custom-api-key exige que CUSTOM_API_KEY esteja definido; caso contrário, o onboarding falha rapidamente.
    • As credenciais de autenticação do Gateway oferecem opções de texto simples e SecretRef na configuração interativa:
      • Modo token: Gerar/armazenar token em texto simples (padrão) ou Usar SecretRef.
      • Modo senha: texto simples ou SecretRef.
    • Caminho SecretRef de token não interativo: --gateway-token-ref-env &lt;ENV_VAR&gt;.
    • Configurações existentes em texto simples continuam funcionando sem alterações.

    Saídas e detalhes internos

    Campos típicos em ~/.openclaw/openclaw.json:

    • agents.defaults.workspace
    • agents.defaults.skipBootstrap quando --skip-bootstrap é passado
    • agents.defaults.model / models.providers (se Minimax for escolhido)
    • tools.profile (o onboarding local usa "coding" por padrão quando não definido; valores explícitos existentes são preservados)
    • gateway.* (modo, bind, autenticação, tailscale)
    • session.dmScope (o onboarding local define isso como per-channel-peer por padrão quando não definido; valores explícitos existentes são preservados)
    • channels.telegram.botToken, channels.discord.token, channels.matrix.*, channels.signal.*, channels.imessage.*
    • Listas de permissões de canais (Slack, Discord, Matrix, Microsoft Teams) quando você opta por elas durante os prompts (os nomes são resolvidos para IDs quando possível)
    • skills.install.nodeManager
      • A flag setup --node-manager aceita npm, pnpm ou bun.
      • A configuração manual ainda pode definir skills.install.nodeManager: "yarn" posteriormente.
    • wizard.lastRunAt
    • wizard.lastRunVersion
    • wizard.lastRunCommit
    • wizard.lastRunCommand
    • wizard.lastRunMode

    openclaw agents add grava agents.list[] e bindings opcionais.

    As credenciais do WhatsApp ficam em ~/.openclaw/credentials/whatsapp/<accountId>/. As sessões são armazenadas em ~/.openclaw/agents/<agentId>/sessions/.

    RPC do assistente do Gateway:

    • wizard.start
    • wizard.next
    • wizard.cancel
    • wizard.status

    Clientes (aplicativo macOS e Control UI) podem renderizar etapas sem reimplementar a lógica de onboarding.

    Comportamento de configuração do Signal:

    • Baixa o artefato de release apropriado
    • Armazena-o em ~/.openclaw/tools/signal-cli/<version>/
    • Grava channels.signal.cliPath na configuração
    • Builds JVM exigem Java 21
    • Builds nativos são usados quando disponíveis
    • Windows usa WSL2 e segue o fluxo Linux do signal-cli dentro do WSL

    Documentos relacionados