CLI commands

CLI de inferência

openclaw infer é a superfície headless canônica para fluxos de trabalho de inferência apoiados por provedores.

Ela expõe intencionalmente famílias de capacidades, não nomes RPC brutos do Gateway nem ids brutos de ferramentas de agente.

Transforme infer em uma skill

Copie e cole isto em um agente:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

Uma boa skill baseada em infer deve:

  • mapear intenções comuns do usuário para o subcomando infer correto
  • incluir alguns exemplos canônicos de infer para os fluxos de trabalho que ela cobre
  • preferir openclaw infer ... em exemplos e sugestões
  • evitar redocumentar toda a superfície de infer dentro do corpo da skill

Cobertura típica de uma skill focada em infer:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Por que usar infer

openclaw infer fornece uma CLI consistente para tarefas de inferência apoiadas por provedores dentro do OpenClaw.

Benefícios:

  • Use os provedores e modelos já configurados no OpenClaw em vez de montar wrappers pontuais para cada backend.
  • Mantenha fluxos de trabalho de modelo, imagem, transcrição de áudio, TTS, vídeo, web e embeddings sob uma única árvore de comandos.
  • Use um formato de saída --json estável para scripts, automação e fluxos de trabalho conduzidos por agentes.
  • Prefira uma superfície própria do OpenClaw quando a tarefa for fundamentalmente "executar inferência".
  • Use o caminho local normal sem exigir o Gateway para a maioria dos comandos infer.

Para verificações de provedores de ponta a ponta, prefira openclaw infer ... assim que os testes de provedor de nível mais baixo estiverem verdes. Ele exercita a CLI distribuída, o carregamento de configuração, a resolução do agente padrão, a ativação de Plugin empacotado e o runtime compartilhado de capacidades antes de a solicitação ao provedor ser feita.

Árvore de comandos

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Tarefas comuns

Esta tabela mapeia tarefas comuns de inferência para o comando infer correspondente.

Tarefa Comando Observações
Executar um prompt de texto/modelo openclaw infer model run --prompt "..." --json Usa o caminho local normal por padrão
Executar um prompt de modelo em imagens openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model Repita --file para várias entradas de imagem
Gerar uma imagem openclaw infer image generate --prompt "..." --json Use image edit ao começar de um arquivo existente
Descrever um arquivo de imagem openclaw infer image describe --file ./image.png --prompt "..." --json --model deve ser um <provider/model> compatível com imagens
Transcrever áudio openclaw infer audio transcribe --file ./memo.m4a --json --model deve ser <provider/model>
Sintetizar fala openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status é orientado ao Gateway
Gerar um vídeo openclaw infer video generate --prompt "..." --json Compatível com dicas de provedor como --resolution
Descrever um arquivo de vídeo openclaw infer video describe --file ./clip.mp4 --json --model deve ser <provider/model>
Pesquisar na web openclaw infer web search --query "..." --json
Buscar uma página web openclaw infer web fetch --url https://example.com --json
Criar embeddings openclaw infer embedding create --text "..." --json

Comportamento

  • openclaw infer ... é a superfície principal de CLI para estes fluxos de trabalho.
  • Use --json quando a saída for consumida por outro comando ou script.
  • Use --provider ou --model provider/model quando um backend específico for necessário.
  • Para image describe, audio transcribe e video describe, --model deve usar o formato <provider/model>.
  • Para image describe, um --model explícito executa esse provedor/modelo diretamente. O modelo deve ser compatível com imagens no catálogo de modelos ou na configuração do provedor. codex/<model> executa um turno limitado de compreensão de imagem no app-server do Codex; openai-codex/<model> usa o caminho do provedor OAuth do OpenAI Codex.
  • Comandos de execução sem estado usam local por padrão.
  • Comandos de estado gerenciado pelo Gateway usam Gateway por padrão.
  • O caminho local normal não exige que o Gateway esteja em execução.
  • model run local é uma conclusão enxuta e pontual de provedor. Ele resolve o modelo e a autenticação configurados do agente, mas não inicia um turno de chat-agent, carrega ferramentas nem abre servidores MCP empacotados.
  • model run --file aceita arquivos de imagem, detecta seu tipo MIME e os envia com o prompt fornecido ao modelo selecionado. Repita --file para várias imagens.
  • model run --file rejeita entradas que não sejam imagens. Use infer audio transcribe para arquivos de áudio e infer video describe para arquivos de vídeo.
  • model run --gateway exercita o roteamento do Gateway, autenticação salva, seleção de provedor e o runtime embutido, mas ainda executa como uma sondagem bruta de modelo: ele envia o prompt fornecido e quaisquer anexos de imagem sem transcrição de sessão anterior, contexto bootstrap/AGENTS, montagem do context-engine, ferramentas ou servidores MCP empacotados.
  • model run --gateway --model <provider/model> exige uma credencial de Gateway de operador confiável porque a solicitação pede que o Gateway execute uma substituição pontual de provedor/modelo.

Modelo

Use model para inferência de texto apoiada por provedores e inspeção de modelo/provedor.

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

Use referências completas <provider/model> para testar especificamente um provedor sem fumaça sem iniciar o Gateway nem carregar toda a superfície de ferramentas do agente:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

Observações:

  • model run local é o smoke de CLI mais estreito para integridade de provedor/modelo/autenticação porque, para provedores não Codex, ele envia apenas o prompt fornecido ao modelo selecionado.
  • Sondagens locais openai-codex/* são a exceção estreita: o OpenClaw adiciona uma instrução de sistema mínima para que o transporte Codex Responses possa preencher seu campo instructions obrigatório, sem adicionar contexto completo de agente, ferramentas, memória ou transcrição de sessão.
  • model run --file local mantém esse caminho enxuto e anexa conteúdo de imagem diretamente à única mensagem do usuário. Arquivos de imagem comuns, como PNG, JPEG e WebP, funcionam quando seu tipo MIME é detectado como image/*; arquivos sem suporte ou não reconhecidos falham antes de o provedor ser chamado.
  • model run --file é melhor quando você quer testar diretamente o modelo de texto multimodal selecionado. Use infer image describe quando quiser a seleção de provedor de compreensão de imagem e o roteamento padrão de modelo de imagem do OpenClaw.
  • O modelo selecionado deve aceitar entrada de imagem; modelos somente texto podem rejeitar a solicitação na camada do provedor.
  • model run --prompt deve conter texto não composto apenas por espaços em branco; prompts vazios são rejeitados antes de provedores locais ou o Gateway serem chamados.
  • model run local sai com código diferente de zero quando o provedor não retorna saída de texto, de modo que provedores locais inalcançáveis e conclusões vazias não pareçam sondagens bem-sucedidas.
  • Use model run --gateway quando precisar testar o roteamento do Gateway, a configuração do agent-runtime ou estado de provedor gerenciado pelo Gateway, mantendo a entrada do modelo bruta. Use openclaw agent ou superfícies de chat quando quiser o contexto completo do agente, ferramentas, memória e transcrição de sessão.
  • model auth login, model auth logout e model auth status gerenciam o estado de autenticação salvo do provedor.

Imagem

Use image para geração, edição e descrição.

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

Observações:

  • Use image edit ao começar a partir de arquivos de entrada existentes.

  • Use --size, --aspect-ratio ou --resolution com image edit para provedores/modelos que oferecem suporte a dicas de geometria em edições de imagens de referência.

  • Use --output-format png --background transparent com --model openai/gpt-image-1.5 para saída PNG da OpenAI com fundo transparente; --openai-background continua disponível como um alias específico da OpenAI. Provedores que não declaram suporte a fundo relatam a dica como uma substituição ignorada.

  • Use image providers --json para verificar quais provedores de imagem incluídos são descobríveis, configurados, selecionados, e quais capacidades de geração/edição cada provedor expõe.

  • Use image generate --model <provider/model> --json como o teste smoke live de CLI mais restrito para alterações de geração de imagens. Exemplo:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    A resposta JSON relata ok, provider, model, attempts e caminhos de saída gravados. Quando --output é definido, a extensão final pode seguir o tipo MIME retornado pelo provedor.

  • Para image describe e image describe-many, use --prompt para dar ao modelo de visão uma instrução específica da tarefa, como OCR, comparação, inspeção de UI ou legendagem concisa.

  • Use --timeout-ms com modelos de visão locais lentos ou inicializações a frio do Ollama.

  • Para image describe, --model deve ser um <provider/model> com suporte a imagem.

  • Para modelos de visão locais do Ollama, baixe o modelo primeiro e defina OLLAMA_API_KEY como qualquer valor de placeholder, por exemplo ollama-local. Veja Ollama.

Áudio

Use audio para transcrição de arquivos.

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Observações:

  • audio transcribe é para transcrição de arquivos, não para gerenciamento de sessões em tempo real.
  • --model deve ser <provider/model>.

TTS

Use tts para síntese de fala e estado do provedor de TTS.

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

Observações:

  • tts status usa gateway por padrão porque reflete o estado de TTS gerenciado pelo gateway.
  • Use tts providers, tts voices e tts set-provider para inspecionar e configurar o comportamento de TTS.

Vídeo

Use video para geração e descrição.

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

Observações:

  • video generate aceita --size, --aspect-ratio, --resolution, --duration, --audio, --watermark e --timeout-ms e os encaminha ao runtime de geração de vídeo.
  • --model deve ser <provider/model> para video describe.

Web

Use web para fluxos de trabalho de busca e obtenção.

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

Observações:

  • Use web providers para inspecionar provedores disponíveis, configurados e selecionados.

Embedding

Use embedding para criação de vetores e inspeção de provedores de embedding.

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

Saída JSON

Os comandos Infer normalizam a saída JSON em um envelope compartilhado:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

Os campos de nível superior são estáveis:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

Para comandos de mídia gerada, outputs contém arquivos gravados pelo OpenClaw. Use path, mimeType, size e quaisquer dimensões específicas de mídia nesse array para automação em vez de analisar stdout legível por humanos.

Armadilhas comuns

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Observações

  • openclaw capability ... é um alias para openclaw infer ....

Relacionado