CLI commands

Inferentie-CLI

openclaw infer is het canonieke headless oppervlak voor door providers ondersteunde inferentieworkflows.

Het toont bewust capability families, niet ruwe Gateway-RPC-namen en niet ruwe agent-tool-id's.

Maak van infer een skill

Kopieer en plak dit naar een agent:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

Een goede op infer gebaseerde skill moet:

  • veelvoorkomende gebruikersintenties koppelen aan de juiste infer-subopdracht
  • enkele canonieke infer-voorbeelden bevatten voor de workflows die de skill dekt
  • in voorbeelden en suggesties de voorkeur geven aan openclaw infer ...
  • vermijden dat het volledige infer-oppervlak opnieuw wordt gedocumenteerd in de skill-body

Typische dekking voor een op infer gerichte skill:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Waarom infer gebruiken

openclaw infer biedt een consistente CLI voor door providers ondersteunde inferentietaken binnen OpenClaw.

Voordelen:

  • Gebruik de providers en modellen die al in OpenClaw zijn geconfigureerd in plaats van eenmalige wrappers voor elke backend te maken.
  • Houd workflows voor model, afbeelding, audiotranscriptie, TTS, video, web en embeddings onder één opdrachtenstructuur.
  • Gebruik een stabiele --json-uitvoervorm voor scripts, automatisering en agent-gestuurde workflows.
  • Geef de voorkeur aan een first-party OpenClaw-oppervlak wanneer de taak in de kern "inferentie uitvoeren" is.
  • Gebruik voor de meeste infer-opdrachten het normale lokale pad zonder dat de Gateway nodig is.

Geef voor end-to-end providercontroles de voorkeur aan openclaw infer ... zodra tests voor providers op lager niveau groen zijn. Dit oefent de geleverde CLI, het laden van configuratie, standaard-agentresolutie, activatie van gebundelde plugins en de gedeelde capability-runtime voordat de provideraanvraag wordt gedaan.

Opdrachtenstructuur

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Veelvoorkomende taken

Deze tabel koppelt veelvoorkomende inferentietaken aan de bijbehorende infer-opdracht.

Taak Opdracht Notities
Een tekst-/modelprompt uitvoeren openclaw infer model run --prompt "..." --json Gebruikt standaard het normale lokale pad
Een modelprompt uitvoeren op afbeeldingen openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model Herhaal --file voor meerdere afbeeldingsinputs
Een afbeelding genereren openclaw infer image generate --prompt "..." --json Gebruik image edit wanneer je begint met een bestaand bestand
Een afbeeldingsbestand beschrijven openclaw infer image describe --file ./image.png --prompt "..." --json --model moet een beeldgeschikte <provider/model> zijn
Audio transcriberen openclaw infer audio transcribe --file ./memo.m4a --json --model moet <provider/model> zijn
Spraak synthetiseren openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status is Gateway-georiënteerd
Een video genereren openclaw infer video generate --prompt "..." --json Ondersteunt providerhints zoals --resolution
Een videobestand beschrijven openclaw infer video describe --file ./clip.mp4 --json --model moet <provider/model> zijn
Het web doorzoeken openclaw infer web search --query "..." --json
Een webpagina ophalen openclaw infer web fetch --url https://example.com --json
Embeddings maken openclaw infer embedding create --text "..." --json

Gedrag

  • openclaw infer ... is het primaire CLI-oppervlak voor deze workflows.
  • Gebruik --json wanneer de uitvoer wordt verbruikt door een andere opdracht of een script.
  • Gebruik --provider of --model provider/model wanneer een specifieke backend vereist is.
  • Voor image describe, audio transcribe en video describe moet --model de vorm <provider/model> gebruiken.
  • Voor image describe voert een expliciete --model die provider/dat model direct uit. Het model moet beeldgeschikt zijn in de modelcatalogus of providerconfiguratie. codex/<model> voert een begrensde Codex app-server beurt voor beeldbegrip uit; openai-codex/<model> gebruikt het OpenAI Codex OAuth-providerpad.
  • Stateless uitvoeringsopdrachten gebruiken standaard lokaal.
  • Door de Gateway beheerde statusopdrachten gebruiken standaard de Gateway.
  • Het normale lokale pad vereist niet dat de Gateway actief is.
  • Lokale model run is een lichte eenmalige providercompletion. Deze lost het geconfigureerde agentmodel en de auth op, maar start geen chat-agentbeurt, laadt geen tools en opent geen gebundelde MCP-servers.
  • model run --file accepteert afbeeldingsbestanden, detecteert hun MIME-type en stuurt ze met de opgegeven prompt naar het geselecteerde model. Herhaal --file voor meerdere afbeeldingen.
  • model run --file weigert niet-afbeeldingsinputs. Gebruik infer audio transcribe voor audiobestanden en infer video describe voor videobestanden.
  • model run --gateway oefent Gateway-routering, opgeslagen auth, providerselectie en de ingebedde runtime, maar draait nog steeds als een ruwe modelprobe: het stuurt de opgegeven prompt en eventuele afbeeldingsbijlagen zonder voorafgaand sessietranscript, bootstrap-/AGENTS-context, context-engine-assemblage, tools of gebundelde MCP-servers.
  • model run --gateway --model <provider/model> vereist een vertrouwde operator-Gatewayreferentie, omdat de aanvraag de Gateway vraagt een eenmalige provider-/modeloverschrijving uit te voeren.

Model

Gebruik model voor door providers ondersteunde tekstinferentie en model-/providerinspectie.

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

Gebruik volledige <provider/model>-referenties om een specifieke provider te smoke-testen zonder de Gateway te starten of het volledige oppervlak van agenttools te laden:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

Notities:

  • Lokale model run is de smalste CLI-smoke voor de gezondheid van provider/model/auth omdat deze, voor niet-Codex-providers, alleen de opgegeven prompt naar het geselecteerde model stuurt.
  • Lokale probes met openai-codex/* vormen de smalle uitzondering: OpenClaw voegt een minimale systeeminstructie toe zodat het Codex Responses-transport het vereiste veld instructions kan vullen, zonder volledige agentcontext, tools, geheugen of sessietranscript toe te voegen.
  • Lokale model run --file behoudt dat lichte pad en voegt afbeeldingsinhoud direct toe aan het ene gebruikersbericht. Veelvoorkomende afbeeldingsbestanden zoals PNG, JPEG en WebP werken wanneer hun MIME-type als image/* wordt gedetecteerd; niet-ondersteunde of niet-herkende bestanden falen voordat de provider wordt aangeroepen.
  • model run --file is het best wanneer je het geselecteerde multimodale tekstmodel direct wilt testen. Gebruik infer image describe wanneer je OpenClaw's selectie van beeldbegripproviders en standaardroutering van afbeeldingsmodellen wilt gebruiken.
  • Het geselecteerde model moet afbeeldingsinput ondersteunen; modellen die alleen tekst ondersteunen kunnen de aanvraag op providerlaag weigeren.
  • model run --prompt moet niet-witruimtetekst bevatten; lege prompts worden geweigerd voordat lokale providers of de Gateway worden aangeroepen.
  • Lokale model run sluit af met een niet-nulcode wanneer de provider geen tekstuitvoer retourneert, zodat onbereikbare lokale providers en lege completions niet op succesvolle probes lijken.
  • Gebruik model run --gateway wanneer je Gateway-routering, agent-runtimeconfiguratie of door de Gateway beheerde providerstatus moet testen terwijl de modelinput ruw blijft. Gebruik openclaw agent of chatoppervlakken wanneer je de volledige agentcontext, tools, geheugen en sessietranscript wilt.
  • model auth login, model auth logout en model auth status beheren opgeslagen provider-authstatus.

Afbeelding

Gebruik image voor generatie, bewerking en beschrijving.

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

Notities:

  • Gebruik image edit wanneer u begint met bestaande invoerbestanden.

  • Gebruik --size, --aspect-ratio of --resolution met image edit voor providers/modellen die geometrie-aanwijzingen ondersteunen bij bewerkingen van referentieafbeeldingen.

  • Gebruik --output-format png --background transparent met --model openai/gpt-image-1.5 voor OpenAI-PNG-uitvoer met transparante achtergrond; --openai-background blijft beschikbaar als OpenAI-specifiek alias. Providers die geen ondersteuning voor achtergronden declareren, rapporteren de aanwijzing als een genegeerde override.

  • Gebruik image providers --json om te verifiëren welke gebundelde afbeeldingsproviders vindbaar, geconfigureerd en geselecteerd zijn, en welke generatie-/bewerkingsmogelijkheden elke provider blootstelt.

  • Gebruik image generate --model <provider/model> --json als de meest gerichte live CLI-smoke voor wijzigingen in afbeeldingsgeneratie. Voorbeeld:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    De JSON-respons rapporteert ok, provider, model, attempts en geschreven uitvoerpaden. Wanneer --output is ingesteld, kan de uiteindelijke extensie het door de provider geretourneerde MIME-type volgen.

  • Gebruik voor image describe en image describe-many --prompt om het vision-model een taakspecifieke instructie te geven, zoals OCR, vergelijking, UI-inspectie of beknopte onderschriften.

  • Gebruik --timeout-ms met trage lokale vision-modellen of koude Ollama-starts.

  • Voor image describe moet --model een afbeeldingsgeschikt <provider/model> zijn.

  • Voor lokale Ollama vision-modellen haalt u eerst het model op en stelt u OLLAMA_API_KEY in op een willekeurige placeholderwaarde, bijvoorbeeld ollama-local. Zie Ollama.

Audio

Gebruik audio voor bestandstranscriptie.

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Opmerkingen:

  • audio transcribe is bedoeld voor bestandstranscriptie, niet voor realtime sessiebeheer.
  • --model moet <provider/model> zijn.

TTS

Gebruik tts voor spraaksynthese en TTS-providerstatus.

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

Opmerkingen:

  • tts status gebruikt standaard de Gateway omdat dit de door de Gateway beheerde TTS-status weerspiegelt.
  • Gebruik tts providers, tts voices en tts set-provider om TTS-gedrag te inspecteren en te configureren.

Video

Gebruik video voor generatie en beschrijving.

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

Opmerkingen:

  • video generate accepteert --size, --aspect-ratio, --resolution, --duration, --audio, --watermark en --timeout-ms en geeft deze door aan de runtime voor videogeneratie.
  • --model moet <provider/model> zijn voor video describe.

Web

Gebruik web voor zoek- en ophaalworkflows.

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

Opmerkingen:

  • Gebruik web providers om beschikbare, geconfigureerde en geselecteerde providers te inspecteren.

Embedding

Gebruik embedding voor het maken van vectoren en inspectie van embeddingproviders.

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

JSON-uitvoer

Infer-opdrachten normaliseren JSON-uitvoer onder een gedeelde envelop:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

Velden op topniveau zijn stabiel:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

Voor opdrachten die media genereren, bevat outputs bestanden die door OpenClaw zijn geschreven. Gebruik de path, mimeType, size en eventuele mediaspecifieke dimensies in die array voor automatisering in plaats van door mensen leesbare stdout te parsen.

Veelvoorkomende valkuilen

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Opmerkingen

  • openclaw capability ... is een alias voor openclaw infer ....

Gerelateerd