CLI commands

Inferenz-CLI

openclaw infer ist die maßgebliche Headless-Oberfläche für Provider-gestützte Inferenz-Workflows.

Es stellt bewusst Funktionsfamilien bereit, nicht rohe Gateway-RPC-Namen und nicht rohe Agent-Tool-IDs.

infer in ein Skill umwandeln

Kopieren Sie dies und fügen Sie es in einen Agent ein:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

Ein gutes infer-basiertes Skill sollte:

  • häufige Benutzerabsichten dem richtigen infer-Unterbefehl zuordnen
  • einige kanonische infer-Beispiele für die abgedeckten Workflows enthalten
  • in Beispielen und Vorschlägen openclaw infer ... bevorzugen
  • vermeiden, die gesamte infer-Oberfläche im Skill-Text erneut zu dokumentieren

Typische Abdeckung für infer-fokussierte Skills:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Warum infer verwenden

openclaw infer stellt eine einheitliche CLI für Provider-gestützte Inferenzaufgaben innerhalb von OpenClaw bereit.

Vorteile:

  • Verwenden Sie die bereits in OpenClaw konfigurierten Provider und Modelle, anstatt einmalige Wrapper für jedes Backend zu verdrahten.
  • Halten Sie Modell-, Bild-, Audiotranskriptions-, TTS-, Video-, Web- und Embedding-Workflows unter einem Befehlsbaum.
  • Verwenden Sie eine stabile --json-Ausgabeform für Skripte, Automatisierung und Agent-gesteuerte Workflows.
  • Bevorzugen Sie eine native OpenClaw-Oberfläche, wenn die Aufgabe im Kern „Inferenz ausführen“ ist.
  • Verwenden Sie für die meisten infer-Befehle den normalen lokalen Pfad, ohne den Gateway zu benötigen.

Für End-to-End-Provider-Prüfungen bevorzugen Sie openclaw infer ..., sobald untergeordnete Provider-Tests erfolgreich sind. Es prüft die ausgelieferte CLI, das Laden der Konfiguration, die Auflösung des Standard-Agent, die Aktivierung gebündelter Plugins und die gemeinsame Capability- Laufzeitumgebung, bevor die Provider-Anfrage gestellt wird.

Befehlsbaum

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Häufige Aufgaben

Diese Tabelle ordnet häufige Inferenzaufgaben dem entsprechenden infer-Befehl zu.

Aufgabe Befehl Hinweise
Einen Text-/Modell-Prompt ausführen openclaw infer model run --prompt "..." --json Verwendet standardmäßig den normalen lokalen Pfad
Einen Modell-Prompt mit Bildern ausführen openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model Wiederholen Sie --file für mehrere Bildeingaben
Ein Bild generieren openclaw infer image generate --prompt "..." --json Verwenden Sie image edit, wenn Sie mit einer bestehenden Datei beginnen
Eine Bilddatei beschreiben openclaw infer image describe --file ./image.png --prompt "..." --json --model muss ein bildfähiges <provider/model> sein
Audio transkribieren openclaw infer audio transcribe --file ./memo.m4a --json --model muss <provider/model> sein
Sprache synthetisieren openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status ist Gateway-orientiert
Ein Video generieren openclaw infer video generate --prompt "..." --json Unterstützt Provider-Hinweise wie --resolution
Eine Videodatei beschreiben openclaw infer video describe --file ./clip.mp4 --json --model muss <provider/model> sein
Das Web durchsuchen openclaw infer web search --query "..." --json
Eine Webseite abrufen openclaw infer web fetch --url https://example.com --json
Embeddings erstellen openclaw infer embedding create --text "..." --json

Verhalten

  • openclaw infer ... ist die primäre CLI-Oberfläche für diese Workflows.
  • Verwenden Sie --json, wenn die Ausgabe von einem anderen Befehl oder Skript verarbeitet wird.
  • Verwenden Sie --provider oder --model provider/model, wenn ein bestimmtes Backend erforderlich ist.
  • Für image describe, audio transcribe und video describe muss --model die Form <provider/model> verwenden.
  • Für image describe führt ein explizites --model dieses Provider/Modell direkt aus. Das Modell muss im Modellkatalog oder in der Provider-Konfiguration bildfähig sein. codex/<model> führt einen begrenzten Codex-App-Server-Turn zum Bildverständnis aus; openai-codex/<model> verwendet den OpenAI Codex-OAuth-Provider-Pfad.
  • Zustandslose Ausführungsbefehle verwenden standardmäßig lokal.
  • Gateway-verwaltete Zustandsbefehle verwenden standardmäßig den Gateway.
  • Der normale lokale Pfad erfordert nicht, dass der Gateway läuft.
  • Lokales model run ist ein schlanker einmaliger Provider-Completion-Aufruf. Er löst das konfigurierte Agent-Modell und die Authentifizierung auf, startet aber keinen Chat-Agent-Turn, lädt keine Tools und öffnet keine gebündelten MCP-Server.
  • model run --file akzeptiert Bilddateien, erkennt deren MIME-Typ und sendet sie mit dem angegebenen Prompt an das ausgewählte Modell. Wiederholen Sie --file für mehrere Bilder.
  • model run --file lehnt Nicht-Bildeingaben ab. Verwenden Sie infer audio transcribe für Audiodateien und infer video describe für Videodateien.
  • model run --gateway prüft Gateway-Routing, gespeicherte Authentifizierung, Provider-Auswahl und die eingebettete Laufzeitumgebung, läuft aber weiterhin als roher Modell-Probe: Es sendet den angegebenen Prompt und alle Bildanhänge ohne vorheriges Sitzungstranskript, Bootstrap-/AGENTS-Kontext, Context-Engine-Assembly, Tools oder gebündelte MCP-Server.
  • model run --gateway --model <provider/model> erfordert eine vertrauenswürdige Operator-Gateway-Anmeldeinformation, da die Anfrage den Gateway auffordert, eine einmalige Provider/Modell-Überschreibung auszuführen.

Modell

Verwenden Sie model für Provider-gestützte Textinferenz und die Prüfung von Modell/Provider.

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

Verwenden Sie vollständige <provider/model>-Referenzen, um einen bestimmten Provider zu smoke-testen, ohne den Gateway zu starten oder die vollständige Agent-Tool-Oberfläche zu laden:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

Hinweise:

  • Lokales model run ist der engste CLI-Smoke für den Zustand von Provider/Modell/Auth, weil es bei Nicht-Codex-Providern nur den angegebenen Prompt an das ausgewählte Modell sendet.
  • Lokale openai-codex/*-Probes sind die schmale Ausnahme: OpenClaw fügt eine minimale Systemanweisung hinzu, damit der Codex-Responses-Transport sein erforderliches Feld instructions befüllen kann, ohne vollständigen Agent-Kontext, Tools, Memory oder Sitzungstranskript hinzuzufügen.
  • Lokales model run --file behält diesen schlanken Pfad bei und hängt Bildinhalte direkt an die einzelne Benutzernachricht an. Gängige Bilddateien wie PNG, JPEG und WebP funktionieren, wenn ihr MIME-Typ als image/* erkannt wird; nicht unterstützte oder nicht erkannte Dateien schlagen fehl, bevor der Provider aufgerufen wird.
  • model run --file eignet sich am besten, wenn Sie das ausgewählte multimodale Textmodell direkt testen möchten. Verwenden Sie infer image describe, wenn Sie die Bildverständnis-Provider-Auswahl von OpenClaw und das standardmäßige Bildmodell-Routing verwenden möchten.
  • Das ausgewählte Modell muss Bildeingaben unterstützen; reine Textmodelle können die Anfrage auf Provider-Ebene ablehnen.
  • model run --prompt muss Text enthalten, der nicht nur aus Leerraum besteht; leere Prompts werden abgelehnt, bevor lokale Provider oder der Gateway aufgerufen werden.
  • Lokales model run beendet sich mit einem von null verschiedenen Exit-Code, wenn der Provider keine Textausgabe zurückgibt, sodass nicht erreichbare lokale Provider und leere Completions nicht wie erfolgreiche Probes aussehen.
  • Verwenden Sie model run --gateway, wenn Sie Gateway-Routing, Agent-Laufzeit-Setup oder Gateway-verwalteten Provider-Zustand testen müssen, während die Modelleingabe roh bleibt. Verwenden Sie openclaw agent oder Chat-Oberflächen, wenn Sie den vollständigen Agent-Kontext, Tools, Memory und das Sitzungstranskript wünschen.
  • model auth login, model auth logout und model auth status verwalten den gespeicherten Provider-Auth-Zustand.

Bild

Verwenden Sie image für Generierung, Bearbeitung und Beschreibung.

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

Hinweise:

  • Verwenden Sie image edit, wenn Sie mit vorhandenen Eingabedateien starten.

  • Verwenden Sie --size, --aspect-ratio oder --resolution mit image edit für Provider/Modelle, die Geometriehinweise bei Bearbeitungen von Referenzbildern unterstützen.

  • Verwenden Sie --output-format png --background transparent mit --model openai/gpt-image-1.5 für OpenAI-PNG-Ausgaben mit transparentem Hintergrund; --openai-background bleibt als OpenAI-spezifischer Alias verfügbar. Provider, die keine Hintergrundunterstützung deklarieren, melden den Hinweis als ignorierte Überschreibung.

  • Verwenden Sie image providers --json, um zu prüfen, welche gebündelten Bild-Provider auffindbar, konfiguriert und ausgewählt sind und welche Generierungs-/Bearbeitungsfunktionen jeder Provider bereitstellt.

  • Verwenden Sie image generate --model <provider/model> --json als den schmalsten Live- CLI-Smoke-Test für Änderungen an der Bildgenerierung. Beispiel:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    Die JSON-Antwort meldet ok, provider, model, attempts und geschriebene Ausgabepfade. Wenn --output gesetzt ist, kann die finale Erweiterung dem vom Provider zurückgegebenen MIME-Typ folgen.

  • Verwenden Sie für image describe und image describe-many --prompt, um dem Vision-Modell eine aufgabenspezifische Anweisung wie OCR, Vergleich, UI-Prüfung oder knappe Beschriftung zu geben.

  • Verwenden Sie --timeout-ms bei langsamen lokalen Vision-Modellen oder kalten Ollama-Starts.

  • Für image describe muss --model ein bildfähiges <provider/model> sein.

  • Für lokale Ollama-Vision-Modelle laden Sie zuerst das Modell herunter und setzen Sie OLLAMA_API_KEY auf einen beliebigen Platzhalterwert, zum Beispiel ollama-local. Siehe Ollama.

Audio

Verwenden Sie audio für Dateitranskription.

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Hinweise:

  • audio transcribe ist für Dateitranskription gedacht, nicht für Realtime-Sitzungsverwaltung.
  • --model muss <provider/model> sein.

TTS

Verwenden Sie tts für Sprachsynthese und TTS-Provider-Status.

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

Hinweise:

  • tts status verwendet standardmäßig Gateway, weil es den vom Gateway verwalteten TTS-Status widerspiegelt.
  • Verwenden Sie tts providers, tts voices und tts set-provider, um das TTS-Verhalten zu prüfen und zu konfigurieren.

Video

Verwenden Sie video für Generierung und Beschreibung.

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

Hinweise:

  • video generate akzeptiert --size, --aspect-ratio, --resolution, --duration, --audio, --watermark und --timeout-ms und leitet sie an die Video-Generierungs-Runtime weiter.
  • --model muss für video describe <provider/model> sein.

Web

Verwenden Sie web für Such- und Fetch-Workflows.

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

Hinweise:

  • Verwenden Sie web providers, um verfügbare, konfigurierte und ausgewählte Provider zu prüfen.

Embedding

Verwenden Sie embedding für Vektorerstellung und Prüfung von Embedding-Providern.

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

JSON-Ausgabe

Infer-Befehle normalisieren JSON-Ausgaben unter einer gemeinsamen Hülle:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

Felder auf oberster Ebene sind stabil:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

Für Befehle zur Mediengenerierung enthält outputs Dateien, die von OpenClaw geschrieben wurden. Verwenden Sie für Automatisierung path, mimeType, size und alle medienspezifischen Dimensionen in diesem Array, anstatt menschenlesbares stdout zu parsen.

Häufige Fallstricke

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Hinweise

  • openclaw capability ... ist ein Alias für openclaw infer ....

Verwandt