CLI commands

CLI wnioskowania

openclaw infer to kanoniczna bezgłowa powierzchnia dla przepływów wnioskowania opartych na dostawcach.

Celowo udostępnia rodziny możliwości, a nie surowe nazwy RPC Gateway ani surowe identyfikatory narzędzi agenta.

Przekształć infer w umiejętność

Skopiuj i wklej to do agenta:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

Dobra umiejętność oparta na infer powinna:

  • mapować typowe intencje użytkownika na właściwe podpolecenie infer
  • zawierać kilka kanonicznych przykładów infer dla obsługiwanych przepływów pracy
  • preferować openclaw infer ... w przykładach i sugestiach
  • unikać ponownego dokumentowania całej powierzchni infer w treści umiejętności

Typowy zakres umiejętności skoncentrowanej na infer:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Dlaczego warto używać infer

openclaw infer zapewnia jedno spójne CLI dla zadań wnioskowania opartych na dostawcach w OpenClaw.

Korzyści:

  • Używaj dostawców i modeli już skonfigurowanych w OpenClaw zamiast podłączać jednorazowe wrappery dla każdego backendu.
  • Utrzymuj przepływy pracy dla modeli, obrazów, transkrypcji audio, TTS, wideo, sieci WWW i osadzeń w jednym drzewie poleceń.
  • Używaj stabilnego kształtu wyjścia --json w skryptach, automatyzacji i przepływach pracy sterowanych przez agentów.
  • Preferuj własną powierzchnię OpenClaw, gdy zadanie zasadniczo polega na „uruchomieniu wnioskowania”.
  • Używaj zwykłej ścieżki lokalnej bez wymagania Gateway dla większości poleceń infer.

Do kompleksowych kontroli dostawców preferuj openclaw infer ..., gdy testy dostawców niższego poziomu są już zielone. Sprawdza ono dostarczane CLI, ładowanie konfiguracji, rozwiązywanie domyślnego agenta, aktywację dołączonych Plugin, oraz współdzielony runtime możliwości przed wysłaniem żądania do dostawcy.

Drzewo poleceń

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Typowe zadania

Ta tabela mapuje typowe zadania wnioskowania na odpowiadające im polecenie infer.

Zadanie Polecenie Uwagi
Uruchom prompt tekstowy/modelu openclaw infer model run --prompt "..." --json Domyślnie używa zwykłej ścieżki lokalnej
Uruchom prompt modelu na obrazach openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model Powtórz --file dla wielu wejść obrazów
Wygeneruj obraz openclaw infer image generate --prompt "..." --json Użyj image edit, gdy zaczynasz od istniejącego pliku
Opisz plik obrazu openclaw infer image describe --file ./image.png --prompt "..." --json --model musi być obsługującym obrazy <provider/model>
Transkrybuj audio openclaw infer audio transcribe --file ./memo.m4a --json --model musi mieć postać <provider/model>
Zsyntetyzuj mowę openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status jest zorientowane na Gateway
Wygeneruj wideo openclaw infer video generate --prompt "..." --json Obsługuje wskazówki dostawcy, takie jak --resolution
Opisz plik wideo openclaw infer video describe --file ./clip.mp4 --json --model musi mieć postać <provider/model>
Przeszukaj sieć WWW openclaw infer web search --query "..." --json
Pobierz stronę WWW openclaw infer web fetch --url https://example.com --json
Utwórz osadzenia openclaw infer embedding create --text "..." --json

Zachowanie

  • openclaw infer ... jest podstawową powierzchnią CLI dla tych przepływów pracy.
  • Używaj --json, gdy wyjście będzie używane przez inne polecenie lub skrypt.
  • Używaj --provider lub --model provider/model, gdy wymagany jest konkretny backend.
  • Dla image describe, audio transcribe i video describe opcja --model musi używać formy <provider/model>.
  • Dla image describe jawny --model uruchamia bezpośrednio tego dostawcę/model. Model musi obsługiwać obrazy w katalogu modeli lub konfiguracji dostawcy. codex/<model> uruchamia ograniczoną turę rozumienia obrazu na serwerze aplikacji Codex; openai-codex/<model> używa ścieżki dostawcy OpenAI Codex OAuth.
  • Polecenia wykonywania bezstanowego domyślnie używają trybu lokalnego.
  • Polecenia stanu zarządzanego przez Gateway domyślnie używają Gateway.
  • Zwykła ścieżka lokalna nie wymaga działającego Gateway.
  • Lokalne model run to odchudzone jednorazowe uzupełnienie dostawcy. Rozwiązuje skonfigurowany model i uwierzytelnianie agenta, ale nie rozpoczyna tury agenta czatu, nie ładuje narzędzi ani nie otwiera dołączonych serwerów MCP.
  • model run --file akceptuje pliki obrazów, wykrywa ich typ MIME i wysyła je z podanym promptem do wybranego modelu. Powtórz --file dla wielu obrazów.
  • model run --file odrzuca wejścia niebędące obrazami. Użyj infer audio transcribe dla plików audio i infer video describe dla plików wideo.
  • model run --gateway sprawdza routing Gateway, zapisane uwierzytelnianie, wybór dostawcy i osadzony runtime, ale nadal działa jako surowa próba modelu: wysyła podany prompt i wszelkie załączniki obrazów bez wcześniejszego transkryptu sesji, kontekstu bootstrap/AGENTS, składania context-engine, narzędzi ani dołączonych serwerów MCP.
  • model run --gateway --model <provider/model> wymaga poświadczenia Gateway zaufanego operatora, ponieważ żądanie prosi Gateway o uruchomienie jednorazowego nadpisania dostawcy/modelu.

Model

Użyj model do wnioskowania tekstowego opartego na dostawcach oraz inspekcji modeli/dostawców.

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

Używaj pełnych referencji <provider/model>, aby wykonać smoke test konkretnego dostawcy bez uruchamiania Gateway lub ładowania pełnej powierzchni narzędzi agenta:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

Uwagi:

  • Lokalne model run jest najwęższym smoke testem CLI dla kondycji dostawcy/modelu/uwierzytelniania, ponieważ dla dostawców innych niż Codex wysyła do wybranego modelu tylko podany prompt.
  • Lokalne próby openai-codex/* są wąskim wyjątkiem: OpenClaw dodaje minimalną instrukcję systemową, aby transport Codex Responses mógł wypełnić wymagane pole instructions, bez dodawania pełnego kontekstu agenta, narzędzi, pamięci ani transkryptu sesji.
  • Lokalne model run --file zachowuje tę odchudzoną ścieżkę i dołącza zawartość obrazu bezpośrednio do pojedynczej wiadomości użytkownika. Typowe pliki obrazów, takie jak PNG, JPEG i WebP, działają, gdy ich typ MIME zostanie wykryty jako image/*; nieobsługiwane lub nierozpoznane pliki kończą się niepowodzeniem przed wywołaniem dostawcy.
  • model run --file jest najlepsze, gdy chcesz bezpośrednio przetestować wybrany multimodalny model tekstowy. Użyj infer image describe, gdy chcesz użyć wyboru dostawcy rozumienia obrazu OpenClaw i domyślnego routingu modelu obrazu.
  • Wybrany model musi obsługiwać wejście obrazowe; modele wyłącznie tekstowe mogą odrzucić żądanie na warstwie dostawcy.
  • model run --prompt musi zawierać tekst inny niż białe znaki; puste prompty są odrzucane przed wywołaniem lokalnych dostawców lub Gateway.
  • Lokalne model run kończy się kodem różnym od zera, gdy dostawca nie zwróci żadnego wyjścia tekstowego, dzięki czemu nieosiągalni lokalni dostawcy i puste uzupełnienia nie wyglądają jak udane próby.
  • Użyj model run --gateway, gdy musisz przetestować routing Gateway, konfigurację runtime agenta lub stan dostawcy zarządzany przez Gateway, utrzymując surowe wejście modelu. Użyj openclaw agent lub powierzchni czatu, gdy potrzebujesz pełnego kontekstu agenta, narzędzi, pamięci i transkryptu sesji.
  • model auth login, model auth logout i model auth status zarządzają zapisanym stanem uwierzytelniania dostawcy.

Obraz

Użyj image do generowania, edycji i opisu.

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

Uwagi:

  • Użyj image edit, gdy zaczynasz od istniejących plików wejściowych.

  • Użyj --size, --aspect-ratio lub --resolution z image edit dla dostawców/modeli, które obsługują wskazówki geometrii przy edycjach obrazów referencyjnych.

  • Użyj --output-format png --background transparent z --model openai/gpt-image-1.5, aby uzyskać wyjście OpenAI PNG z przezroczystym tłem; --openai-background pozostaje dostępne jako alias specyficzny dla OpenAI. Dostawcy, którzy nie deklarują obsługi tła, zgłaszają tę wskazówkę jako zignorowane nadpisanie.

  • Użyj image providers --json, aby sprawdzić, którzy wbudowani dostawcy obrazów są wykrywalni, skonfigurowani, wybrani oraz jakie możliwości generowania/edycji udostępnia każdy dostawca.

  • Użyj image generate --model <provider/model> --json jako najwęższego testu dymnego CLI na żywo dla zmian w generowaniu obrazów. Przykład:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    Odpowiedź JSON zgłasza ok, provider, model, attempts oraz zapisane ścieżki wyjściowe. Gdy ustawiono --output, końcowe rozszerzenie może odpowiadać typowi MIME zwróconemu przez dostawcę.

  • Dla image describe i image describe-many użyj --prompt, aby przekazać modelowi wizyjnemu instrukcję właściwą dla zadania, taką jak OCR, porównanie, inspekcja UI lub zwięzły podpis.

  • Użyj --timeout-ms przy wolnych lokalnych modelach wizyjnych lub zimnych startach Ollama.

  • Dla image describe --model musi być obsługującym obrazy <provider/model>.

  • Dla lokalnych modeli wizyjnych Ollama najpierw pobierz model i ustaw OLLAMA_API_KEY na dowolną wartość zastępczą, na przykład ollama-local. Zobacz Ollama.

Audio

Użyj audio do transkrypcji plików.

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Uwagi:

  • audio transcribe służy do transkrypcji plików, a nie do zarządzania sesją w czasie rzeczywistym.
  • --model musi mieć postać <provider/model>.

TTS

Użyj tts do syntezy mowy i stanu dostawcy TTS.

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

Uwagi:

  • tts status domyślnie używa Gateway, ponieważ odzwierciedla stan TTS zarządzany przez Gateway.
  • Użyj tts providers, tts voices i tts set-provider, aby sprawdzać i konfigurować zachowanie TTS.

Wideo

Użyj video do generowania i opisu.

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

Uwagi:

  • video generate przyjmuje --size, --aspect-ratio, --resolution, --duration, --audio, --watermark i --timeout-ms oraz przekazuje je do środowiska uruchomieniowego generowania wideo.
  • --model musi mieć postać <provider/model> dla video describe.

Sieć

Użyj web do przepływów pracy wyszukiwania i pobierania.

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

Uwagi:

  • Użyj web providers, aby sprawdzić dostępnych, skonfigurowanych i wybranych dostawców.

Osadzanie

Użyj embedding do tworzenia wektorów i inspekcji dostawców osadzania.

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

Dane wyjściowe JSON

Polecenia Infer normalizują dane wyjściowe JSON we wspólnej kopercie:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

Pola najwyższego poziomu są stabilne:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

W przypadku poleceń generujących multimedia outputs zawiera pliki zapisane przez OpenClaw. Do automatyzacji używaj path, mimeType, size oraz wszelkich wymiarów specyficznych dla mediów w tej tablicy zamiast parsować czytelne dla człowieka wyjście stdout.

Typowe pułapki

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Uwagi

  • openclaw capability ... jest aliasem dla openclaw infer ....

Powiązane