CLI commands
CLI wnioskowania
openclaw infer to kanoniczna bezgłowa powierzchnia dla przepływów wnioskowania opartych na dostawcach.
Celowo udostępnia rodziny możliwości, a nie surowe nazwy RPC Gateway ani surowe identyfikatory narzędzi agenta.
Przekształć infer w umiejętność
Skopiuj i wklej to do agenta:
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
Dobra umiejętność oparta na infer powinna:
- mapować typowe intencje użytkownika na właściwe podpolecenie infer
- zawierać kilka kanonicznych przykładów infer dla obsługiwanych przepływów pracy
- preferować
openclaw infer ...w przykładach i sugestiach - unikać ponownego dokumentowania całej powierzchni infer w treści umiejętności
Typowy zakres umiejętności skoncentrowanej na infer:
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
Dlaczego warto używać infer
openclaw infer zapewnia jedno spójne CLI dla zadań wnioskowania opartych na dostawcach w OpenClaw.
Korzyści:
- Używaj dostawców i modeli już skonfigurowanych w OpenClaw zamiast podłączać jednorazowe wrappery dla każdego backendu.
- Utrzymuj przepływy pracy dla modeli, obrazów, transkrypcji audio, TTS, wideo, sieci WWW i osadzeń w jednym drzewie poleceń.
- Używaj stabilnego kształtu wyjścia
--jsonw skryptach, automatyzacji i przepływach pracy sterowanych przez agentów. - Preferuj własną powierzchnię OpenClaw, gdy zadanie zasadniczo polega na „uruchomieniu wnioskowania”.
- Używaj zwykłej ścieżki lokalnej bez wymagania Gateway dla większości poleceń infer.
Do kompleksowych kontroli dostawców preferuj openclaw infer ..., gdy testy dostawców niższego poziomu są już zielone. Sprawdza ono dostarczane CLI, ładowanie konfiguracji, rozwiązywanie domyślnego agenta, aktywację dołączonych Plugin, oraz współdzielony runtime możliwości przed wysłaniem żądania do dostawcy.
Drzewo poleceń
openclaw infer
list
inspect
model
run
list
inspect
providers
auth login
auth logout
auth status
image
generate
edit
describe
describe-many
providers
audio
transcribe
providers
tts
convert
voices
providers
status
enable
disable
set-provider
video
generate
describe
providers
web
search
fetch
providers
embedding
create
providers
Typowe zadania
Ta tabela mapuje typowe zadania wnioskowania na odpowiadające im polecenie infer.
| Zadanie | Polecenie | Uwagi |
|---|---|---|
| Uruchom prompt tekstowy/modelu | openclaw infer model run --prompt "..." --json |
Domyślnie używa zwykłej ścieżki lokalnej |
| Uruchom prompt modelu na obrazach | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model |
Powtórz --file dla wielu wejść obrazów |
| Wygeneruj obraz | openclaw infer image generate --prompt "..." --json |
Użyj image edit, gdy zaczynasz od istniejącego pliku |
| Opisz plik obrazu | openclaw infer image describe --file ./image.png --prompt "..." --json |
--model musi być obsługującym obrazy <provider/model> |
| Transkrybuj audio | openclaw infer audio transcribe --file ./memo.m4a --json |
--model musi mieć postać <provider/model> |
| Zsyntetyzuj mowę | openclaw infer tts convert --text "..." --output ./speech.mp3 --json |
tts status jest zorientowane na Gateway |
| Wygeneruj wideo | openclaw infer video generate --prompt "..." --json |
Obsługuje wskazówki dostawcy, takie jak --resolution |
| Opisz plik wideo | openclaw infer video describe --file ./clip.mp4 --json |
--model musi mieć postać <provider/model> |
| Przeszukaj sieć WWW | openclaw infer web search --query "..." --json |
|
| Pobierz stronę WWW | openclaw infer web fetch --url https://example.com --json |
|
| Utwórz osadzenia | openclaw infer embedding create --text "..." --json |
Zachowanie
openclaw infer ...jest podstawową powierzchnią CLI dla tych przepływów pracy.- Używaj
--json, gdy wyjście będzie używane przez inne polecenie lub skrypt. - Używaj
--providerlub--model provider/model, gdy wymagany jest konkretny backend. - Dla
image describe,audio transcribeivideo describeopcja--modelmusi używać formy<provider/model>. - Dla
image describejawny--modeluruchamia bezpośrednio tego dostawcę/model. Model musi obsługiwać obrazy w katalogu modeli lub konfiguracji dostawcy.codex/<model>uruchamia ograniczoną turę rozumienia obrazu na serwerze aplikacji Codex;openai-codex/<model>używa ścieżki dostawcy OpenAI Codex OAuth. - Polecenia wykonywania bezstanowego domyślnie używają trybu lokalnego.
- Polecenia stanu zarządzanego przez Gateway domyślnie używają Gateway.
- Zwykła ścieżka lokalna nie wymaga działającego Gateway.
- Lokalne
model runto odchudzone jednorazowe uzupełnienie dostawcy. Rozwiązuje skonfigurowany model i uwierzytelnianie agenta, ale nie rozpoczyna tury agenta czatu, nie ładuje narzędzi ani nie otwiera dołączonych serwerów MCP. model run --fileakceptuje pliki obrazów, wykrywa ich typ MIME i wysyła je z podanym promptem do wybranego modelu. Powtórz--filedla wielu obrazów.model run --fileodrzuca wejścia niebędące obrazami. Użyjinfer audio transcribedla plików audio iinfer video describedla plików wideo.model run --gatewaysprawdza routing Gateway, zapisane uwierzytelnianie, wybór dostawcy i osadzony runtime, ale nadal działa jako surowa próba modelu: wysyła podany prompt i wszelkie załączniki obrazów bez wcześniejszego transkryptu sesji, kontekstu bootstrap/AGENTS, składania context-engine, narzędzi ani dołączonych serwerów MCP.model run --gateway --model <provider/model>wymaga poświadczenia Gateway zaufanego operatora, ponieważ żądanie prosi Gateway o uruchomienie jednorazowego nadpisania dostawcy/modelu.
Model
Użyj model do wnioskowania tekstowego opartego na dostawcach oraz inspekcji modeli/dostawców.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json
Używaj pełnych referencji <provider/model>, aby wykonać smoke test konkretnego dostawcy bez uruchamiania Gateway lub ładowania pełnej powierzchni narzędzi agenta:
openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json
Uwagi:
- Lokalne
model runjest najwęższym smoke testem CLI dla kondycji dostawcy/modelu/uwierzytelniania, ponieważ dla dostawców innych niż Codex wysyła do wybranego modelu tylko podany prompt. - Lokalne próby
openai-codex/*są wąskim wyjątkiem: OpenClaw dodaje minimalną instrukcję systemową, aby transport Codex Responses mógł wypełnić wymagane poleinstructions, bez dodawania pełnego kontekstu agenta, narzędzi, pamięci ani transkryptu sesji. - Lokalne
model run --filezachowuje tę odchudzoną ścieżkę i dołącza zawartość obrazu bezpośrednio do pojedynczej wiadomości użytkownika. Typowe pliki obrazów, takie jak PNG, JPEG i WebP, działają, gdy ich typ MIME zostanie wykryty jakoimage/*; nieobsługiwane lub nierozpoznane pliki kończą się niepowodzeniem przed wywołaniem dostawcy. model run --filejest najlepsze, gdy chcesz bezpośrednio przetestować wybrany multimodalny model tekstowy. Użyjinfer image describe, gdy chcesz użyć wyboru dostawcy rozumienia obrazu OpenClaw i domyślnego routingu modelu obrazu.- Wybrany model musi obsługiwać wejście obrazowe; modele wyłącznie tekstowe mogą odrzucić żądanie na warstwie dostawcy.
model run --promptmusi zawierać tekst inny niż białe znaki; puste prompty są odrzucane przed wywołaniem lokalnych dostawców lub Gateway.- Lokalne
model runkończy się kodem różnym od zera, gdy dostawca nie zwróci żadnego wyjścia tekstowego, dzięki czemu nieosiągalni lokalni dostawcy i puste uzupełnienia nie wyglądają jak udane próby. - Użyj
model run --gateway, gdy musisz przetestować routing Gateway, konfigurację runtime agenta lub stan dostawcy zarządzany przez Gateway, utrzymując surowe wejście modelu. Użyjopenclaw agentlub powierzchni czatu, gdy potrzebujesz pełnego kontekstu agenta, narzędzi, pamięci i transkryptu sesji. model auth login,model auth logoutimodel auth statuszarządzają zapisanym stanem uwierzytelniania dostawcy.
Obraz
Użyj image do generowania, edycji i opisu.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json
Uwagi:
-
Użyj
image edit, gdy zaczynasz od istniejących plików wejściowych. -
Użyj
--size,--aspect-ratiolub--resolutionzimage editdla dostawców/modeli, które obsługują wskazówki geometrii przy edycjach obrazów referencyjnych. -
Użyj
--output-format png --background transparentz--model openai/gpt-image-1.5, aby uzyskać wyjście OpenAI PNG z przezroczystym tłem;--openai-backgroundpozostaje dostępne jako alias specyficzny dla OpenAI. Dostawcy, którzy nie deklarują obsługi tła, zgłaszają tę wskazówkę jako zignorowane nadpisanie. -
Użyj
image providers --json, aby sprawdzić, którzy wbudowani dostawcy obrazów są wykrywalni, skonfigurowani, wybrani oraz jakie możliwości generowania/edycji udostępnia każdy dostawca. -
Użyj
image generate --model <provider/model> --jsonjako najwęższego testu dymnego CLI na żywo dla zmian w generowaniu obrazów. Przykład:openclaw infer image providers --json openclaw infer image generate \ --model google/gemini-3.1-flash-image-preview \ --prompt "Minimal flat test image: one blue square on a white background, no text." \ --output ./openclaw-infer-image-smoke.png \ --jsonOdpowiedź JSON zgłasza
ok,provider,model,attemptsoraz zapisane ścieżki wyjściowe. Gdy ustawiono--output, końcowe rozszerzenie może odpowiadać typowi MIME zwróconemu przez dostawcę. -
Dla
image describeiimage describe-manyużyj--prompt, aby przekazać modelowi wizyjnemu instrukcję właściwą dla zadania, taką jak OCR, porównanie, inspekcja UI lub zwięzły podpis. -
Użyj
--timeout-msprzy wolnych lokalnych modelach wizyjnych lub zimnych startach Ollama. -
Dla
image describe--modelmusi być obsługującym obrazy<provider/model>. -
Dla lokalnych modeli wizyjnych Ollama najpierw pobierz model i ustaw
OLLAMA_API_KEYna dowolną wartość zastępczą, na przykładollama-local. Zobacz Ollama.
Audio
Użyj audio do transkrypcji plików.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Uwagi:
audio transcribesłuży do transkrypcji plików, a nie do zarządzania sesją w czasie rzeczywistym.--modelmusi mieć postać<provider/model>.
TTS
Użyj tts do syntezy mowy i stanu dostawcy TTS.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
Uwagi:
tts statusdomyślnie używa Gateway, ponieważ odzwierciedla stan TTS zarządzany przez Gateway.- Użyj
tts providers,tts voicesitts set-provider, aby sprawdzać i konfigurować zachowanie TTS.
Wideo
Użyj video do generowania i opisu.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
Uwagi:
video generateprzyjmuje--size,--aspect-ratio,--resolution,--duration,--audio,--watermarki--timeout-msoraz przekazuje je do środowiska uruchomieniowego generowania wideo.--modelmusi mieć postać<provider/model>dlavideo describe.
Sieć
Użyj web do przepływów pracy wyszukiwania i pobierania.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
Uwagi:
- Użyj
web providers, aby sprawdzić dostępnych, skonfigurowanych i wybranych dostawców.
Osadzanie
Użyj embedding do tworzenia wektorów i inspekcji dostawców osadzania.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json
Dane wyjściowe JSON
Polecenia Infer normalizują dane wyjściowe JSON we wspólnej kopercie:
{
"ok": true,
"capability": "image.generate",
"transport": "local",
"provider": "openai",
"model": "gpt-image-2",
"attempts": [],
"outputs": []
}
Pola najwyższego poziomu są stabilne:
okcapabilitytransportprovidermodelattemptsoutputserror
W przypadku poleceń generujących multimedia outputs zawiera pliki zapisane przez OpenClaw. Do automatyzacji używaj
path, mimeType, size oraz wszelkich wymiarów specyficznych dla mediów w tej tablicy
zamiast parsować czytelne dla człowieka wyjście stdout.
Typowe pułapki
# Bad
openclaw infer media image generate --prompt "friendly lobster"
# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json
# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Uwagi
openclaw capability ...jest aliasem dlaopenclaw infer ....