CLI commands
Çıkarım CLI
openclaw infer, sağlayıcı destekli çıkarım iş akışları için kanonik başsız yüzeydir.
Kasıtlı olarak ham Gateway RPC adlarını veya ham ajan araç kimliklerini değil, yetenek ailelerini sunar.
infer'i bir beceriye dönüştürün
Bunu bir ajana kopyalayıp yapıştırın:
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
İyi bir infer tabanlı beceri şunları yapmalıdır:
- yaygın kullanıcı amaçlarını doğru infer alt komutuyla eşleştirmeli
- kapsadığı iş akışları için birkaç kanonik infer örneği içermeli
- örneklerde ve önerilerde
openclaw infer ...kullanımını tercih etmeli - beceri gövdesi içinde tüm infer yüzeyini yeniden belgelemekten kaçınmalı
Tipik infer odaklı beceri kapsamı:
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
Neden infer kullanılır
openclaw infer, OpenClaw içinde sağlayıcı destekli çıkarım görevleri için tutarlı tek bir CLI sağlar.
Avantajlar:
- Her arka uç için tek seferlik sarmalayıcılar bağlamak yerine OpenClaw'da zaten yapılandırılmış sağlayıcıları ve modelleri kullanın.
- Model, görüntü, ses dökümü, TTS, video, web ve embedding iş akışlarını tek bir komut ağacı altında tutun.
- Betikler, otomasyon ve ajan odaklı iş akışları için kararlı bir
--jsonçıktı biçimi kullanın. - Görev temelde "çıkarım çalıştırmak" olduğunda birinci taraf OpenClaw yüzeyini tercih edin.
- Çoğu infer komutu için Gateway gerektirmeden normal yerel yolu kullanın.
Uçtan uca sağlayıcı kontrolleri için, düşük seviyeli sağlayıcı testleri yeşil olduğunda openclaw infer ... tercih edin. Sağlayıcı isteği yapılmadan önce gönderilen CLI'yi, yapılandırma yüklemeyi, varsayılan ajan çözümlemeyi, paketli Plugin etkinleştirmeyi ve paylaşılan yetenek çalışma zamanını çalıştırır.
Komut ağacı
openclaw infer
list
inspect
model
run
list
inspect
providers
auth login
auth logout
auth status
image
generate
edit
describe
describe-many
providers
audio
transcribe
providers
tts
convert
voices
providers
status
enable
disable
set-provider
video
generate
describe
providers
web
search
fetch
providers
embedding
create
providers
Yaygın görevler
Bu tablo, yaygın çıkarım görevlerini karşılık gelen infer komutuyla eşleştirir.
| Görev | Komut | Notlar |
|---|---|---|
| Metin/model istemi çalıştır | openclaw infer model run --prompt "..." --json |
Varsayılan olarak normal yerel yolu kullanır |
| Görsellerde model istemi çalıştır | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model |
Birden fazla görüntü girdisi için --file tekrarlayın |
| Görüntü oluştur | openclaw infer image generate --prompt "..." --json |
Mevcut bir dosyadan başlarken image edit kullanın |
| Bir görüntü dosyasını açıklayın | openclaw infer image describe --file ./image.png --prompt "..." --json |
--model, görüntü yetenekli bir <provider/model> olmalıdır |
| Sesi yazıya dök | openclaw infer audio transcribe --file ./memo.m4a --json |
--model, <provider/model> olmalıdır |
| Konuşma sentezle | openclaw infer tts convert --text "..." --output ./speech.mp3 --json |
tts status Gateway odaklıdır |
| Video oluştur | openclaw infer video generate --prompt "..." --json |
--resolution gibi sağlayıcı ipuçlarını destekler |
| Bir video dosyasını açıklayın | openclaw infer video describe --file ./clip.mp4 --json |
--model, <provider/model> olmalıdır |
| Web'de arama yap | openclaw infer web search --query "..." --json |
|
| Bir web sayfasını getir | openclaw infer web fetch --url https://example.com --json |
|
| Embedding oluştur | openclaw infer embedding create --text "..." --json |
Davranış
openclaw infer ..., bu iş akışları için birincil CLI yüzeyidir.- Çıktı başka bir komut veya betik tarafından tüketilecekse
--jsonkullanın. - Belirli bir arka uç gerektiğinde
--providerveya--model provider/modelkullanın. image describe,audio transcribevevideo describeiçin--model,<provider/model>biçimini kullanmalıdır.image describeiçin açık bir--model, o sağlayıcı/modeli doğrudan çalıştırır. Model, model kataloğunda veya sağlayıcı yapılandırmasında görüntü yetenekli olmalıdır.codex/<model>, sınırlı bir Codex uygulama sunucusu görüntü anlama turu çalıştırır;openai-codex/<model>, OpenAI Codex OAuth sağlayıcı yolunu kullanır.- Durumsuz yürütme komutları varsayılan olarak yerele ayarlanır.
- Gateway tarafından yönetilen durum komutları varsayılan olarak Gateway'e ayarlanır.
- Normal yerel yol, Gateway'in çalışmasını gerektirmez.
- Yerel
model run, yalın tek seferlik bir sağlayıcı tamamlama işlemidir. Yapılandırılmış ajan modelini ve kimlik doğrulamayı çözer, ancak bir sohbet ajanı turu başlatmaz, araçları yüklemez veya paketli MCP sunucularını açmaz. model run --file, görüntü dosyalarını kabul eder, MIME türlerini algılar ve bunları sağlanan istemle birlikte seçili modele gönderir. Birden fazla görüntü için--filetekrarlayın.model run --file, görüntü olmayan girdileri reddeder. Ses dosyaları içininfer audio transcribe, video dosyaları içininfer video describekullanın.model run --gateway, Gateway yönlendirmesini, kayıtlı kimlik doğrulamayı, sağlayıcı seçimini ve gömülü çalışma zamanını çalıştırır, ancak yine de ham bir model yoklaması olarak çalışır: sağlanan istemi ve varsa görüntü eklerini önceki oturum konuşma dökümü, başlangıç/AGENTS bağlamı, bağlam motoru derlemesi, araçlar veya paketli MCP sunucuları olmadan gönderir.model run --gateway --model <provider/model>, istek Gateway'den tek seferlik bir sağlayıcı/model geçersiz kılması çalıştırmasını istediği için güvenilir bir operatör Gateway kimlik bilgisi gerektirir.
Model
Sağlayıcı destekli metin çıkarımı ve model/sağlayıcı incelemesi için model kullanın.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json
Gateway'i başlatmadan veya tam ajan araç yüzeyini yüklemeden belirli bir sağlayıcıyı smoke test etmek için tam <provider/model> başvurularını kullanın:
openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json
Notlar:
- Yerel
model run, sağlayıcı/model/kimlik doğrulama sağlığı için en dar CLI smoke testidir çünkü Codex dışı sağlayıcılarda yalnızca sağlanan istemi seçili modele gönderir. openai-codex/*yerel yoklamaları dar istisnadır: OpenClaw, Codex Responses aktarımının gerekliinstructionsalanını doldurabilmesi için tam ajan bağlamı, araçlar, bellek veya oturum konuşma dökümü eklemeden minimal bir sistem yönergesi ekler.- Yerel
model run --file, bu yalın yolu korur ve görüntü içeriğini doğrudan tek kullanıcı mesajına ekler. PNG, JPEG ve WebP gibi yaygın görüntü dosyaları, MIME türleriimage/*olarak algılandığında çalışır; desteklenmeyen veya tanınmayan dosyalar sağlayıcı çağrılmadan önce başarısız olur. - Seçili çok kipli metin modelini doğrudan test etmek istediğinizde
model run --fileen uygunudur. OpenClaw'ın görüntü anlama sağlayıcı seçimini ve varsayılan görüntü modeli yönlendirmesini istediğinizdeinfer image describekullanın. - Seçili model görüntü girdisini desteklemelidir; yalnızca metin modelleri isteği sağlayıcı katmanında reddedebilir.
model run --prompt, boşluk dışı metin içermelidir; boş istemler yerel sağlayıcılar veya Gateway çağrılmadan önce reddedilir.- Yerel
model run, sağlayıcı metin çıktısı döndürmediğinde sıfır olmayan kodla çıkar; böylece erişilemeyen yerel sağlayıcılar ve boş tamamlamalar başarılı yoklamalar gibi görünmez. - Model girdisini ham tutarken Gateway yönlendirmesini, ajan çalışma zamanı kurulumunu veya Gateway tarafından yönetilen sağlayıcı durumunu test etmeniz gerektiğinde
model run --gatewaykullanın. Tam ajan bağlamını, araçları, belleği ve oturum konuşma dökümünü istediğinizdeopenclaw agentveya sohbet yüzeylerini kullanın. model auth login,model auth logoutvemodel auth status, kayıtlı sağlayıcı kimlik doğrulama durumunu yönetir.
Görüntü
Oluşturma, düzenleme ve açıklama için image kullanın.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json
Notlar:
-
Var olan giriş dosyalarından başlarken
image editkullanın. -
Referans görsel düzenlemelerinde geometri ipuçlarını destekleyen sağlayıcılar/modeller için
image editile--size,--aspect-ratioveya--resolutionkullanın. -
Şeffaf arka planlı OpenAI PNG çıktısı için
--model openai/gpt-image-1.5ile--output-format png --background transparentkullanın;--openai-background, OpenAI'ye özgü bir takma ad olarak kullanılmaya devam eder. Arka plan desteği bildirmeyen sağlayıcılar bu ipucunu yok sayılmış bir geçersiz kılma olarak raporlar. -
Hangi paketlenmiş görsel sağlayıcılarının keşfedilebilir, yapılandırılmış, seçilmiş olduğunu ve her sağlayıcının hangi üretim/düzenleme yeteneklerini sunduğunu doğrulamak için
image providers --jsonkullanın. -
Görsel üretimi değişiklikleri için en dar canlı CLI smoke testi olarak
image generate --model <provider/model> --jsonkullanın. Örnek:openclaw infer image providers --json openclaw infer image generate \ --model google/gemini-3.1-flash-image-preview \ --prompt "Minimal flat test image: one blue square on a white background, no text." \ --output ./openclaw-infer-image-smoke.png \ --jsonJSON yanıtı
ok,provider,model,attemptsve yazılan çıktı yollarını raporlar.--outputayarlandığında, son uzantı sağlayıcının döndürdüğü MIME türünü izleyebilir. -
image describeveimage describe-manyiçin, görme modeline OCR, karşılaştırma, UI incelemesi veya kısa açıklama gibi göreve özgü bir yönerge vermek üzere--promptkullanın. -
Yavaş yerel görme modelleri veya soğuk Ollama başlangıçlarıyla
--timeout-mskullanın. -
image describeiçin--model, görsel destekli bir<provider/model>olmalıdır. -
Yerel Ollama görme modelleri için önce modeli çekin ve
OLLAMA_API_KEYdeğerini herhangi bir yer tutucu değere, örneğinollama-localolarak ayarlayın. Bkz. Ollama.
Ses
Dosya transkripsiyonu için audio kullanın.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Notlar:
audio transcribe, gerçek zamanlı oturum yönetimi için değil dosya transkripsiyonu içindir.--model,<provider/model>olmalıdır.
TTS
Konuşma sentezi ve TTS sağlayıcı durumu için tts kullanın.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
Notlar:
tts status, Gateway tarafından yönetilen TTS durumunu yansıttığı için varsayılan olarak Gateway'i kullanır.- TTS davranışını incelemek ve yapılandırmak için
tts providers,tts voicesvetts set-providerkullanın.
Video
Üretim ve açıklama için video kullanın.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
Notlar:
video generate,--size,--aspect-ratio,--resolution,--duration,--audio,--watermarkve--timeout-mskabul eder ve bunları video üretim çalışma zamanına iletir.video describeiçin--model,<provider/model>olmalıdır.
Web
Arama ve getirme iş akışları için web kullanın.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
Notlar:
- Kullanılabilir, yapılandırılmış ve seçilmiş sağlayıcıları incelemek için
web providerskullanın.
Gömme
Vektör oluşturma ve gömme sağlayıcısı incelemesi için embedding kullanın.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json
JSON çıktısı
Infer komutları JSON çıktısını paylaşılan bir zarf altında normalleştirir:
{
"ok": true,
"capability": "image.generate",
"transport": "local",
"provider": "openai",
"model": "gpt-image-2",
"attempts": [],
"outputs": []
}
Üst düzey alanlar kararlıdır:
okcapabilitytransportprovidermodelattemptsoutputserror
Üretilen medya komutları için outputs, OpenClaw tarafından yazılan dosyaları içerir. Otomasyon için insan tarafından okunabilir stdout'u ayrıştırmak yerine
bu dizideki path, mimeType, size ve medyaya özgü boyutları kullanın.
Yaygın tuzaklar
# Bad
openclaw infer media image generate --prompt "friendly lobster"
# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json
# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Notlar
openclaw capability ...,openclaw infer ...için bir takma addır.