CLI commands

CLI Inferensi

openclaw infer adalah antarmuka tanpa grafis kanonis untuk alur kerja inferensi berbasis penyedia.

Ini secara sengaja mengekspos keluarga kapabilitas, bukan nama RPC Gateway mentah dan bukan id alat agen mentah.

Ubah infer menjadi skill

Salin dan tempel ini ke agen:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

Skill berbasis infer yang baik sebaiknya:

  • memetakan intent pengguna umum ke subperintah infer yang benar
  • menyertakan beberapa contoh infer kanonis untuk alur kerja yang dicakupnya
  • mengutamakan openclaw infer ... dalam contoh dan saran
  • menghindari pendokumentasian ulang seluruh permukaan infer di dalam isi skill

Cakupan Skill yang biasanya berfokus pada infer:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Mengapa menggunakan infer

openclaw infer menyediakan satu CLI yang konsisten untuk tugas inferensi berbasis penyedia di dalam OpenClaw.

Manfaat:

  • Gunakan penyedia dan model yang sudah dikonfigurasi di OpenClaw alih-alih merangkai wrapper sekali pakai untuk setiap backend.
  • Simpan alur kerja model, gambar, transkripsi audio, TTS, video, web, dan embedding dalam satu pohon perintah.
  • Gunakan bentuk keluaran --json yang stabil untuk skrip, otomatisasi, dan alur kerja yang digerakkan agen.
  • Utamakan permukaan pihak pertama OpenClaw saat tugasnya pada dasarnya adalah "menjalankan inferensi."
  • Gunakan jalur lokal normal tanpa memerlukan gateway untuk sebagian besar perintah infer.

Untuk pemeriksaan penyedia end-to-end, utamakan openclaw infer ... setelah pengujian penyedia tingkat rendah sudah hijau. Ini menjalankan CLI yang dikirim, pemuatan konfigurasi, resolusi agen default, aktivasi Plugin bawaan, dan runtime kapabilitas bersama sebelum permintaan penyedia dibuat.

Pohon perintah

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Tugas umum

Tabel ini memetakan tugas inferensi umum ke perintah infer yang sesuai.

Tugas Perintah Catatan
Jalankan prompt teks/model openclaw infer model run --prompt "..." --json Menggunakan jalur lokal normal secara default
Jalankan prompt model pada gambar openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model Ulangi --file untuk beberapa input gambar
Hasilkan gambar openclaw infer image generate --prompt "..." --json Gunakan image edit saat memulai dari file yang sudah ada
Deskripsikan file gambar openclaw infer image describe --file ./image.png --prompt "..." --json --model harus berupa <provider/model> berkemampuan gambar
Transkripsikan audio openclaw infer audio transcribe --file ./memo.m4a --json --model harus berupa <provider/model>
Sintesis ucapan openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status berorientasi Gateway
Hasilkan video openclaw infer video generate --prompt "..." --json Mendukung petunjuk penyedia seperti --resolution
Deskripsikan file video openclaw infer video describe --file ./clip.mp4 --json --model harus berupa <provider/model>
Cari di web openclaw infer web search --query "..." --json
Ambil halaman web openclaw infer web fetch --url https://example.com --json
Buat embedding openclaw infer embedding create --text "..." --json

Perilaku

  • openclaw infer ... adalah permukaan CLI utama untuk alur kerja ini.
  • Gunakan --json saat keluaran akan dikonsumsi oleh perintah atau skrip lain.
  • Gunakan --provider atau --model provider/model saat backend tertentu diperlukan.
  • Untuk image describe, audio transcribe, dan video describe, --model harus menggunakan bentuk <provider/model>.
  • Untuk image describe, --model eksplisit menjalankan penyedia/model itu secara langsung. Model harus berkemampuan gambar dalam katalog model atau konfigurasi penyedia. codex/<model> menjalankan giliran pemahaman gambar app-server Codex yang dibatasi; openai-codex/<model> menggunakan jalur penyedia OAuth OpenAI Codex.
  • Perintah eksekusi stateless default ke lokal.
  • Perintah status yang dikelola Gateway default ke Gateway.
  • Jalur lokal normal tidak memerlukan Gateway untuk berjalan.
  • model run lokal adalah penyelesaian penyedia sekali jalan yang ringkas. Ini meresolusikan model dan auth agen yang dikonfigurasi, tetapi tidak memulai giliran agen chat, memuat alat, atau membuka server MCP bawaan.
  • model run --file menerima file gambar, mendeteksi jenis MIME-nya, dan mengirimkannya bersama prompt yang diberikan ke model yang dipilih. Ulangi --file untuk beberapa gambar.
  • model run --file menolak input non-gambar. Gunakan infer audio transcribe untuk file audio dan infer video describe untuk file video.
  • model run --gateway menjalankan routing Gateway, auth tersimpan, pemilihan penyedia, dan runtime tertanam, tetapi tetap berjalan sebagai probe model mentah: ini mengirim prompt yang diberikan dan lampiran gambar apa pun tanpa transkrip sesi sebelumnya, konteks bootstrap/AGENTS, perakitan mesin konteks, alat, atau server MCP bawaan.
  • model run --gateway --model <provider/model> memerlukan kredensial gateway operator tepercaya karena permintaan meminta Gateway menjalankan override penyedia/model sekali pakai.

Model

Gunakan model untuk inferensi teks berbasis penyedia dan inspeksi model/penyedia.

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

Gunakan referensi lengkap <provider/model> untuk menguji asap penyedia tertentu tanpa memulai Gateway atau memuat seluruh permukaan alat agen:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

Catatan:

  • model run lokal adalah uji asap CLI tersempit untuk kesehatan penyedia/model/auth karena, untuk penyedia non-Codex, ini hanya mengirim prompt yang diberikan ke model yang dipilih.
  • Probe lokal openai-codex/* adalah pengecualian yang sempit: OpenClaw menambahkan instruksi sistem minimal agar transport Codex Responses dapat mengisi kolom instructions yang diperlukan, tanpa menambahkan konteks agen penuh, alat, memori, atau transkrip sesi.
  • model run --file lokal mempertahankan jalur ringkas itu dan melampirkan konten gambar langsung ke satu pesan pengguna. File gambar umum seperti PNG, JPEG, dan WebP berfungsi saat jenis MIME-nya terdeteksi sebagai image/*; file yang tidak didukung atau tidak dikenali gagal sebelum penyedia dipanggil.
  • model run --file paling cocok saat Anda ingin menguji model teks multimodal yang dipilih secara langsung. Gunakan infer image describe saat Anda menginginkan pemilihan penyedia pemahaman gambar OpenClaw dan routing model gambar default.
  • Model yang dipilih harus mendukung input gambar; model hanya teks dapat menolak permintaan di lapisan penyedia.
  • model run --prompt harus berisi teks non-spasi; prompt kosong ditolak sebelum penyedia lokal atau Gateway dipanggil.
  • model run lokal keluar dengan non-zero saat penyedia tidak mengembalikan keluaran teks, sehingga penyedia lokal yang tidak dapat dijangkau dan penyelesaian kosong tidak tampak seperti probe yang berhasil.
  • Gunakan model run --gateway saat Anda perlu menguji routing Gateway, penyiapan runtime agen, atau status penyedia yang dikelola Gateway sambil menjaga input model tetap mentah. Gunakan openclaw agent atau permukaan chat saat Anda menginginkan konteks agen penuh, alat, memori, dan transkrip sesi.
  • model auth login, model auth logout, dan model auth status mengelola status auth penyedia yang disimpan.

Gambar

Gunakan image untuk pembuatan, pengeditan, dan deskripsi.

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

Catatan:

  • Gunakan image edit saat memulai dari file input yang sudah ada.

  • Gunakan --size, --aspect-ratio, atau --resolution bersama image edit untuk penyedia/model yang mendukung petunjuk geometri pada pengeditan gambar referensi.

  • Gunakan --output-format png --background transparent bersama --model openai/gpt-image-1.5 untuk output PNG OpenAI dengan latar belakang transparan; --openai-background tetap tersedia sebagai alias khusus OpenAI. Penyedia yang tidak menyatakan dukungan latar belakang melaporkan petunjuk tersebut sebagai override yang diabaikan.

  • Gunakan image providers --json untuk memverifikasi penyedia gambar bawaan mana yang dapat ditemukan, dikonfigurasi, dipilih, serta kapabilitas pembuatan/pengeditan yang diekspos oleh tiap penyedia.

  • Gunakan image generate --model <provider/model> --json sebagai smoke CLI live paling sempit untuk perubahan pembuatan gambar. Contoh:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    Respons JSON melaporkan ok, provider, model, attempts, dan path output yang ditulis. Saat --output ditetapkan, ekstensi akhir dapat mengikuti jenis MIME yang dikembalikan penyedia.

  • Untuk image describe dan image describe-many, gunakan --prompt untuk memberi model vision instruksi khusus tugas seperti OCR, perbandingan, inspeksi UI, atau pembuatan keterangan singkat.

  • Gunakan --timeout-ms dengan model vision lokal yang lambat atau awal mula Ollama yang dingin.

  • Untuk image describe, --model harus berupa <provider/model> yang mendukung gambar.

  • Untuk model vision Ollama lokal, tarik model terlebih dahulu dan tetapkan OLLAMA_API_KEY ke nilai placeholder apa pun, misalnya ollama-local. Lihat Ollama.

Audio

Gunakan audio untuk transkripsi file.

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Catatan:

  • audio transcribe ditujukan untuk transkripsi file, bukan manajemen sesi realtime.
  • --model harus berupa <provider/model>.

TTS

Gunakan tts untuk sintesis ucapan dan status penyedia TTS.

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

Catatan:

  • tts status default ke Gateway karena mencerminkan status TTS yang dikelola Gateway.
  • Gunakan tts providers, tts voices, dan tts set-provider untuk memeriksa dan mengonfigurasi perilaku TTS.

Video

Gunakan video untuk pembuatan dan deskripsi.

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

Catatan:

  • video generate menerima --size, --aspect-ratio, --resolution, --duration, --audio, --watermark, dan --timeout-ms lalu meneruskannya ke runtime pembuatan video.
  • --model harus berupa <provider/model> untuk video describe.

Web

Gunakan web untuk alur kerja pencarian dan pengambilan.

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

Catatan:

  • Gunakan web providers untuk memeriksa penyedia yang tersedia, dikonfigurasi, dan dipilih.

Embedding

Gunakan embedding untuk pembuatan vektor dan inspeksi penyedia embedding.

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

Output JSON

Perintah infer menormalkan output JSON di bawah envelope bersama:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

Kolom tingkat atas stabil:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

Untuk perintah media yang dihasilkan, outputs berisi file yang ditulis oleh OpenClaw. Gunakan path, mimeType, size, dan dimensi khusus media apa pun dalam array tersebut untuk otomatisasi alih-alih mengurai stdout yang dapat dibaca manusia.

Kesalahan umum

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Catatan

  • openclaw capability ... adalah alias untuk openclaw infer ....

Terkait