CLI commands
CLI інференсу
openclaw infer є канонічною безголовою поверхнею для робочих процесів інференсу, підтримуваних провайдерами.
Вона навмисно надає сімейства можливостей, а не сирі назви RPC Gateway і не сирі id інструментів агента.
Перетворіть infer на skill
Скопіюйте й вставте це агенту:
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
Хороший skill на основі infer має:
- зіставляти типові наміри користувача з правильними підкомандами infer
- містити кілька канонічних прикладів infer для робочих процесів, які він охоплює
- віддавати перевагу
openclaw infer ...у прикладах і пропозиціях - уникати повторного документування всієї поверхні infer у тілі skill
Типове охоплення skill, зосередженого на infer:
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
Навіщо використовувати infer
openclaw infer надає один узгоджений CLI для завдань інференсу, підтримуваних провайдерами, всередині OpenClaw.
Переваги:
- Використовуйте провайдерів і моделі, уже налаштовані в OpenClaw, замість того щоб підключати одноразові обгортки для кожного бекенду.
- Тримайте робочі процеси для моделей, зображень, транскрибування аудіо, TTS, відео, вебу та embeddings в одному дереві команд.
- Використовуйте стабільну форму виводу
--jsonдля скриптів, автоматизації та робочих процесів, керованих агентами. - Віддавайте перевагу першокласній поверхні OpenClaw, коли завдання по суті означає «запустити інференс».
- Використовуйте звичайний локальний шлях без потреби в Gateway для більшості команд infer.
Для наскрізних перевірок провайдера віддавайте перевагу openclaw infer ..., коли низькорівневі
тести провайдера вже зелені. Це перевіряє постачений CLI, завантаження конфігурації,
визначення агента за замовчуванням, активацію вбудованого plugin і спільне середовище
можливостей до того, як буде зроблено запит до провайдера.
Дерево команд
openclaw infer
list
inspect
model
run
list
inspect
providers
auth login
auth logout
auth status
image
generate
edit
describe
describe-many
providers
audio
transcribe
providers
tts
convert
voices
providers
status
enable
disable
set-provider
video
generate
describe
providers
web
search
fetch
providers
embedding
create
providers
Типові завдання
Ця таблиця зіставляє типові завдання інференсу з відповідною командою infer.
| Завдання | Команда | Примітки |
|---|---|---|
| Запустити текстовий/model prompt | openclaw infer model run --prompt "..." --json |
За замовчуванням використовує звичайний локальний шлях |
| Запустити model prompt на зображеннях | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model |
Повторіть --file для кількох вхідних зображень |
| Згенерувати зображення | openclaw infer image generate --prompt "..." --json |
Використовуйте image edit, коли починаєте з наявного файлу |
| Описати файл зображення | openclaw infer image describe --file ./image.png --prompt "..." --json |
--model має бути моделлю з підтримкою зображень у форматі <provider/model> |
| Транскрибувати аудіо | openclaw infer audio transcribe --file ./memo.m4a --json |
--model має бути <provider/model> |
| Синтезувати мовлення | openclaw infer tts convert --text "..." --output ./speech.mp3 --json |
tts status орієнтовано на Gateway |
| Згенерувати відео | openclaw infer video generate --prompt "..." --json |
Підтримує підказки провайдера, як-от --resolution |
| Описати відеофайл | openclaw infer video describe --file ./clip.mp4 --json |
--model має бути <provider/model> |
| Шукати в інтернеті | openclaw infer web search --query "..." --json |
|
| Отримати вебсторінку | openclaw infer web fetch --url https://example.com --json |
|
| Створити embeddings | openclaw infer embedding create --text "..." --json |
Поведінка
openclaw infer ...є основною CLI-поверхнею для цих робочих процесів.- Використовуйте
--json, коли вивід споживатиме інша команда або скрипт. - Використовуйте
--providerабо--model provider/model, коли потрібен конкретний бекенд. - Для
image describe,audio transcribeіvideo describe--modelмає використовувати форму<provider/model>. - Для
image describeявний--modelзапускає цей provider/model напряму. Модель має підтримувати зображення в каталозі моделей або конфігурації провайдера.codex/<model>запускає обмежений хід розуміння зображень через сервер застосунку Codex;openai-codex/<model>використовує шлях провайдера OpenAI Codex OAuth. - Команди виконання без стану за замовчуванням локальні.
- Команди стану, керованого Gateway, за замовчуванням використовують Gateway.
- Звичайний локальний шлях не потребує запущеного Gateway.
- Локальний
model run— це легке одноразове завершення через провайдера. Він визначає налаштовану модель агента й автентифікацію, але не запускає хід chat-agent, не завантажує інструменти й не відкриває вбудовані MCP-сервери. model run --fileприймає файли зображень, визначає їхній MIME-тип і надсилає їх із наданим prompt до вибраної моделі. Повторіть--fileдля кількох зображень.model run --fileвідхиляє вхідні дані, що не є зображеннями. Використовуйтеinfer audio transcribeдля аудіофайлів іinfer video describeдля відеофайлів.model run --gatewayперевіряє маршрутизацію Gateway, збережену автентифікацію, вибір провайдера та вбудоване середовище виконання, але все одно працює як сирий пробник моделі: він надсилає наданий prompt і будь-які вкладення зображень без попереднього transcript сесії, контексту bootstrap/AGENTS, складання context-engine, інструментів або вбудованих MCP-серверів.model run --gateway --model <provider/model>потребує довірених облікових даних оператора Gateway, бо запит просить Gateway виконати одноразове перевизначення provider/model.
Модель
Використовуйте model для текстового інференсу, підтримуваного провайдерами, і перевірки моделей/провайдерів.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json
Використовуйте повні посилання <provider/model>, щоб smoke-тестувати конкретного провайдера без
запуску Gateway або завантаження повної поверхні інструментів агента:
openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json
Примітки:
- Локальний
model runє найвужчим CLI-smoke для здоров’я provider/model/auth, бо для провайдерів, що не є Codex, він надсилає лише наданий prompt до вибраної моделі. - Локальні проби
openai-codex/*є вузьким винятком: OpenClaw додає мінімальну системну інструкцію, щоб транспорт Codex Responses міг заповнити своє обов’язкове полеinstructions, без додавання повного контексту агента, інструментів, пам’яті або transcript сесії. - Локальний
model run --fileзберігає цей легкий шлях і прикріплює вміст зображення безпосередньо до одного повідомлення користувача. Типові файли зображень, як-от PNG, JPEG і WebP, працюють, коли їхній MIME-тип визначено якimage/*; непідтримувані або нерозпізнані файли зазнають невдачі до виклику провайдера. model run --fileнайкраще підходить, коли потрібно безпосередньо протестувати вибрану мультимодальну текстову модель. Використовуйтеinfer image describe, коли потрібен вибір провайдера для розуміння зображень OpenClaw і стандартна маршрутизація image-model.- Вибрана модель має підтримувати вхідні зображення; текстові-only моделі можуть відхилити запит на рівні провайдера.
model run --promptмає містити текст, що не складається лише з пробілів; порожні prompts відхиляються до виклику локальних провайдерів або Gateway.- Локальний
model runзавершується з ненульовим кодом, коли провайдер не повертає текстового виводу, тож недоступні локальні провайдери й порожні завершення не виглядають як успішні проби. - Використовуйте
model run --gateway, коли потрібно протестувати маршрутизацію Gateway, налаштування agent-runtime або стан провайдера, керований Gateway, зберігаючи вхід моделі сирим. Використовуйтеopenclaw agentабо chat-поверхні, коли потрібен повний контекст агента, інструменти, пам’ять і transcript сесії. model auth login,model auth logoutіmodel auth statusкерують збереженим станом автентифікації провайдера.
Зображення
Використовуйте image для генерації, редагування й опису.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json
Примітки:
-
Використовуйте
image edit, коли починаєте з наявних вхідних файлів. -
Використовуйте
--size,--aspect-ratioабо--resolutionзimage editдля провайдерів/моделей, які підтримують підказки геометрії під час редагування референсних зображень. -
Використовуйте
--output-format png --background transparentз--model openai/gpt-image-1.5для виводу OpenAI PNG із прозорим фоном;--openai-backgroundзалишається доступним як специфічний для OpenAI псевдонім. Провайдери, які не оголошують підтримку фону, повідомляють цю підказку як проігнороване перевизначення. -
Використовуйте
image providers --json, щоб перевірити, які вбудовані провайдери зображень можна виявити, налаштовано, вибрано, а також які можливості генерації/редагування надає кожен провайдер. -
Використовуйте
image generate --model <provider/model> --jsonяк найвужчу live CLI-перевірку для змін генерації зображень. Приклад:openclaw infer image providers --json openclaw infer image generate \ --model google/gemini-3.1-flash-image-preview \ --prompt "Minimal flat test image: one blue square on a white background, no text." \ --output ./openclaw-infer-image-smoke.png \ --jsonJSON-відповідь повідомляє
ok,provider,model,attemptsі записані шляхи виводу. Коли встановлено--output, фінальне розширення може відповідати MIME-типу, повернутому провайдером. -
Для
image describeіimage describe-manyвикористовуйте--prompt, щоб дати візуальній моделі специфічну для завдання інструкцію, наприклад OCR, порівняння, перевірку UI або стислий підпис. -
Використовуйте
--timeout-msіз повільними локальними візуальними моделями або холодними запусками Ollama. -
Для
image describe--modelмає бути<provider/model>із підтримкою зображень. -
Для локальних візуальних моделей Ollama спочатку завантажте модель і встановіть
OLLAMA_API_KEYна будь-яке значення-заповнювач, наприкладollama-local. Див. Ollama.
Аудіо
Використовуйте audio для транскрибування файлів.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Примітки:
audio transcribeпризначено для транскрибування файлів, а не для керування сесіями в реальному часі.--modelмає бути<provider/model>.
TTS
Використовуйте tts для синтезу мовлення та стану TTS-провайдера.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
Примітки:
tts statusза замовчуванням використовує gateway, оскільки відображає TTS-стан, керований gateway.- Використовуйте
tts providers,tts voicesіtts set-provider, щоб переглядати й налаштовувати поведінку TTS.
Відео
Використовуйте video для генерації та опису.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
Примітки:
video generateприймає--size,--aspect-ratio,--resolution,--duration,--audio,--watermarkі--timeout-msта передає їх до runtime генерації відео.--modelмає бути<provider/model>дляvideo describe.
Веб
Використовуйте web для робочих процесів пошуку й отримання даних.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
Примітки:
- Використовуйте
web providers, щоб переглянути доступних, налаштованих і вибраних провайдерів.
Ембединг
Використовуйте embedding для створення векторів і перегляду провайдерів ембедингів.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json
Вивід JSON
Команди infer нормалізують вивід JSON у спільній оболонці:
{
"ok": true,
"capability": "image.generate",
"transport": "local",
"provider": "openai",
"model": "gpt-image-2",
"attempts": [],
"outputs": []
}
Поля верхнього рівня стабільні:
okcapabilitytransportprovidermodelattemptsoutputserror
Для команд згенерованих медіа outputs містить файли, записані OpenClaw. Використовуйте
path, mimeType, size і будь-які специфічні для медіа розміри в цьому масиві
для автоматизації замість розбору stdout, призначеного для читання людиною.
Поширені помилки
# Bad
openclaw infer media image generate --prompt "friendly lobster"
# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json
# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Примітки
openclaw capability ...є псевдонімом дляopenclaw infer ....