CLI commands

CLI інференсу

openclaw infer є канонічною безголовою поверхнею для робочих процесів інференсу, підтримуваних провайдерами.

Вона навмисно надає сімейства можливостей, а не сирі назви RPC Gateway і не сирі id інструментів агента.

Перетворіть infer на skill

Скопіюйте й вставте це агенту:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

Хороший skill на основі infer має:

  • зіставляти типові наміри користувача з правильними підкомандами infer
  • містити кілька канонічних прикладів infer для робочих процесів, які він охоплює
  • віддавати перевагу openclaw infer ... у прикладах і пропозиціях
  • уникати повторного документування всієї поверхні infer у тілі skill

Типове охоплення skill, зосередженого на infer:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

Навіщо використовувати infer

openclaw infer надає один узгоджений CLI для завдань інференсу, підтримуваних провайдерами, всередині OpenClaw.

Переваги:

  • Використовуйте провайдерів і моделі, уже налаштовані в OpenClaw, замість того щоб підключати одноразові обгортки для кожного бекенду.
  • Тримайте робочі процеси для моделей, зображень, транскрибування аудіо, TTS, відео, вебу та embeddings в одному дереві команд.
  • Використовуйте стабільну форму виводу --json для скриптів, автоматизації та робочих процесів, керованих агентами.
  • Віддавайте перевагу першокласній поверхні OpenClaw, коли завдання по суті означає «запустити інференс».
  • Використовуйте звичайний локальний шлях без потреби в Gateway для більшості команд infer.

Для наскрізних перевірок провайдера віддавайте перевагу openclaw infer ..., коли низькорівневі тести провайдера вже зелені. Це перевіряє постачений CLI, завантаження конфігурації, визначення агента за замовчуванням, активацію вбудованого plugin і спільне середовище можливостей до того, як буде зроблено запит до провайдера.

Дерево команд

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

Типові завдання

Ця таблиця зіставляє типові завдання інференсу з відповідною командою infer.

Завдання Команда Примітки
Запустити текстовий/model prompt openclaw infer model run --prompt "..." --json За замовчуванням використовує звичайний локальний шлях
Запустити model prompt на зображеннях openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model Повторіть --file для кількох вхідних зображень
Згенерувати зображення openclaw infer image generate --prompt "..." --json Використовуйте image edit, коли починаєте з наявного файлу
Описати файл зображення openclaw infer image describe --file ./image.png --prompt "..." --json --model має бути моделлю з підтримкою зображень у форматі <provider/model>
Транскрибувати аудіо openclaw infer audio transcribe --file ./memo.m4a --json --model має бути <provider/model>
Синтезувати мовлення openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status орієнтовано на Gateway
Згенерувати відео openclaw infer video generate --prompt "..." --json Підтримує підказки провайдера, як-от --resolution
Описати відеофайл openclaw infer video describe --file ./clip.mp4 --json --model має бути <provider/model>
Шукати в інтернеті openclaw infer web search --query "..." --json
Отримати вебсторінку openclaw infer web fetch --url https://example.com --json
Створити embeddings openclaw infer embedding create --text "..." --json

Поведінка

  • openclaw infer ... є основною CLI-поверхнею для цих робочих процесів.
  • Використовуйте --json, коли вивід споживатиме інша команда або скрипт.
  • Використовуйте --provider або --model provider/model, коли потрібен конкретний бекенд.
  • Для image describe, audio transcribe і video describe --model має використовувати форму <provider/model>.
  • Для image describe явний --model запускає цей provider/model напряму. Модель має підтримувати зображення в каталозі моделей або конфігурації провайдера. codex/<model> запускає обмежений хід розуміння зображень через сервер застосунку Codex; openai-codex/<model> використовує шлях провайдера OpenAI Codex OAuth.
  • Команди виконання без стану за замовчуванням локальні.
  • Команди стану, керованого Gateway, за замовчуванням використовують Gateway.
  • Звичайний локальний шлях не потребує запущеного Gateway.
  • Локальний model run — це легке одноразове завершення через провайдера. Він визначає налаштовану модель агента й автентифікацію, але не запускає хід chat-agent, не завантажує інструменти й не відкриває вбудовані MCP-сервери.
  • model run --file приймає файли зображень, визначає їхній MIME-тип і надсилає їх із наданим prompt до вибраної моделі. Повторіть --file для кількох зображень.
  • model run --file відхиляє вхідні дані, що не є зображеннями. Використовуйте infer audio transcribe для аудіофайлів і infer video describe для відеофайлів.
  • model run --gateway перевіряє маршрутизацію Gateway, збережену автентифікацію, вибір провайдера та вбудоване середовище виконання, але все одно працює як сирий пробник моделі: він надсилає наданий prompt і будь-які вкладення зображень без попереднього transcript сесії, контексту bootstrap/AGENTS, складання context-engine, інструментів або вбудованих MCP-серверів.
  • model run --gateway --model <provider/model> потребує довірених облікових даних оператора Gateway, бо запит просить Gateway виконати одноразове перевизначення provider/model.

Модель

Використовуйте model для текстового інференсу, підтримуваного провайдерами, і перевірки моделей/провайдерів.

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

Використовуйте повні посилання <provider/model>, щоб smoke-тестувати конкретного провайдера без запуску Gateway або завантаження повної поверхні інструментів агента:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

Примітки:

  • Локальний model run є найвужчим CLI-smoke для здоров’я provider/model/auth, бо для провайдерів, що не є Codex, він надсилає лише наданий prompt до вибраної моделі.
  • Локальні проби openai-codex/* є вузьким винятком: OpenClaw додає мінімальну системну інструкцію, щоб транспорт Codex Responses міг заповнити своє обов’язкове поле instructions, без додавання повного контексту агента, інструментів, пам’яті або transcript сесії.
  • Локальний model run --file зберігає цей легкий шлях і прикріплює вміст зображення безпосередньо до одного повідомлення користувача. Типові файли зображень, як-от PNG, JPEG і WebP, працюють, коли їхній MIME-тип визначено як image/*; непідтримувані або нерозпізнані файли зазнають невдачі до виклику провайдера.
  • model run --file найкраще підходить, коли потрібно безпосередньо протестувати вибрану мультимодальну текстову модель. Використовуйте infer image describe, коли потрібен вибір провайдера для розуміння зображень OpenClaw і стандартна маршрутизація image-model.
  • Вибрана модель має підтримувати вхідні зображення; текстові-only моделі можуть відхилити запит на рівні провайдера.
  • model run --prompt має містити текст, що не складається лише з пробілів; порожні prompts відхиляються до виклику локальних провайдерів або Gateway.
  • Локальний model run завершується з ненульовим кодом, коли провайдер не повертає текстового виводу, тож недоступні локальні провайдери й порожні завершення не виглядають як успішні проби.
  • Використовуйте model run --gateway, коли потрібно протестувати маршрутизацію Gateway, налаштування agent-runtime або стан провайдера, керований Gateway, зберігаючи вхід моделі сирим. Використовуйте openclaw agent або chat-поверхні, коли потрібен повний контекст агента, інструменти, пам’ять і transcript сесії.
  • model auth login, model auth logout і model auth status керують збереженим станом автентифікації провайдера.

Зображення

Використовуйте image для генерації, редагування й опису.

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

Примітки:

  • Використовуйте image edit, коли починаєте з наявних вхідних файлів.

  • Використовуйте --size, --aspect-ratio або --resolution з image edit для провайдерів/моделей, які підтримують підказки геометрії під час редагування референсних зображень.

  • Використовуйте --output-format png --background transparent з --model openai/gpt-image-1.5 для виводу OpenAI PNG із прозорим фоном; --openai-background залишається доступним як специфічний для OpenAI псевдонім. Провайдери, які не оголошують підтримку фону, повідомляють цю підказку як проігнороване перевизначення.

  • Використовуйте image providers --json, щоб перевірити, які вбудовані провайдери зображень можна виявити, налаштовано, вибрано, а також які можливості генерації/редагування надає кожен провайдер.

  • Використовуйте image generate --model <provider/model> --json як найвужчу live CLI-перевірку для змін генерації зображень. Приклад:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    JSON-відповідь повідомляє ok, provider, model, attempts і записані шляхи виводу. Коли встановлено --output, фінальне розширення може відповідати MIME-типу, повернутому провайдером.

  • Для image describe і image describe-many використовуйте --prompt, щоб дати візуальній моделі специфічну для завдання інструкцію, наприклад OCR, порівняння, перевірку UI або стислий підпис.

  • Використовуйте --timeout-ms із повільними локальними візуальними моделями або холодними запусками Ollama.

  • Для image describe --model має бути <provider/model> із підтримкою зображень.

  • Для локальних візуальних моделей Ollama спочатку завантажте модель і встановіть OLLAMA_API_KEY на будь-яке значення-заповнювач, наприклад ollama-local. Див. Ollama.

Аудіо

Використовуйте audio для транскрибування файлів.

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Примітки:

  • audio transcribe призначено для транскрибування файлів, а не для керування сесіями в реальному часі.
  • --model має бути <provider/model>.

TTS

Використовуйте tts для синтезу мовлення та стану TTS-провайдера.

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

Примітки:

  • tts status за замовчуванням використовує gateway, оскільки відображає TTS-стан, керований gateway.
  • Використовуйте tts providers, tts voices і tts set-provider, щоб переглядати й налаштовувати поведінку TTS.

Відео

Використовуйте video для генерації та опису.

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

Примітки:

  • video generate приймає --size, --aspect-ratio, --resolution, --duration, --audio, --watermark і --timeout-ms та передає їх до runtime генерації відео.
  • --model має бути <provider/model> для video describe.

Веб

Використовуйте web для робочих процесів пошуку й отримання даних.

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

Примітки:

  • Використовуйте web providers, щоб переглянути доступних, налаштованих і вибраних провайдерів.

Ембединг

Використовуйте embedding для створення векторів і перегляду провайдерів ембедингів.

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

Вивід JSON

Команди infer нормалізують вивід JSON у спільній оболонці:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

Поля верхнього рівня стабільні:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

Для команд згенерованих медіа outputs містить файли, записані OpenClaw. Використовуйте path, mimeType, size і будь-які специфічні для медіа розміри в цьому масиві для автоматизації замість розбору stdout, призначеного для читання людиною.

Поширені помилки

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

Примітки

  • openclaw capability ... є псевдонімом для openclaw infer ....

Пов’язане