快速开始

推理 CLI

openclaw infer 是 OpenClaw 中由提供商支撑的推理工作流的规范无头界面。

它有意暴露能力族,而不是原始 Gateway 网关 RPC 名称,也不是原始智能体工具 ID。

将 infer 转换为技能

复制并粘贴这段内容给智能体:

Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.

一个优秀的基于 infer 的技能应该:

  • 将常见用户意图映射到正确的 infer 子命令
  • 为它覆盖的工作流包含几个规范的 infer 示例
  • 在示例和建议中优先使用 openclaw infer ...
  • 避免在技能正文中重新记录整个 infer 界面

典型的以 infer 为重点的技能覆盖范围:

  • openclaw infer model run
  • openclaw infer image generate
  • openclaw infer audio transcribe
  • openclaw infer tts convert
  • openclaw infer web search
  • openclaw infer embedding create

为什么使用 infer

openclaw infer 为 OpenClaw 内部由提供商支撑的推理任务提供一个一致的 CLI。

优势:

  • 使用 OpenClaw 中已经配置的提供商和模型,而不是为每个后端连接一次性包装器。
  • 将模型、图像、音频转录、TTS、视频、Web 和嵌入工作流放在同一个命令树下。
  • 为脚本、自动化和智能体驱动的工作流使用稳定的 --json 输出结构。
  • 当任务本质上是“运行推理”时,优先使用 OpenClaw 的第一方界面。
  • 对大多数 infer 命令使用正常的本地路径,无需 Gateway 网关。

对于端到端提供商检查,请在较低层级的 提供商测试通过后优先使用 openclaw infer ...。在发起提供商请求前,它会运行已发布的 CLI、配置加载、 默认智能体解析、内置插件激活,以及共享能力 运行时。

命令树

 openclaw infer
  list
  inspect

  model
    run
    list
    inspect
    providers
    auth login
    auth logout
    auth status

  image
    generate
    edit
    describe
    describe-many
    providers

  audio
    transcribe
    providers

  tts
    convert
    voices
    providers
    status
    enable
    disable
    set-provider

  video
    generate
    describe
    providers

  web
    search
    fetch
    providers

  embedding
    create
    providers

常见任务

此表将常见推理任务映射到对应的 infer 命令。

任务 命令 说明
运行文本/模型提示词 openclaw infer model run --prompt "..." --json 默认使用正常的本地路径
在图像上运行模型提示词 openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model 对多个图像输入重复使用 --file
生成图像 openclaw infer image generate --prompt "..." --json 从现有文件开始时使用 image edit
描述图像文件 openclaw infer image describe --file ./image.png --prompt "..." --json --model 必须是支持图像的 <provider/model>
转录音频 openclaw infer audio transcribe --file ./memo.m4a --json --model 必须是 <provider/model>
合成语音 openclaw infer tts convert --text "..." --output ./speech.mp3 --json tts status 面向 Gateway 网关
生成视频 openclaw infer video generate --prompt "..." --json 支持提供商提示,例如 --resolution
描述视频文件 openclaw infer video describe --file ./clip.mp4 --json --model 必须是 <provider/model>
搜索 Web openclaw infer web search --query "..." --json
获取网页 openclaw infer web fetch --url https://example.com --json
创建嵌入 openclaw infer embedding create --text "..." --json

行为

  • openclaw infer ... 是这些工作流的主要 CLI 界面。
  • 当输出将由另一个命令或脚本消费时,使用 --json
  • 当需要特定后端时,使用 --provider--model provider/model
  • 对于 image describeaudio transcribevideo describe--model 必须使用 <provider/model> 形式。
  • 对于 image describe,显式的 --model 会直接运行该提供商/模型。该模型必须在模型目录或提供商配置中具备图像能力。codex/<model> 会运行一个有界的 Codex 应用服务器图像理解轮次;openai-codex/<model> 使用 OpenAI Codex OAuth 提供商路径。
  • 无状态执行命令默认使用本地。
  • Gateway 网关托管的状态命令默认使用 Gateway 网关。
  • 正常的本地路径不要求 Gateway 网关正在运行。
  • 本地 model run 是一个精简的一次性提供商补全。它会解析已配置的智能体模型和凭证,但不会启动聊天智能体轮次、加载工具,或打开内置 MCP 服务器。
  • model run --file 接受图像文件,检测其 MIME 类型,并将它们与提供的提示词一起发送到所选模型。对多个图像重复使用 --file
  • model run --file 会拒绝非图像输入。对音频文件使用 infer audio transcribe,对视频文件使用 infer video describe
  • model run --gateway 会运行 Gateway 网关路由、保存的凭证、提供商选择和嵌入式运行时,但仍作为原始模型探测运行:它会发送提供的提示词和任何图像附件,不包含先前会话转录、bootstrap/AGENTS 上下文、上下文引擎组装、工具或内置 MCP 服务器。
  • model run --gateway --model <provider/model> 需要受信任的操作员 Gateway 网关凭证,因为该请求要求 Gateway 网关运行一次性提供商/模型覆盖。

模型

使用 model 执行由提供商支撑的文本推理以及模型/提供商检查。

openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json

使用完整的 <provider/model> 引用来对特定提供商进行冒烟测试,而无需 启动 Gateway 网关或加载完整的智能体工具界面:

openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json

说明:

  • 本地 model run 是用于检查提供商/模型/凭证健康状况的最窄 CLI 冒烟测试,因为对于非 Codex 提供商,它只会将提供的提示词发送到所选模型。
  • openai-codex/* 本地探测是一个很窄的例外:OpenClaw 会添加一条最小系统指令,以便 Codex Responses 传输可以填充其必需的 instructions 字段,而不会添加完整的智能体上下文、工具、记忆或会话转录。
  • 本地 model run --file 保持该精简路径,并将图像内容直接附加到单条用户消息。PNG、JPEG 和 WebP 等常见图像文件在其 MIME 类型被检测为 image/* 时可以工作;不支持或无法识别的文件会在调用提供商之前失败。
  • 当你想直接测试所选多模态文本模型时,model run --file 最合适。当你想使用 OpenClaw 的图像理解提供商选择和默认图像模型路由时,请使用 infer image describe
  • 所选模型必须支持图像输入;纯文本模型可能会在提供商层拒绝该请求。
  • model run --prompt 必须包含非空白文本;空提示词会在调用本地提供商或 Gateway 网关之前被拒绝。
  • 当提供商未返回文本输出时,本地 model run 会以非零状态退出,因此不可达的本地提供商和空补全不会看起来像成功的探测。
  • 当你需要测试 Gateway 网关路由、智能体运行时设置或 Gateway 网关托管的提供商状态,同时保持原始模型输入时,使用 model run --gateway。当你想要完整的智能体上下文、工具、记忆和会话转录时,使用 openclaw agent 或聊天界面。
  • model auth loginmodel auth logoutmodel auth status 管理保存的提供商凭证状态。

图像

使用 image 进行生成、编辑和描述。

openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json

说明:

  • 从现有输入文件开始时,使用 image edit

  • 对于在参考图像编辑中支持几何提示的提供商/模型,配合 image edit 使用 --size--aspect-ratio--resolution

  • 使用 --output-format png --background transparent--model openai/gpt-image-1.5 输出透明背景的 OpenAI PNG;--openai-background 仍可用作 OpenAI 专用别名。不声明背景支持的提供商会将该提示报告为被忽略的覆盖项。

  • 使用 image providers --json 验证哪些内置图像提供商可被发现、已配置、已选中,以及每个提供商公开了哪些生成/编辑能力。

  • 使用 image generate --model <provider/model> --json 作为图像生成变更最窄范围的实时 CLI 冒烟测试。示例:

    openclaw infer image providers --json
    openclaw infer image generate \
      --model google/gemini-3.1-flash-image-preview \
      --prompt "Minimal flat test image: one blue square on a white background, no text." \
      --output ./openclaw-infer-image-smoke.png \
      --json
    

    JSON 响应会报告 okprovidermodelattempts 和写入的输出路径。设置 --output 时,最终扩展名可能遵循提供商返回的 MIME 类型。

  • 对于 image describeimage describe-many,使用 --prompt 给视觉模型提供特定任务的指令,例如 OCR、比较、UI 检查或简洁说明。

  • 对慢速本地视觉模型或冷启动的 Ollama 使用 --timeout-ms

  • 对于 image describe--model 必须是具备图像能力的 <provider/model>

  • 对于本地 Ollama 视觉模型,先拉取模型,并将 OLLAMA_API_KEY 设置为任意占位值,例如 ollama-local。参见 Ollama

音频

使用 audio 进行文件转录。

openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

注意事项:

  • audio transcribe 用于文件转录,而不是实时会话管理。
  • --model 必须是 <provider/model>

TTS

使用 tts 进行语音合成和 TTS 提供商状态管理。

openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json

注意事项:

  • tts status 默认使用 Gateway 网关,因为它反映由 Gateway 网关管理的 TTS 状态。
  • 使用 tts providerstts voicestts set-provider 检查并配置 TTS 行为。

视频

使用 video 进行生成和描述。

openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json

注意事项:

  • video generate 接受 --size--aspect-ratio--resolution--duration--audio--watermark--timeout-ms,并将它们转发给视频生成运行时。
  • 对于 video describe--model 必须是 <provider/model>

Web

使用 web 进行搜索和获取工作流。

openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json

注意事项:

  • 使用 web providers 检查可用、已配置和已选中的提供商。

嵌入

使用 embedding 创建向量并检查嵌入提供商。

openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json

JSON 输出

Infer 命令会将 JSON 输出规范化到共享信封中:

{
  "ok": true,
  "capability": "image.generate",
  "transport": "local",
  "provider": "openai",
  "model": "gpt-image-2",
  "attempts": [],
  "outputs": []
}

顶层字段是稳定的:

  • ok
  • capability
  • transport
  • provider
  • model
  • attempts
  • outputs
  • error

对于生成媒体的命令,outputs 包含 OpenClaw 写入的文件。自动化时,请使用该数组中的 pathmimeTypesize 和任何媒体特定尺寸,而不是解析面向人类可读的 stdout。

常见陷阱

# Bad
openclaw infer media image generate --prompt "friendly lobster"

# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json

# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json

注意事项

  • openclaw capability ...openclaw infer ... 的别名。

相关内容