快速开始
推理 CLI
openclaw infer 是 OpenClaw 中由提供商支撑的推理工作流的规范无头界面。
它有意暴露能力族,而不是原始 Gateway 网关 RPC 名称,也不是原始智能体工具 ID。
将 infer 转换为技能
复制并粘贴这段内容给智能体:
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
一个优秀的基于 infer 的技能应该:
- 将常见用户意图映射到正确的 infer 子命令
- 为它覆盖的工作流包含几个规范的 infer 示例
- 在示例和建议中优先使用
openclaw infer ... - 避免在技能正文中重新记录整个 infer 界面
典型的以 infer 为重点的技能覆盖范围:
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
为什么使用 infer
openclaw infer 为 OpenClaw 内部由提供商支撑的推理任务提供一个一致的 CLI。
优势:
- 使用 OpenClaw 中已经配置的提供商和模型,而不是为每个后端连接一次性包装器。
- 将模型、图像、音频转录、TTS、视频、Web 和嵌入工作流放在同一个命令树下。
- 为脚本、自动化和智能体驱动的工作流使用稳定的
--json输出结构。 - 当任务本质上是“运行推理”时,优先使用 OpenClaw 的第一方界面。
- 对大多数 infer 命令使用正常的本地路径,无需 Gateway 网关。
对于端到端提供商检查,请在较低层级的
提供商测试通过后优先使用 openclaw infer ...。在发起提供商请求前,它会运行已发布的 CLI、配置加载、
默认智能体解析、内置插件激活,以及共享能力
运行时。
命令树
openclaw infer
list
inspect
model
run
list
inspect
providers
auth login
auth logout
auth status
image
generate
edit
describe
describe-many
providers
audio
transcribe
providers
tts
convert
voices
providers
status
enable
disable
set-provider
video
generate
describe
providers
web
search
fetch
providers
embedding
create
providers
常见任务
此表将常见推理任务映射到对应的 infer 命令。
| 任务 | 命令 | 说明 |
|---|---|---|
| 运行文本/模型提示词 | openclaw infer model run --prompt "..." --json |
默认使用正常的本地路径 |
| 在图像上运行模型提示词 | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model |
对多个图像输入重复使用 --file |
| 生成图像 | openclaw infer image generate --prompt "..." --json |
从现有文件开始时使用 image edit |
| 描述图像文件 | openclaw infer image describe --file ./image.png --prompt "..." --json |
--model 必须是支持图像的 <provider/model> |
| 转录音频 | openclaw infer audio transcribe --file ./memo.m4a --json |
--model 必须是 <provider/model> |
| 合成语音 | openclaw infer tts convert --text "..." --output ./speech.mp3 --json |
tts status 面向 Gateway 网关 |
| 生成视频 | openclaw infer video generate --prompt "..." --json |
支持提供商提示,例如 --resolution |
| 描述视频文件 | openclaw infer video describe --file ./clip.mp4 --json |
--model 必须是 <provider/model> |
| 搜索 Web | openclaw infer web search --query "..." --json |
|
| 获取网页 | openclaw infer web fetch --url https://example.com --json |
|
| 创建嵌入 | openclaw infer embedding create --text "..." --json |
行为
openclaw infer ...是这些工作流的主要 CLI 界面。- 当输出将由另一个命令或脚本消费时,使用
--json。 - 当需要特定后端时,使用
--provider或--model provider/model。 - 对于
image describe、audio transcribe和video describe,--model必须使用<provider/model>形式。 - 对于
image describe,显式的--model会直接运行该提供商/模型。该模型必须在模型目录或提供商配置中具备图像能力。codex/<model>会运行一个有界的 Codex 应用服务器图像理解轮次;openai-codex/<model>使用 OpenAI Codex OAuth 提供商路径。 - 无状态执行命令默认使用本地。
- Gateway 网关托管的状态命令默认使用 Gateway 网关。
- 正常的本地路径不要求 Gateway 网关正在运行。
- 本地
model run是一个精简的一次性提供商补全。它会解析已配置的智能体模型和凭证,但不会启动聊天智能体轮次、加载工具,或打开内置 MCP 服务器。 model run --file接受图像文件,检测其 MIME 类型,并将它们与提供的提示词一起发送到所选模型。对多个图像重复使用--file。model run --file会拒绝非图像输入。对音频文件使用infer audio transcribe,对视频文件使用infer video describe。model run --gateway会运行 Gateway 网关路由、保存的凭证、提供商选择和嵌入式运行时,但仍作为原始模型探测运行:它会发送提供的提示词和任何图像附件,不包含先前会话转录、bootstrap/AGENTS 上下文、上下文引擎组装、工具或内置 MCP 服务器。model run --gateway --model <provider/model>需要受信任的操作员 Gateway 网关凭证,因为该请求要求 Gateway 网关运行一次性提供商/模型覆盖。
模型
使用 model 执行由提供商支撑的文本推理以及模型/提供商检查。
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json
使用完整的 <provider/model> 引用来对特定提供商进行冒烟测试,而无需
启动 Gateway 网关或加载完整的智能体工具界面:
openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json
说明:
- 本地
model run是用于检查提供商/模型/凭证健康状况的最窄 CLI 冒烟测试,因为对于非 Codex 提供商,它只会将提供的提示词发送到所选模型。 openai-codex/*本地探测是一个很窄的例外:OpenClaw 会添加一条最小系统指令,以便 Codex Responses 传输可以填充其必需的instructions字段,而不会添加完整的智能体上下文、工具、记忆或会话转录。- 本地
model run --file保持该精简路径,并将图像内容直接附加到单条用户消息。PNG、JPEG 和 WebP 等常见图像文件在其 MIME 类型被检测为image/*时可以工作;不支持或无法识别的文件会在调用提供商之前失败。 - 当你想直接测试所选多模态文本模型时,
model run --file最合适。当你想使用 OpenClaw 的图像理解提供商选择和默认图像模型路由时,请使用infer image describe。 - 所选模型必须支持图像输入;纯文本模型可能会在提供商层拒绝该请求。
model run --prompt必须包含非空白文本;空提示词会在调用本地提供商或 Gateway 网关之前被拒绝。- 当提供商未返回文本输出时,本地
model run会以非零状态退出,因此不可达的本地提供商和空补全不会看起来像成功的探测。 - 当你需要测试 Gateway 网关路由、智能体运行时设置或 Gateway 网关托管的提供商状态,同时保持原始模型输入时,使用
model run --gateway。当你想要完整的智能体上下文、工具、记忆和会话转录时,使用openclaw agent或聊天界面。 model auth login、model auth logout和model auth status管理保存的提供商凭证状态。
图像
使用 image 进行生成、编辑和描述。
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json
说明:
-
从现有输入文件开始时,使用
image edit。 -
对于在参考图像编辑中支持几何提示的提供商/模型,配合
image edit使用--size、--aspect-ratio或--resolution。 -
使用
--output-format png --background transparent和--model openai/gpt-image-1.5输出透明背景的 OpenAI PNG;--openai-background仍可用作 OpenAI 专用别名。不声明背景支持的提供商会将该提示报告为被忽略的覆盖项。 -
使用
image providers --json验证哪些内置图像提供商可被发现、已配置、已选中,以及每个提供商公开了哪些生成/编辑能力。 -
使用
image generate --model <provider/model> --json作为图像生成变更最窄范围的实时 CLI 冒烟测试。示例:openclaw infer image providers --json openclaw infer image generate \ --model google/gemini-3.1-flash-image-preview \ --prompt "Minimal flat test image: one blue square on a white background, no text." \ --output ./openclaw-infer-image-smoke.png \ --jsonJSON 响应会报告
ok、provider、model、attempts和写入的输出路径。设置--output时,最终扩展名可能遵循提供商返回的 MIME 类型。 -
对于
image describe和image describe-many,使用--prompt给视觉模型提供特定任务的指令,例如 OCR、比较、UI 检查或简洁说明。 -
对慢速本地视觉模型或冷启动的 Ollama 使用
--timeout-ms。 -
对于
image describe,--model必须是具备图像能力的<provider/model>。 -
对于本地 Ollama 视觉模型,先拉取模型,并将
OLLAMA_API_KEY设置为任意占位值,例如ollama-local。参见 Ollama。
音频
使用 audio 进行文件转录。
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
注意事项:
audio transcribe用于文件转录,而不是实时会话管理。--model必须是<provider/model>。
TTS
使用 tts 进行语音合成和 TTS 提供商状态管理。
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
注意事项:
tts status默认使用 Gateway 网关,因为它反映由 Gateway 网关管理的 TTS 状态。- 使用
tts providers、tts voices和tts set-provider检查并配置 TTS 行为。
视频
使用 video 进行生成和描述。
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
注意事项:
video generate接受--size、--aspect-ratio、--resolution、--duration、--audio、--watermark和--timeout-ms,并将它们转发给视频生成运行时。- 对于
video describe,--model必须是<provider/model>。
Web
使用 web 进行搜索和获取工作流。
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
注意事项:
- 使用
web providers检查可用、已配置和已选中的提供商。
嵌入
使用 embedding 创建向量并检查嵌入提供商。
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json
JSON 输出
Infer 命令会将 JSON 输出规范化到共享信封中:
{
"ok": true,
"capability": "image.generate",
"transport": "local",
"provider": "openai",
"model": "gpt-image-2",
"attempts": [],
"outputs": []
}
顶层字段是稳定的:
okcapabilitytransportprovidermodelattemptsoutputserror
对于生成媒体的命令,outputs 包含 OpenClaw 写入的文件。自动化时,请使用该数组中的 path、mimeType、size 和任何媒体特定尺寸,而不是解析面向人类可读的 stdout。
常见陷阱
# Bad
openclaw infer media image generate --prompt "friendly lobster"
# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json
# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
注意事项
openclaw capability ...是openclaw infer ...的别名。