CLI commands
추론 CLI
openclaw infer는 제공자 기반 추론 워크플로를 위한 표준 헤드리스 표면입니다.
이는 원시 gateway RPC 이름이나 원시 agent tool id가 아니라, 기능군을 의도적으로 노출합니다.
infer를 skill로 전환하기
이를 agent에 복사하여 붙여넣으세요.
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
좋은 infer 기반 skill은 다음을 수행해야 합니다.
- 일반적인 사용자 의도를 올바른 infer 하위 명령에 매핑
- 다루는 워크플로에 대한 몇 가지 표준 infer 예제 포함
- 예제와 제안에서
openclaw infer ...선호 - skill 본문 안에서 전체 infer 표면을 다시 문서화하지 않기
일반적인 infer 중심 skill 적용 범위:
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
infer를 사용하는 이유
openclaw infer는 OpenClaw 내부의 제공자 기반 추론 작업을 위한 일관된 단일 CLI를 제공합니다.
이점:
- 각 백엔드에 대해 일회성 wrapper를 연결하는 대신 OpenClaw에 이미 구성된 제공자와 모델을 사용합니다.
- 모델, 이미지, 오디오 전사, TTS, 비디오, 웹, 임베딩 워크플로를 하나의 명령 트리 아래에 유지합니다.
- 스크립트, 자동화, agent 구동 워크플로에 안정적인
--json출력 형태를 사용합니다. - 작업의 본질이 "추론 실행"인 경우 자사 OpenClaw 표면을 선호합니다.
- 대부분의 infer 명령에서 gateway를 요구하지 않고 일반 로컬 경로를 사용합니다.
엔드투엔드 제공자 확인에는 하위 수준 제공자 테스트가 통과한 후 openclaw infer ...를 선호하세요. 제공자 요청이 수행되기 전에 출시된 CLI, 구성 로드, 기본 agent 해석, 번들 Plugin 활성화, 공유 기능 런타임을 실행합니다.
명령 트리
openclaw infer
list
inspect
model
run
list
inspect
providers
auth login
auth logout
auth status
image
generate
edit
describe
describe-many
providers
audio
transcribe
providers
tts
convert
voices
providers
status
enable
disable
set-provider
video
generate
describe
providers
web
search
fetch
providers
embedding
create
providers
일반 작업
이 표는 일반적인 추론 작업을 해당 infer 명령에 매핑합니다.
| 작업 | 명령 | 참고 |
|---|---|---|
| 텍스트/모델 프롬프트 실행 | openclaw infer model run --prompt "..." --json |
기본적으로 일반 로컬 경로 사용 |
| 이미지에 대해 모델 프롬프트 실행 | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model |
여러 이미지 입력에는 --file 반복 |
| 이미지 생성 | openclaw infer image generate --prompt "..." --json |
기존 파일에서 시작할 때는 image edit 사용 |
| 이미지 파일 설명 | openclaw infer image describe --file ./image.png --prompt "..." --json |
--model은 이미지 가능 <provider/model>이어야 함 |
| 오디오 전사 | openclaw infer audio transcribe --file ./memo.m4a --json |
--model은 <provider/model>이어야 함 |
| 음성 합성 | openclaw infer tts convert --text "..." --output ./speech.mp3 --json |
tts status는 gateway 지향 |
| 비디오 생성 | openclaw infer video generate --prompt "..." --json |
--resolution 같은 제공자 힌트 지원 |
| 비디오 파일 설명 | openclaw infer video describe --file ./clip.mp4 --json |
--model은 <provider/model>이어야 함 |
| 웹 검색 | openclaw infer web search --query "..." --json |
|
| 웹 페이지 가져오기 | openclaw infer web fetch --url https://example.com --json |
|
| 임베딩 생성 | openclaw infer embedding create --text "..." --json |
동작
openclaw infer ...는 이러한 워크플로의 기본 CLI 표면입니다.- 출력이 다른 명령이나 스크립트에서 소비될 경우
--json을 사용하세요. - 특정 백엔드가 필요할 때는
--provider또는--model provider/model을 사용하세요. image describe,audio transcribe,video describe의 경우--model은<provider/model>형식을 사용해야 합니다.image describe에서 명시적--model은 해당 provider/model을 직접 실행합니다. 모델은 모델 카탈로그 또는 제공자 구성에서 이미지 가능이어야 합니다.codex/<model>은 제한된 Codex app-server 이미지 이해 turn을 실행하고,openai-codex/<model>은 OpenAI Codex OAuth 제공자 경로를 사용합니다.- 상태 비저장 실행 명령은 기본값이 local입니다.
- Gateway 관리 상태 명령은 기본값이 gateway입니다.
- 일반 로컬 경로는 gateway가 실행 중일 필요가 없습니다.
- 로컬
model run은 가벼운 일회성 제공자 completion입니다. 구성된 agent 모델과 인증을 해석하지만 chat-agent turn을 시작하거나, tools를 로드하거나, 번들 MCP 서버를 열지 않습니다. model run --file은 이미지 파일을 허용하고 MIME 유형을 감지한 뒤 선택한 모델에 제공된 프롬프트와 함께 보냅니다. 여러 이미지에는--file을 반복하세요.model run --file은 이미지가 아닌 입력을 거부합니다. 오디오 파일에는infer audio transcribe를 사용하고 비디오 파일에는infer video describe를 사용하세요.model run --gateway는 Gateway 라우팅, 저장된 인증, 제공자 선택, 내장 런타임을 실행하지만 여전히 원시 모델 probe로 실행됩니다. 이전 세션 transcript, bootstrap/AGENTS 컨텍스트, context-engine assembly, tools, 번들 MCP 서버 없이 제공된 프롬프트와 이미지 첨부를 전송합니다.model run --gateway --model <provider/model>은 요청이 Gateway에 일회성 provider/model override 실행을 요구하므로 신뢰할 수 있는 운영자 gateway 자격 증명이 필요합니다.
모델
제공자 기반 텍스트 추론과 모델/제공자 검사에는 model을 사용하세요.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json
Gateway를 시작하거나 전체 agent tool 표면을 로드하지 않고 특정 제공자를 smoke-test하려면 전체 <provider/model> 참조를 사용하세요.
openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json
참고:
- 로컬
model run은 비 Codex 제공자의 경우 선택한 모델에 제공된 프롬프트만 전송하므로 provider/model/auth 상태를 확인하는 가장 좁은 CLI smoke입니다. openai-codex/*로컬 probe는 좁은 예외입니다. OpenClaw는 Codex Responses transport가 필수instructions필드를 채울 수 있도록 최소 system instruction을 추가하며, 전체 agent 컨텍스트, tools, memory, 세션 transcript는 추가하지 않습니다.- 로컬
model run --file은 그 가벼운 경로를 유지하고 단일 사용자 메시지에 이미지 콘텐츠를 직접 첨부합니다. PNG, JPEG, WebP 같은 일반 이미지 파일은 MIME 유형이image/*로 감지되면 작동합니다. 지원되지 않거나 인식되지 않는 파일은 제공자가 호출되기 전에 실패합니다. model run --file은 선택한 멀티모달 텍스트 모델을 직접 테스트하려는 경우에 가장 적합합니다. OpenClaw의 이미지 이해 제공자 선택과 기본 이미지 모델 라우팅을 원할 때는infer image describe를 사용하세요.- 선택한 모델은 이미지 입력을 지원해야 합니다. 텍스트 전용 모델은 제공자 계층에서 요청을 거부할 수 있습니다.
model run --prompt에는 공백이 아닌 텍스트가 포함되어야 합니다. 빈 프롬프트는 로컬 제공자나 Gateway가 호출되기 전에 거부됩니다.- 로컬
model run은 제공자가 텍스트 출력을 반환하지 않으면 0이 아닌 코드로 종료되므로, 연결할 수 없는 로컬 제공자와 빈 completion이 성공한 probe처럼 보이지 않습니다. - 모델 입력은 원시 상태로 유지하면서 Gateway 라우팅, agent-runtime 설정, Gateway 관리 제공자 상태를 테스트해야 할 때
model run --gateway를 사용하세요. 전체 agent 컨텍스트, tools, memory, 세션 transcript를 원할 때는openclaw agent또는 chat 표면을 사용하세요. model auth login,model auth logout,model auth status는 저장된 제공자 인증 상태를 관리합니다.
이미지
생성, 편집, 설명에는 image를 사용하세요.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json
참고:
-
기존 입력 파일에서 시작할 때는
image edit를 사용합니다. -
참조 이미지 편집에서 지오메트리 힌트를 지원하는 제공자/모델에는
image edit와 함께--size,--aspect-ratio또는--resolution을 사용합니다. -
투명 배경 OpenAI PNG 출력을 위해서는
--model openai/gpt-image-1.5와 함께--output-format png --background transparent를 사용합니다.--openai-background는 OpenAI 전용 별칭으로 계속 사용할 수 있습니다. 배경 지원을 선언하지 않는 제공자는 해당 힌트를 무시된 재정의로 보고합니다. -
번들 이미지 제공자 중 어떤 항목을 발견할 수 있고, 구성되어 있으며, 선택되었는지와 각 제공자가 어떤 생성/편집 기능을 노출하는지 확인하려면
image providers --json을 사용합니다. -
이미지 생성 변경 사항에 대한 가장 좁은 라이브 CLI 스모크로
image generate --model <provider/model> --json을 사용합니다. 예:openclaw infer image providers --json openclaw infer image generate \ --model google/gemini-3.1-flash-image-preview \ --prompt "Minimal flat test image: one blue square on a white background, no text." \ --output ./openclaw-infer-image-smoke.png \ --jsonJSON 응답은
ok,provider,model,attempts및 작성된 출력 경로를 보고합니다.--output이 설정된 경우 최종 확장자는 제공자가 반환한 MIME 유형을 따를 수 있습니다. -
image describe와image describe-many의 경우--prompt를 사용하여 비전 모델에 OCR, 비교, UI 검사 또는 간결한 캡션 작성 같은 작업별 지시를 제공합니다. -
느린 로컬 비전 모델이나 콜드 Ollama 시작에는
--timeout-ms를 사용합니다. -
image describe의 경우--model은 이미지 기능이 있는<provider/model>이어야 합니다. -
로컬 Ollama 비전 모델의 경우 먼저 모델을 가져오고
OLLAMA_API_KEY를 임의의 자리표시자 값(예:ollama-local)으로 설정합니다. Ollama를 참조하세요.
오디오
파일 전사에는 audio를 사용합니다.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
참고:
audio transcribe는 파일 전사용이며, 실시간 세션 관리용이 아닙니다.--model은<provider/model>이어야 합니다.
TTS
음성 합성과 TTS 제공자 상태에는 tts를 사용합니다.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
참고:
tts status는 Gateway 관리 TTS 상태를 반영하므로 기본값이 Gateway입니다.- TTS 동작을 검사하고 구성하려면
tts providers,tts voices,tts set-provider를 사용합니다.
비디오
생성과 설명에는 video를 사용합니다.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
참고:
video generate는--size,--aspect-ratio,--resolution,--duration,--audio,--watermark,--timeout-ms를 허용하며 이를 비디오 생성 런타임에 전달합니다.video describe의 경우--model은<provider/model>이어야 합니다.
웹
검색 및 가져오기 워크플로에는 web을 사용합니다.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
참고:
- 사용 가능하고, 구성되어 있으며, 선택된 제공자를 검사하려면
web providers를 사용합니다.
임베딩
벡터 생성과 임베딩 제공자 검사에는 embedding을 사용합니다.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json
JSON 출력
Infer 명령은 공유 봉투 아래에서 JSON 출력을 정규화합니다.
{
"ok": true,
"capability": "image.generate",
"transport": "local",
"provider": "openai",
"model": "gpt-image-2",
"attempts": [],
"outputs": []
}
최상위 필드는 안정적입니다.
okcapabilitytransportprovidermodelattemptsoutputserror
생성된 미디어 명령의 경우 outputs에는 OpenClaw가 작성한 파일이 포함됩니다. 자동화에는
사람이 읽을 수 있는 stdout을 파싱하는 대신 해당 배열의 path, mimeType, size 및 모든 미디어별 치수를
사용합니다.
일반적인 함정
# Bad
openclaw infer media image generate --prompt "friendly lobster"
# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json
# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
참고
openclaw capability ...는openclaw infer ...의 별칭입니다.