CLI commands
CLI de inferencia
openclaw infer es la superficie headless canónica para flujos de trabajo de inferencia respaldados por proveedores.
Expone intencionadamente familias de capacidades, no nombres RPC sin procesar del Gateway ni ids de herramientas de agente sin procesar.
Convertir infer en una habilidad
Copia y pega esto en un agente:
Read https://docs.openclaw.ai/cli/infer, then create a skill that routes my common workflows to `openclaw infer`.
Focus on model runs, image generation, video generation, audio transcription, TTS, web search, and embeddings.
Una buena habilidad basada en infer debería:
- asignar las intenciones comunes del usuario al subcomando infer correcto
- incluir algunos ejemplos canónicos de infer para los flujos de trabajo que cubre
- preferir
openclaw infer ...en ejemplos y sugerencias - evitar volver a documentar toda la superficie de infer dentro del cuerpo de la habilidad
Cobertura típica de una habilidad centrada en infer:
openclaw infer model runopenclaw infer image generateopenclaw infer audio transcribeopenclaw infer tts convertopenclaw infer web searchopenclaw infer embedding create
Por qué usar infer
openclaw infer proporciona una CLI uniforme para tareas de inferencia respaldadas por proveedores dentro de OpenClaw.
Beneficios:
- Usa los proveedores y modelos ya configurados en OpenClaw en lugar de crear envoltorios puntuales para cada backend.
- Mantén los flujos de trabajo de modelos, imágenes, transcripción de audio, TTS, video, web y embeddings bajo un único árbol de comandos.
- Usa una forma estable de salida
--jsonpara scripts, automatización y flujos de trabajo dirigidos por agentes. - Prefiere una superficie de OpenClaw propia cuando la tarea es fundamentalmente "ejecutar inferencia".
- Usa la ruta local normal sin requerir el Gateway para la mayoría de los comandos infer.
Para comprobaciones de proveedores de extremo a extremo, prefiere openclaw infer ... una vez que las pruebas de proveedor de nivel inferior estén en verde. Ejercita la CLI distribuida, la carga de configuración, la resolución del agente predeterminado, la activación del Plugin incluido y el runtime de capacidades compartidas antes de que se haga la solicitud al proveedor.
Árbol de comandos
openclaw infer
list
inspect
model
run
list
inspect
providers
auth login
auth logout
auth status
image
generate
edit
describe
describe-many
providers
audio
transcribe
providers
tts
convert
voices
providers
status
enable
disable
set-provider
video
generate
describe
providers
web
search
fetch
providers
embedding
create
providers
Tareas comunes
Esta tabla asigna tareas de inferencia comunes al comando infer correspondiente.
| Tarea | Comando | Notas |
|---|---|---|
| Ejecutar un prompt de texto/modelo | openclaw infer model run --prompt "..." --json |
Usa la ruta local normal de forma predeterminada |
| Ejecutar un prompt de modelo sobre imágenes | openclaw infer model run --prompt "Describe this" --file ./image.png --model provider/model |
Repite --file para varias entradas de imagen |
| Generar una imagen | openclaw infer image generate --prompt "..." --json |
Usa image edit cuando partas de un archivo existente |
| Describir un archivo de imagen | openclaw infer image describe --file ./image.png --prompt "..." --json |
--model debe ser un <provider/model> compatible con imágenes |
| Transcribir audio | openclaw infer audio transcribe --file ./memo.m4a --json |
--model debe ser <provider/model> |
| Sintetizar voz | openclaw infer tts convert --text "..." --output ./speech.mp3 --json |
tts status está orientado al Gateway |
| Generar un video | openclaw infer video generate --prompt "..." --json |
Admite sugerencias de proveedor como --resolution |
| Describir un archivo de video | openclaw infer video describe --file ./clip.mp4 --json |
--model debe ser <provider/model> |
| Buscar en la web | openclaw infer web search --query "..." --json |
|
| Obtener una página web | openclaw infer web fetch --url https://example.com --json |
|
| Crear embeddings | openclaw infer embedding create --text "..." --json |
Comportamiento
openclaw infer ...es la superficie CLI principal para estos flujos de trabajo.- Usa
--jsoncuando la salida vaya a ser consumida por otro comando o script. - Usa
--providero--model provider/modelcuando se requiera un backend específico. - Para
image describe,audio transcribeyvideo describe,--modeldebe usar la forma<provider/model>. - Para
image describe, un--modelexplícito ejecuta ese proveedor/modelo directamente. El modelo debe ser compatible con imágenes en el catálogo de modelos o en la configuración del proveedor.codex/<model>ejecuta un turno acotado de comprensión de imágenes del servidor de aplicaciones Codex;openai-codex/<model>usa la ruta del proveedor OAuth de OpenAI Codex. - Los comandos de ejecución sin estado usan local de forma predeterminada.
- Los comandos de estado gestionado por Gateway usan Gateway de forma predeterminada.
- La ruta local normal no requiere que el Gateway esté en ejecución.
model runlocal es una finalización de proveedor austera y de un solo uso. Resuelve el modelo de agente y la autenticación configurados, pero no inicia un turno de agente de chat, no carga herramientas ni abre servidores MCP incluidos.model run --fileacepta archivos de imagen, detecta su tipo MIME y los envía con el prompt suministrado al modelo seleccionado. Repite--filepara varias imágenes.model run --filerechaza entradas que no sean imágenes. Usainfer audio transcribepara archivos de audio einfer video describepara archivos de video.model run --gatewayejercita el enrutamiento de Gateway, la autenticación guardada, la selección de proveedor y el runtime integrado, pero sigue ejecutándose como una prueba de modelo sin procesar: envía el prompt suministrado y cualquier adjunto de imagen sin transcripción de sesión previa, contexto bootstrap/AGENTS, ensamblaje del motor de contexto, herramientas ni servidores MCP incluidos.model run --gateway --model <provider/model>requiere una credencial de Gateway de operador de confianza porque la solicitud pide al Gateway que ejecute una anulación puntual de proveedor/modelo.
Modelo
Usa model para inferencia de texto respaldada por proveedores e inspección de modelos/proveedores.
openclaw infer model run --prompt "Reply with exactly: smoke-ok" --json
openclaw infer model run --prompt "Summarize this changelog entry" --model openai/gpt-5.4 --json
openclaw infer model run --prompt "Describe this image in one sentence" --file ./photo.jpg --model google/gemini-2.5-flash --json
openclaw infer model providers --json
openclaw infer model inspect --name gpt-5.5 --json
Usa referencias completas <provider/model> para hacer una prueba smoke de un proveedor específico sin iniciar el Gateway ni cargar toda la superficie de herramientas del agente:
openclaw infer model run --local --model anthropic/claude-sonnet-4-6 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model cerebras/zai-glm-4.7 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model google/gemini-2.5-flash --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model groq/llama-3.1-8b-instant --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model mistral/mistral-small-latest --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model openai/gpt-4.1 --prompt "Reply with exactly: pong" --json
openclaw infer model run --local --model ollama/qwen2.5vl:7b --prompt "Describe this image." --file ./photo.jpg --json
Notas:
model runlocal es la prueba smoke de CLI más estrecha para la salud de proveedor/modelo/autenticación porque, para proveedores que no son Codex, solo envía el prompt suministrado al modelo seleccionado.- Las pruebas locales
openai-codex/*son la excepción estrecha: OpenClaw agrega una instrucción de sistema mínima para que el transporte de Codex Responses pueda poblar su campoinstructionsrequerido, sin agregar contexto completo de agente, herramientas, memoria ni transcripción de sesión. model run --filelocal conserva esa ruta austera y adjunta contenido de imagen directamente al único mensaje del usuario. Los archivos de imagen comunes como PNG, JPEG y WebP funcionan cuando su tipo MIME se detecta comoimage/*; los archivos no admitidos o no reconocidos fallan antes de llamar al proveedor.model run --filees lo mejor cuando quieres probar directamente el modelo de texto multimodal seleccionado. Usainfer image describecuando quieras la selección de proveedor de comprensión de imágenes de OpenClaw y el enrutamiento predeterminado de modelo de imagen.- El modelo seleccionado debe admitir entrada de imagen; los modelos solo de texto pueden rechazar la solicitud en la capa del proveedor.
model run --promptdebe contener texto que no sea solo espacios en blanco; los prompts vacíos se rechazan antes de llamar a los proveedores locales o al Gateway.model runlocal sale con estado distinto de cero cuando el proveedor no devuelve salida de texto, por lo que los proveedores locales inalcanzables y las finalizaciones vacías no parecen pruebas correctas.- Usa
model run --gatewaycuando necesites probar el enrutamiento de Gateway, la configuración del runtime de agente o el estado de proveedor gestionado por Gateway manteniendo la entrada del modelo sin procesar. Usaopenclaw agento superficies de chat cuando quieras el contexto completo del agente, herramientas, memoria y transcripción de sesión. model auth login,model auth logoutymodel auth statusgestionan el estado de autenticación de proveedor guardado.
Imagen
Usa image para generación, edición y descripción.
openclaw infer image generate --prompt "friendly lobster illustration" --json
openclaw infer image generate --prompt "cinematic product photo of headphones" --json
openclaw infer image generate --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "simple red circle sticker on a transparent background" --json
openclaw infer image generate --prompt "slow image backend" --timeout-ms 180000 --json
openclaw infer image edit --file ./logo.png --model openai/gpt-image-1.5 --output-format png --background transparent --prompt "keep the logo, remove the background" --json
openclaw infer image edit --file ./poster.png --prompt "make this a vertical story ad" --size 2160x3840 --aspect-ratio 9:16 --resolution 4K --json
openclaw infer image describe --file ./photo.jpg --json
openclaw infer image describe --file ./receipt.jpg --prompt "Extract the merchant, date, and total" --json
openclaw infer image describe-many --file ./before.png --file ./after.png --prompt "Compare the screenshots and list visible UI changes" --json
openclaw infer image describe --file ./ui-screenshot.png --model openai/gpt-4.1-mini --json
openclaw infer image describe --file ./photo.jpg --model ollama/qwen2.5vl:7b --prompt "Describe the image in one sentence" --timeout-ms 300000 --json
Notas:
-
Usa
image edital partir de archivos de entrada existentes. -
Usa
--size,--aspect-ratioo--resolutionconimage editpara proveedores/modelos que admiten indicaciones de geometría en ediciones de imágenes de referencia. -
Usa
--output-format png --background transparentcon--model openai/gpt-image-1.5para salida PNG de OpenAI con fondo transparente;--openai-backgroundsigue disponible como alias específico de OpenAI. Los proveedores que no declaran compatibilidad con fondos informan la indicación como una anulación ignorada. -
Usa
image providers --jsonpara verificar qué proveedores de imágenes incluidos son detectables, configurados, seleccionados y qué capacidades de generación/edición expone cada proveedor. -
Usa
image generate --model <provider/model> --jsoncomo la prueba de humo de CLI en vivo más acotada para cambios de generación de imágenes. Ejemplo:openclaw infer image providers --json openclaw infer image generate \ --model google/gemini-3.1-flash-image-preview \ --prompt "Minimal flat test image: one blue square on a white background, no text." \ --output ./openclaw-infer-image-smoke.png \ --jsonLa respuesta JSON informa
ok,provider,model,attemptsy las rutas de salida escritas. Cuando se define--output, la extensión final puede seguir el tipo MIME devuelto por el proveedor. -
Para
image describeeimage describe-many, usa--promptpara dar al modelo de visión una instrucción específica de la tarea, como OCR, comparación, inspección de UI o subtitulado conciso. -
Usa
--timeout-mscon modelos de visión locales lentos o arranques en frío de Ollama. -
Para
image describe,--modeldebe ser un<provider/model>compatible con imágenes. -
Para modelos de visión locales de Ollama, descarga primero el modelo y define
OLLAMA_API_KEYcon cualquier valor de marcador de posición, por ejemploollama-local. Consulta Ollama.
Audio
Usa audio para la transcripción de archivos.
openclaw infer audio transcribe --file ./memo.m4a --json
openclaw infer audio transcribe --file ./team-sync.m4a --language en --prompt "Focus on names and action items" --json
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Notas:
audio transcribees para transcripción de archivos, no para la gestión de sesiones en tiempo real.--modeldebe ser<provider/model>.
TTS
Usa tts para la síntesis de voz y el estado del proveedor de TTS.
openclaw infer tts convert --text "hello from openclaw" --output ./hello.mp3 --json
openclaw infer tts convert --text "Your build is complete" --output ./build-complete.mp3 --json
openclaw infer tts providers --json
openclaw infer tts status --json
Notas:
tts statususa gateway de forma predeterminada porque refleja el estado de TTS gestionado por el gateway.- Usa
tts providers,tts voicesytts set-providerpara inspeccionar y configurar el comportamiento de TTS.
Video
Usa video para generación y descripción.
openclaw infer video generate --prompt "cinematic sunset over the ocean" --json
openclaw infer video generate --prompt "slow drone shot over a forest lake" --resolution 768P --duration 6 --json
openclaw infer video describe --file ./clip.mp4 --json
openclaw infer video describe --file ./clip.mp4 --model openai/gpt-4.1-mini --json
Notas:
video generateacepta--size,--aspect-ratio,--resolution,--duration,--audio,--watermarky--timeout-ms, y los reenvía al runtime de generación de video.--modeldebe ser<provider/model>paravideo describe.
Web
Usa web para flujos de trabajo de búsqueda y obtención.
openclaw infer web search --query "OpenClaw docs" --json
openclaw infer web search --query "OpenClaw infer web providers" --json
openclaw infer web fetch --url https://docs.openclaw.ai/cli/infer --json
openclaw infer web providers --json
Notas:
- Usa
web providerspara inspeccionar los proveedores disponibles, configurados y seleccionados.
Incrustación
Usa embedding para la creación de vectores y la inspección del proveedor de incrustaciones.
openclaw infer embedding create --text "friendly lobster" --json
openclaw infer embedding create --text "customer support ticket: delayed shipment" --model openai/text-embedding-3-large --json
openclaw infer embedding providers --json
Salida JSON
Los comandos infer normalizan la salida JSON bajo un sobre compartido:
{
"ok": true,
"capability": "image.generate",
"transport": "local",
"provider": "openai",
"model": "gpt-image-2",
"attempts": [],
"outputs": []
}
Los campos de nivel superior son estables:
okcapabilitytransportprovidermodelattemptsoutputserror
Para comandos de medios generados, outputs contiene archivos escritos por OpenClaw. Usa
path, mimeType, size y cualquier dimensión específica del medio en ese arreglo
para la automatización en lugar de analizar stdout legible por humanos.
Errores comunes
# Bad
openclaw infer media image generate --prompt "friendly lobster"
# Good
openclaw infer image generate --prompt "friendly lobster"
# Bad
openclaw infer audio transcribe --file ./memo.m4a --model whisper-1 --json
# Good
openclaw infer audio transcribe --file ./memo.m4a --model openai/whisper-1 --json
Notas
openclaw capability ...es un alias deopenclaw infer ....