Nodes and media
メディア理解
OpenClaw は、返信パイプラインが実行される前に受信メディアを要約(画像/音声/動画)できます。ローカルツールやプロバイダーキーが利用可能な場合は自動検出され、無効化やカスタマイズもできます。理解がオフの場合でも、モデルは通常どおり元のファイル/URL を受け取ります。
ベンダー固有のメディア動作はベンダー Plugin によって登録され、OpenClaw コアは共有の tools.media 設定、フォールバック順序、返信パイプライン統合を所有します。
目標
- 任意: 受信メディアを短いテキストに事前要約し、より高速なルーティングとより良いコマンド解析を行う。
- モデルへの元のメディア配信を保持する(常に)。
- プロバイダー API と CLI フォールバックをサポートする。
- 順序付きフォールバックを持つ複数モデルを許可する(エラー/サイズ/タイムアウト)。
高レベルの動作
添付ファイルを収集
受信添付ファイル(MediaPaths、MediaUrls、MediaTypes)を収集します。
機能ごとに選択
有効化された各機能(画像/音声/動画)について、ポリシーごとに添付ファイルを選択します(デフォルト: 最初)。
モデルを選択
最初の適格なモデルエントリ(サイズ + 機能 + 認証)を選択します。
失敗時にフォールバック
モデルが失敗するかメディアが大きすぎる場合は、次のエントリへフォールバックします。
成功ブロックを適用
成功時:
Bodyは[Image]、[Audio]、または[Video]ブロックになります。- 音声は
{{Transcript}}を設定します。キャプションテキストがある場合はコマンド解析でそれを使用し、ない場合は文字起こしを使用します。 - キャプションはブロック内の
User text:として保持されます。
理解に失敗した場合、または無効化されている場合、返信フローは続行され、元の本文 + 添付ファイルが使われます。
設定概要
tools.media は共有モデルに加えて、機能ごとの上書きをサポートします。
トップレベルキー
tools.media.models: 共有モデルリスト(ゲートにはcapabilitiesを使用)。tools.media.image/tools.media.audio/tools.media.video:- デフォルト(
prompt、maxChars、maxBytes、timeoutSeconds、language) - プロバイダー上書き(
baseUrl、headers、providerOptions) tools.media.audio.providerOptions.deepgram経由の Deepgram 音声オプション- 音声文字起こしのエコー制御(
echoTranscript、デフォルトfalse;echoFormat) - 任意の機能ごとの
modelsリスト(共有モデルより優先) attachmentsポリシー(mode、maxAttachments、prefer)scope(チャネル/chatType/セッションキーによる任意のゲート)
- デフォルト(
tools.media.concurrency: 最大同時機能実行数(デフォルト 2)。
{
tools: {
media: {
models: [
/* shared list */
],
image: {
/* optional overrides */
},
audio: {
/* optional overrides */
echoTranscript: true,
echoFormat: '📝 "{transcript}"',
},
video: {
/* optional overrides */
},
},
},
}
モデルエントリ
各 models[] エントリはプロバイダーまたは CLI にできます。
プロバイダーエントリ
{
type: "provider", // default if omitted
provider: "openai",
model: "gpt-5.5",
prompt: "Describe the image in <= 500 chars.",
maxChars: 500,
maxBytes: 10485760,
timeoutSeconds: 60,
capabilities: ["image"], // optional, used for multi-modal entries
profile: "vision-profile",
preferredProfile: "vision-fallback",
}
CLI エントリ
{
type: "cli",
command: "gemini",
args: [
"-m",
"gemini-3-flash",
"--allowed-tools",
"read_file",
"Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
],
maxChars: 500,
maxBytes: 52428800,
timeoutSeconds: 120,
capabilities: ["video", "image"],
}
CLI テンプレートでは以下も使用できます。
{{MediaDir}}(メディアファイルを含むディレクトリ){{OutputDir}}(この実行用に作成されるスクラッチディレクトリ){{OutputBase}}(拡張子なしのスクラッチファイルベースパス)
デフォルトと制限
推奨デフォルト:
maxChars: 画像/動画は 500(短く、コマンド向け)maxChars: 音声は未設定(制限を設定しない限り全文文字起こし)maxBytes:- 画像: 10MB
- 音声: 20MB
- 動画: 50MB
ルール
- メディアが
maxBytesを超える場合、そのモデルはスキップされ、次のモデルが試行されます。 - 1024 バイト未満の音声ファイルは空または破損として扱われ、プロバイダー/CLI 文字起こしの前にスキップされます。受信返信コンテキストは決定論的なプレースホルダー文字起こしを受け取り、エージェントがその音声メモが小さすぎたことを把握できるようにします。
- モデルが
maxCharsを超えて返した場合、出力は切り詰められます。 promptのデフォルトは単純な "Describe the {media}." にmaxCharsのガイダンスを加えたものです(画像/動画のみ)。- アクティブなプライマリ画像モデルがすでにネイティブにビジョンをサポートしている場合、OpenClaw は
[Image]要約ブロックをスキップし、代わりに元の画像をモデルへ渡します。 - Gateway/WebChat のプライマリモデルがテキスト専用の場合、画像添付ファイルはオフロードされた
media://inbound/*参照として保持されるため、添付ファイルを失う代わりに画像/PDF ツールや設定済み画像モデルが検査できます。 - 明示的な
openclaw infer image describe --model <provider/model>リクエストは別です。ollama/qwen2.5vl:7bなどの Ollama 参照を含め、その画像対応プロバイダー/モデルを直接実行します。 <capability>.enabled: trueだがモデルが設定されていない場合、そのプロバイダーが機能をサポートしていれば、OpenClaw はアクティブな返信モデルを試します。
メディア理解の自動検出(デフォルト)
tools.media.<capability>.enabled が false に設定されておらず、モデルを設定していない場合、OpenClaw は次の順序で自動検出し、最初に動作するオプションで停止します。
アクティブな返信モデル
そのプロバイダーが機能をサポートしている場合のアクティブな返信モデル。
agents.defaults.imageModel
agents.defaults.imageModel のプライマリ/フォールバック参照(画像のみ)。
provider/model 参照を優先します。ベア参照は、一致が一意の場合にのみ、設定済みの画像対応プロバイダーモデルエントリから修飾されます。
ローカル CLI(音声のみ)
ローカル CLI(インストールされている場合):
sherpa-onnx-offline(encoder/decoder/joiner/tokens を含むSHERPA_ONNX_MODEL_DIRが必要)whisper-cli(whisper-cpp;WHISPER_CPP_MODELまたは同梱の tiny モデルを使用)whisper(Python CLI; モデルを自動的にダウンロード)
Gemini CLI
read_many_files を使用する gemini。
プロバイダー認証
- この機能をサポートする設定済みの
models.providers.*エントリは、同梱フォールバック順序より前に試行されます。 - 画像対応モデルを持つ画像専用設定プロバイダーは、同梱ベンダー Plugin でない場合でも、メディア理解用に自動登録されます。
- Ollama の画像理解は、たとえば
agents.defaults.imageModelやopenclaw infer image describe --model ollama/<vision-model>経由で明示的に選択した場合に利用できます。
同梱フォールバック順序:
- 音声: OpenAI → Groq → xAI → Deepgram → Google → SenseAudio → ElevenLabs → Mistral
- 画像: OpenAI → Anthropic → Google → MiniMax → MiniMax Portal → Z.AI
- 動画: Google → Qwen → Moonshot
自動検出を無効化するには、次を設定します。
{
tools: {
media: {
audio: {
enabled: false,
},
},
},
}
プロキシ環境サポート(プロバイダーモデル)
プロバイダーベースの音声および動画メディア理解が有効な場合、OpenClaw はプロバイダー HTTP 呼び出しについて標準の送信プロキシ環境変数を尊重します。
HTTPS_PROXYHTTP_PROXYALL_PROXYhttps_proxyhttp_proxyall_proxy
プロキシ環境変数が設定されていない場合、メディア理解は直接送信を使用します。プロキシ値の形式が不正な場合、OpenClaw は警告をログに記録し、直接取得へフォールバックします。
機能(任意)
capabilities を設定した場合、エントリはそのメディア種別に対してのみ実行されます。共有リストでは、OpenClaw はデフォルトを推測できます。
openai、anthropic、minimax: 画像minimax-portal: 画像moonshot: 画像 + 動画openrouter: 画像google(Gemini API): 画像 + 音声 + 動画qwen: 画像 + 動画mistral: 音声zai: 画像groq: 音声xai: 音声deepgram: 音声- 画像対応モデルを含む任意の
models.providers.<id>.models[]カタログ: 画像
CLI エントリでは、予期しない一致を避けるために capabilities を明示的に設定してください。capabilities を省略した場合、エントリはそれが現れるリストに対して適格になります。
プロバイダーサポート表(OpenClaw 統合)
| 機能 | プロバイダー統合 | 注記 |
|---|---|---|
| 画像 | OpenAI, OpenAI Codex OAuth, Codex app-server, OpenRouter, Anthropic, Google, MiniMax, Moonshot, Qwen, Z.AI, config providers | ベンダー Plugin が画像サポートを登録します。openai-codex/* は OAuth プロバイダー配管を使用します。codex/* は制限付きの Codex app-server ターンを使用します。MiniMax と MiniMax OAuth はどちらも MiniMax-VL-01 を使用します。画像対応設定プロバイダーは自動登録されます。 |
| 音声 | OpenAI, Groq, xAI, Deepgram, Google, SenseAudio, ElevenLabs, Mistral | プロバイダー文字起こし(Whisper/Groq/xAI/Deepgram/Gemini/SenseAudio/Scribe/Voxtral)。 |
| 動画 | Google, Qwen, Moonshot | ベンダー Plugin 経由のプロバイダー動画理解。Qwen の動画理解は Standard DashScope エンドポイントを使用します。 |
モデル選択ガイダンス
- 品質と安全性が重要な場合は、各メディア機能で利用可能な最新世代の最も強力なモデルを優先してください。
- 信頼できない入力を扱うツール有効エージェントでは、古い/弱いメディアモデルを避けてください。
- 可用性のため、機能ごとに少なくとも 1 つのフォールバックを維持してください(高品質モデル + より高速/低コストなモデル)。
- CLI フォールバック(
whisper-cli、whisper、gemini)は、プロバイダー API が利用できない場合に有用です。 parakeet-mlx注記:--output-dirを指定すると、出力形式がtxt(または未指定)の場合、OpenClaw は<output-dir>/<media-basename>.txtを読み取ります。txt以外の形式は stdout にフォールバックします。
添付ファイルポリシー
機能ごとの attachments は、どの添付ファイルが処理されるかを制御します。
mode"first" | "all"最初に選択された添付ファイルだけを処理するか、すべてを処理するか。
maxAttachmentsnumber処理する数に上限を設けます。
prefer"first" | "last" | "path" | "url"候補の添付ファイルの中での選択優先度。
mode: "all" の場合、出力には [Image 1/2]、[Audio 2/2] などのラベルが付きます。
File-attachment extraction behavior
- 抽出されたファイルのテキストは、メディアプロンプトに追加される前に 信頼されない外部コンテンツ としてラップされます。
- 注入されるブロックは
<<<EXTERNAL_UNTRUSTED_CONTENT id="...">>>/<<<END_EXTERNAL_UNTRUSTED_CONTENT id="...">>>のような明示的な境界マーカーを使用し、Source: Externalメタデータ行を含みます。 - この添付ファイル抽出パスでは、メディアプロンプトの肥大化を避けるため、長い
SECURITY NOTICE:バナーを意図的に省略します。境界マーカーとメタデータは引き続き残ります。 - ファイルに抽出可能なテキストがない場合、OpenClaw は
[No extractable text]を注入します。 - このパスで PDF がレンダリング済みページ画像にフォールバックする場合、添付ファイル抽出ステップはレンダリング済み PDF 画像ではなくテキストブロックを転送するため、メディアプロンプトにはプレースホルダー
[PDF content rendered to images; images not forwarded to model]が保持されます。
設定例
Shared models + overrides
{
tools: {
media: {
models: [
{ provider: "openai", model: "gpt-5.5", capabilities: ["image"] },
{
provider: "google",
model: "gemini-3-flash-preview",
capabilities: ["image", "audio", "video"],
},
{
type: "cli",
command: "gemini",
args: [
"-m",
"gemini-3-flash",
"--allowed-tools",
"read_file",
"Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
],
capabilities: ["image", "video"],
},
],
audio: {
attachments: { mode: "all", maxAttachments: 2 },
},
video: {
maxChars: 500,
},
},
},
}
Audio + video only
{
tools: {
media: {
audio: {
enabled: true,
models: [
{ provider: "openai", model: "gpt-4o-mini-transcribe" },
{
type: "cli",
command: "whisper",
args: ["--model", "base", "{{MediaPath}}"],
},
],
},
video: {
enabled: true,
maxChars: 500,
models: [
{ provider: "google", model: "gemini-3-flash-preview" },
{
type: "cli",
command: "gemini",
args: [
"-m",
"gemini-3-flash",
"--allowed-tools",
"read_file",
"Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
],
},
],
},
},
},
}
Image-only
{
tools: {
media: {
image: {
enabled: true,
maxBytes: 10485760,
maxChars: 500,
models: [
{ provider: "openai", model: "gpt-5.5" },
{ provider: "anthropic", model: "claude-opus-4-6" },
{
type: "cli",
command: "gemini",
args: [
"-m",
"gemini-3-flash",
"--allowed-tools",
"read_file",
"Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
],
},
],
},
},
},
}
Multi-modal single entry
{
tools: {
media: {
image: {
models: [
{
provider: "google",
model: "gemini-3.1-pro-preview",
capabilities: ["image", "video", "audio"],
},
],
},
audio: {
models: [
{
provider: "google",
model: "gemini-3.1-pro-preview",
capabilities: ["image", "video", "audio"],
},
],
},
video: {
models: [
{
provider: "google",
model: "gemini-3.1-pro-preview",
capabilities: ["image", "video", "audio"],
},
],
},
},
},
}
ステータス出力
メディア理解が実行されると、/status には短い要約行が含まれます。
📎 Media: image ok (openai/gpt-5.4) · audio skipped (maxBytes)
これは機能ごとの結果と、該当する場合は選択されたプロバイダー/モデルを示します。
注記
- 理解は ベストエフォート です。エラーが返信をブロックすることはありません。
- 理解が無効になっている場合でも、添付ファイルは引き続きモデルに渡されます。
- 理解を実行する場所を制限するには
scopeを使用します(例: DM のみ)。