Nodes and media

媒體理解

OpenClaw 可以在回覆管線執行前,摘要傳入的媒體(圖片/音訊/影片)。它會在本機工具或提供者金鑰可用時自動偵測,也可以停用或自訂。如果理解功能關閉,模型仍會照常收到原始檔案/URL。

供應商特定的媒體行為由供應商 Plugin 註冊,而 OpenClaw 核心負責共用的 tools.media 設定、備援順序,以及回覆管線整合。

目標

  • 選用:將傳入媒體預先整理成簡短文字,以便更快路由並改善命令解析。
  • 保留原始媒體傳遞給模型(永遠)。
  • 支援提供者 APICLI 備援
  • 允許多個模型按順序備援(錯誤/大小/逾時)。

高階行為

  • Collect attachments

    收集傳入附件(MediaPathsMediaUrlsMediaTypes)。

  • Select per-capability

    對每個已啟用的能力(圖片/音訊/影片),依政策選取附件(預設:第一個)。

  • Choose model

    選擇第一個符合資格的模型項目(大小 + 能力 + 驗證)。

  • Fallback on failure

    如果模型失敗或媒體太大,備援到下一個項目

  • Apply success block

    成功時:

    • Body 會變成 [Image][Audio][Video] 區塊。
    • 音訊會設定 {{Transcript}};命令解析在有標題文字時使用標題文字,否則使用逐字稿。
    • 標題會以 User text: 的形式保留在區塊內。
  • 如果理解失敗或已停用,回覆流程會繼續使用原始正文 + 附件。

    設定概覽

    tools.media 支援共用模型以及按能力覆寫:

    Top-level keys
    • tools.media.models:共用模型清單(使用 capabilities 控制)。
    • tools.media.image / tools.media.audio / tools.media.video
      • 預設值(promptmaxCharsmaxBytestimeoutSecondslanguage
      • 提供者覆寫(baseUrlheadersproviderOptions
      • 透過 tools.media.audio.providerOptions.deepgram 設定 Deepgram 音訊選項
      • 音訊逐字稿回顯控制(echoTranscript,預設 falseechoFormat
      • 選用的按能力 models 清單(優先於共用模型)
      • attachments 政策(modemaxAttachmentsprefer
      • scope(可選,依頻道/chatType/session key 控制)
    • tools.media.concurrency:最大並行能力執行數(預設 2)。
    {
      tools: {
        media: {
          models: [
            /* shared list */
          ],
          image: {
            /* optional overrides */
          },
          audio: {
            /* optional overrides */
            echoTranscript: true,
            echoFormat: '📝 "{transcript}"',
          },
          video: {
            /* optional overrides */
          },
        },
      },
    }
    

    模型項目

    每個 models[] 項目都可以是提供者CLI

    Provider entry

    {
      type: "provider", // default if omitted
      provider: "openai",
      model: "gpt-5.5",
      prompt: "Describe the image in <= 500 chars.",
      maxChars: 500,
      maxBytes: 10485760,
      timeoutSeconds: 60,
      capabilities: ["image"], // optional, used for multi-modal entries
      profile: "vision-profile",
      preferredProfile: "vision-fallback",
    }
    

    CLI entry

    {
      type: "cli",
      command: "gemini",
      args: [
        "-m",
        "gemini-3-flash",
        "--allowed-tools",
        "read_file",
        "Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
      ],
      maxChars: 500,
      maxBytes: 52428800,
      timeoutSeconds: 120,
      capabilities: ["video", "image"],
    }
    

    CLI 範本也可以使用:

    • {{MediaDir}}(包含媒體檔案的目錄)
    • {{OutputDir}}(為此次執行建立的暫存目錄)
    • {{OutputBase}}(暫存檔基底路徑,不含副檔名)

    預設值與限制

    建議預設值:

    • maxChars:圖片/影片為 500(簡短、適合命令)
    • maxChars:音訊為未設定(完整逐字稿,除非你設定限制)
    • maxBytes
      • 圖片:10MB
      • 音訊:20MB
      • 影片:50MB
    Rules
    • 如果媒體超過 maxBytes,該模型會被略過,並嘗試下一個模型
    • 小於 1024 位元組的音訊檔會被視為空白/損毀,並在提供者/CLI 轉錄前略過;傳入回覆上下文會收到確定性的佔位逐字稿,讓代理知道該語音備註太小。
    • 如果模型回傳超過 maxChars,輸出會被裁切。
    • prompt 預設為簡單的「Describe the {media}.」加上 maxChars 指引(僅限圖片/影片)。
    • 如果目前主要圖片模型已原生支援視覺,OpenClaw 會略過 [Image] 摘要區塊,改為將原始圖片傳入模型。
    • 如果 Gateway/WebChat 主要模型僅支援文字,圖片附件會以卸載的 media://inbound/* 參照保留,讓圖片/PDF 工具或已設定的圖片模型仍可檢查它們,而不是遺失附件。
    • 明確的 openclaw infer image describe --model <provider/model> 請求不同:它們會直接執行該具備圖片能力的提供者/模型,包括 ollama/qwen2.5vl:7b 等 Ollama 參照。
    • 如果 <capability>.enabled: true 但未設定模型,當提供者支援該能力時,OpenClaw 會嘗試使用目前的回覆模型

    自動偵測媒體理解(預設)

    如果 tools.media.<capability>.enabled 設定為 false,且你尚未設定模型,OpenClaw 會依此順序自動偵測,並在第一個可用選項停止

  • Active reply model

    當目前回覆模型的提供者支援該能力時,使用目前回覆模型。

  • agents.defaults.imageModel

    agents.defaults.imageModel 主要/備援參照(僅圖片)。 偏好 provider/model 參照。裸參照只會在可設定的具圖片能力提供者模型項目中有唯一符合時,才從中補上提供者。

  • Local CLIs (audio only)

    本機 CLI(若已安裝):

    • sherpa-onnx-offline(需要 SHERPA_ONNX_MODEL_DIR,其中含有 encoder/decoder/joiner/tokens)
    • whisper-cliwhisper-cpp;使用 WHISPER_CPP_MODEL 或隨附的 tiny 模型)
    • whisper(Python CLI;自動下載模型)
  • Gemini CLI

    使用 read_many_filesgemini

  • Provider auth

    • 支援該能力的已設定 models.providers.* 項目會先於隨附的備援順序嘗試。
    • 僅圖片的設定提供者若有具圖片能力的模型,即使不是隨附的供應商 Plugin,也會自動註冊為媒體理解。
    • 明確選取時可使用 Ollama 圖片理解,例如透過 agents.defaults.imageModelopenclaw infer image describe --model ollama/<vision-model>

    隨附的備援順序:

    • 音訊:OpenAI → Groq → xAI → Deepgram → Google → SenseAudio → ElevenLabs → Mistral
    • 圖片:OpenAI → Anthropic → Google → MiniMax → MiniMax Portal → Z.AI
    • 影片:Google → Qwen → Moonshot
  • 若要停用自動偵測,請設定:

    {
      tools: {
        media: {
          audio: {
            enabled: false,
          },
        },
      },
    }
    

    代理環境支援(提供者模型)

    啟用提供者式音訊影片媒體理解時,OpenClaw 會在提供者 HTTP 呼叫中遵循標準外送代理環境變數:

    • HTTPS_PROXY
    • HTTP_PROXY
    • ALL_PROXY
    • https_proxy
    • http_proxy
    • all_proxy

    如果未設定代理環境變數,媒體理解會使用直接出口。如果代理值格式錯誤,OpenClaw 會記錄警告並退回直接擷取。

    能力(選用)

    如果你設定 capabilities,該項目只會針對那些媒體類型執行。對於共用清單,OpenClaw 可以推斷預設值:

    • openaianthropicminimax圖片
    • minimax-portal圖片
    • moonshot圖片 + 影片
    • openrouter圖片
    • google(Gemini API):圖片 + 音訊 + 影片
    • qwen圖片 + 影片
    • mistral音訊
    • zai圖片
    • groq音訊
    • xai音訊
    • deepgram音訊
    • 任何含有具圖片能力模型的 models.providers.<id>.models[] 目錄:圖片

    對於 CLI 項目,請明確設定 capabilities,以避免意外符合。如果省略 capabilities,該項目會符合它所在的清單。

    提供者支援矩陣(OpenClaw 整合)

    能力 提供者整合 備註
    圖片 OpenAI、OpenAI Codex OAuth、Codex app-server、OpenRouter、Anthropic、Google、MiniMax、Moonshot、Qwen、Z.AI、設定提供者 供應商 Plugin 會註冊圖片支援;openai-codex/* 使用 OAuth 提供者管線;codex/* 使用有界的 Codex app-server 回合;MiniMax 與 MiniMax OAuth 都使用 MiniMax-VL-01;具圖片能力的設定提供者會自動註冊。
    音訊 OpenAI、Groq、xAI、Deepgram、Google、SenseAudio、ElevenLabs、Mistral 提供者轉錄(Whisper/Groq/xAI/Deepgram/Gemini/SenseAudio/Scribe/Voxtral)。
    影片 Google、Qwen、Moonshot 透過供應商 Plugin 進行提供者影片理解;Qwen 影片理解使用 Standard DashScope 端點。

    模型選擇指引

    • 當品質與安全性重要時,偏好各媒體能力可用的最強最新世代模型。
    • 對於處理不受信任輸入的工具啟用代理,避免使用較舊/較弱的媒體模型。
    • 為每種能力保留至少一個備援以提高可用性(高品質模型 + 更快/更便宜的模型)。
    • 當提供者 API 無法使用時,CLI 備援(whisper-cliwhispergemini)很有用。
    • parakeet-mlx 備註:使用 --output-dir 時,若輸出格式為 txt(或未指定),OpenClaw 會讀取 <output-dir>/<media-basename>.txt;非 txt 格式會退回 stdout。

    附件政策

    按能力的 attachments 控制要處理哪些附件:

    mode"first" | "all"

    要處理第一個選取的附件,還是處理全部附件。

    maxAttachmentsnumber

    限制處理的數量。

    prefer"first" | "last" | "path" | "url"

    候選附件中的選取偏好。

    mode: "all" 時,輸出會標記為 [Image 1/2][Audio 2/2] 等。

    檔案附件擷取行為
    • 擷取出的檔案文字會先包裝為不受信任的外部內容,再附加到媒體提示詞。
    • 注入的區塊使用明確的邊界標記,例如 <<&lt;EXTERNAL_UNTRUSTED_CONTENT id=&quot;...&quot;&gt;>> / <<&lt;END_EXTERNAL_UNTRUSTED_CONTENT id=&quot;...&quot;&gt;>>,並包含 Source: External 中繼資料行。
    • 這個附件擷取路徑刻意省略較長的 SECURITY NOTICE: 橫幅,以避免讓媒體提示詞過度膨脹;邊界標記和中繼資料仍會保留。
    • 如果檔案沒有可擷取的文字,OpenClaw 會注入 [No extractable text]
    • 如果 PDF 在此路徑中退回使用算繪出的頁面影像,媒體提示詞會保留預留位置 [PDF content rendered to images; images not forwarded to model],因為此附件擷取步驟會轉送文字區塊,而不是算繪出的 PDF 影像。

    設定範例

    共用模型 + 覆寫

    {
      tools: {
        media: {
          models: [
            { provider: "openai", model: "gpt-5.5", capabilities: ["image"] },
            {
              provider: "google",
              model: "gemini-3-flash-preview",
              capabilities: ["image", "audio", "video"],
            },
            {
              type: "cli",
              command: "gemini",
              args: [
                "-m",
                "gemini-3-flash",
                "--allowed-tools",
                "read_file",
                "Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
              ],
              capabilities: ["image", "video"],
            },
          ],
          audio: {
            attachments: { mode: "all", maxAttachments: 2 },
          },
          video: {
            maxChars: 500,
          },
        },
      },
    }
    

    僅音訊 + 影片

    {
      tools: {
        media: {
          audio: {
            enabled: true,
            models: [
              { provider: "openai", model: "gpt-4o-mini-transcribe" },
              {
                type: "cli",
                command: "whisper",
                args: ["--model", "base", "{{MediaPath}}"],
              },
            ],
          },
          video: {
            enabled: true,
            maxChars: 500,
            models: [
              { provider: "google", model: "gemini-3-flash-preview" },
              {
                type: "cli",
                command: "gemini",
                args: [
                  "-m",
                  "gemini-3-flash",
                  "--allowed-tools",
                  "read_file",
                  "Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
                ],
              },
            ],
          },
        },
      },
    }
    

    僅影像

    {
      tools: {
        media: {
          image: {
            enabled: true,
            maxBytes: 10485760,
            maxChars: 500,
            models: [
              { provider: "openai", model: "gpt-5.5" },
              { provider: "anthropic", model: "claude-opus-4-6" },
              {
                type: "cli",
                command: "gemini",
                args: [
                  "-m",
                  "gemini-3-flash",
                  "--allowed-tools",
                  "read_file",
                  "Read the media at {{MediaPath}} and describe it in <= {{MaxChars}} characters.",
                ],
              },
            ],
          },
        },
      },
    }
    

    多模態單一項目

    {
      tools: {
        media: {
          image: {
            models: [
              {
                provider: "google",
                model: "gemini-3.1-pro-preview",
                capabilities: ["image", "video", "audio"],
              },
            ],
          },
          audio: {
            models: [
              {
                provider: "google",
                model: "gemini-3.1-pro-preview",
                capabilities: ["image", "video", "audio"],
              },
            ],
          },
          video: {
            models: [
              {
                provider: "google",
                model: "gemini-3.1-pro-preview",
                capabilities: ["image", "video", "audio"],
              },
            ],
          },
        },
      },
    }
    

    狀態輸出

    當媒體理解功能執行時,/status 會包含一行簡短摘要:

    📎 Media: image ok (openai/gpt-5.4) · audio skipped (maxBytes)
    

    這會顯示每項能力的結果,以及適用時所選的供應商/模型。

    注意事項

    • 理解功能採用盡力而為。錯誤不會阻擋回覆。
    • 即使理解功能已停用,附件仍會傳遞給模型。
    • 使用 scope 限制理解功能的執行位置(例如僅限私訊)。

    相關