快速开始

视频生成

OpenClaw 智能体可以根据文本提示、参考图像或现有视频生成视频。支持十六个提供商后端,每个后端都有不同的模型选项、输入模式和功能集。智能体会根据你的配置和可用 API key 自动选择合适的提供商。

OpenClaw 将视频生成视为三种运行时模式:

  • generate - 没有参考媒体的文本转视频请求。
  • imageToVideo - 请求包含一个或多个参考图像。
  • videoToVideo - 请求包含一个或多个参考视频。

提供商可以支持这些模式的任意子集。该工具会在提交前验证当前模式,并在 action=list 中报告支持的模式。

快速开始

  • 配置认证

    为任何受支持的提供商设置 API key:

    export GEMINI_API_KEY="your-key"
    
  • 选择默认模型(可选)

    openclaw config set agents.defaults.videoGenerationModel.primary "google/veo-3.1-fast-generate-preview"
    
  • 询问智能体

    生成一段 5 秒钟的电影感视频,内容是一只友好的龙虾在日落时冲浪。

    智能体会自动调用 video_generate。不需要配置工具白名单。

  • 异步生成的工作方式

    视频生成是异步的。当智能体在会话中调用 video_generate 时:

    1. OpenClaw 将请求提交给提供商,并立即返回一个任务 ID。
    2. 提供商在后台处理作业(通常为 30 秒到几分钟,取决于提供商和分辨率;较慢的队列型提供商可能会一直运行到配置的超时时间)。
    3. 视频准备就绪后,OpenClaw 会用内部完成事件唤醒同一个会话。
    4. 智能体告知用户并附上完成的视频。在使用仅消息工具可见投递的群组/渠道聊天中,智能体会通过消息工具转发结果,而不是由 OpenClaw 直接发布。

    当作业正在进行时,同一会话中的重复 video_generate 调用会返回当前任务状态,而不是启动另一次生成。使用 openclaw tasks listopenclaw tasks show <taskId> 可从 CLI 查看进度。

    在没有会话支持的智能体运行之外(例如直接调用工具),该工具会回退到内联生成,并在同一轮次中返回最终媒体路径。

    当提供商返回字节内容时,生成的视频文件会保存到 OpenClaw 管理的媒体存储下。默认生成视频保存上限遵循视频媒体限制,agents.defaults.mediaMaxMb 可为更大的渲染结果提高上限。当提供商同时返回托管输出 URL 时,如果本地持久化因文件过大而拒绝,OpenClaw 可以投递该 URL,而不是让任务失败。

    任务生命周期

    状态 含义
    queued 任务已创建,正在等待提供商接受。
    running 提供商正在处理(通常为 30 秒到几分钟,取决于提供商和分辨率)。
    succeeded 视频已准备就绪;智能体会醒来并将其发布到对话中。
    failed 提供商错误或超时;智能体会带着错误详情醒来。

    从 CLI 查看状态:

    openclaw tasks list
    openclaw tasks show <taskId>
    openclaw tasks cancel <taskId>
    

    如果当前会话已有一个视频任务处于 queuedrunning 状态,video_generate 会返回现有任务状态,而不是启动新的任务。使用 action: "status" 可以显式检查状态,且不会触发新的生成。

    支持的提供商

    提供商 默认模型 文本 图像引用 视频引用 认证
    Alibaba wan2.6-t2v 是(远程 URL) 是(远程 URL) MODELSTUDIO_API_KEY
    BytePlus (1.0) seedance-1-0-pro-250528 最多 2 张图像(仅 I2V 模型;首帧 + 尾帧) - BYTEPLUS_API_KEY
    BytePlus Seedance 1.5 seedance-1-5-pro-251215 最多 2 张图像(通过角色指定首帧 + 尾帧) - BYTEPLUS_API_KEY
    BytePlus Seedance 2.0 dreamina-seedance-2-0-260128 最多 9 张参考图像 最多 3 个视频 BYTEPLUS_API_KEY
    ComfyUI workflow 1 张图像 - COMFY_API_KEYCOMFY_CLOUD_API_KEY
    DeepInfra Pixverse/Pixverse-T2V - - DEEPINFRA_API_KEY
    fal fal-ai/minimax/video-01-live 1 张图像;使用 Seedance 参考转视频时最多 9 张 使用 Seedance 参考转视频时最多 3 个视频 FAL_KEY
    Google veo-3.1-fast-generate-preview 1 张图像 1 个视频 GEMINI_API_KEY
    MiniMax MiniMax-Hailuo-2.3 1 张图像 - MINIMAX_API_KEY 或 MiniMax OAuth
    OpenAI sora-2 1 张图像 1 个视频 OPENAI_API_KEY
    OpenRouter google/veo-3.1-fast 最多 4 张图像(首帧/尾帧或参考) - OPENROUTER_API_KEY
    Qwen wan2.6-t2v 是(远程 URL) 是(远程 URL) QWEN_API_KEY
    Runway gen4.5 1 张图像 1 个视频 RUNWAYML_API_SECRET
    Together Wan-AI/Wan2.2-T2V-A14B 1 张图像 - TOGETHER_API_KEY
    Vydra veo3 1 张图像(kling - VYDRA_API_KEY
    xAI grok-imagine-video 1 张首帧图像或最多 7 个 reference_image 1 个视频 XAI_API_KEY

    一些提供商接受额外或替代的 API key 环境变量。详情请参阅各个提供商页面

    运行 video_generate action=list 可在运行时查看可用提供商、模型和运行时模式。

    能力矩阵

    video_generate、契约测试和共享实时扫描使用的显式模式契约:

    提供商 generate imageToVideo videoToVideo 当前共享实时通道
    Alibaba generateimageToVideo;跳过 videoToVideo,因为此提供商需要远程 http(s) 视频 URL
    BytePlus - generateimageToVideo
    ComfyUI - 不在共享扫描中;工作流特定覆盖由 Comfy 测试负责
    DeepInfra - - generate;内置契约中的原生 DeepInfra 视频架构是文本转视频
    fal generateimageToVideo;仅在使用 Seedance 参考转视频时支持 videoToVideo
    Google generateimageToVideo;跳过共享 videoToVideo,因为当前基于缓冲区的 Gemini/Veo 扫描不接受该输入
    MiniMax - generateimageToVideo
    OpenAI generateimageToVideo;跳过共享 videoToVideo,因为此组织/输入路径当前需要提供商侧的内补/混剪访问权限
    OpenRouter - generateimageToVideo
    Qwen generateimageToVideo;跳过 videoToVideo,因为此提供商需要远程 http(s) 视频 URL
    Runway generateimageToVideo;仅当所选模型为 runway/gen4_aleph 时运行 videoToVideo
    Together - generateimageToVideo
    Vydra - generate;跳过共享 imageToVideo,因为内置 veo3 仅支持文本,且内置 kling 需要远程图像 URL
    xAI generateimageToVideo;跳过 videoToVideo,因为此提供商当前需要远程 MP4 URL

    工具参数

    必填

    promptstringrequired

    要生成的视频的文本描述。action: "generate" 必填。

    内容输入

    imagestring
    imagesstring[]
    imageRolesstring[]

    与合并后的图像列表平行的可选按位置角色提示。 规范值:first_framelast_framereference_image

    videostring
    videosstring[]
    videoRolesstring[]

    与合并后的视频列表平行的可选按位置角色提示。 规范值:reference_video

    audioRefstring

    单个参考音频(路径或 URL)。当提供商支持音频输入时,用于背景音乐或语音 参考。

    audioRefsstring[]
    audioRolesstring[]

    与合并后的音频列表平行的可选按位置角色提示。 规范值:reference_audio

    风格控制

    aspectRatiostring

    宽高比提示,例如 1:116:99:16adaptive,或提供商特定值。OpenClaw 会按提供商对不支持的值进行规范化或忽略。

    OPENCLAW_DOCS_MARKER:paramOpen:IHBhdGg9InJlc29sdXRpb24iIHR5cGU9InN0cmluZyI 分辨率提示,例如 480P720P768P1080P4K,或提供商特定值。OpenClaw 会按提供商对不支持的值进行规范化或忽略。 OPENCLAW_DOCS_MARKER:paramClose:

    durationSecondsnumber

    目标时长,以秒为单位(四舍五入到最接近的提供商支持值)。

    sizestring
    audioboolean

    在支持时启用输出中的生成音频。不同于 audioRef*(输入)。

    watermarkboolean

    adaptive 是一个提供商特定哨兵值:它会原样转发给 在能力中声明 adaptive 的提供商(例如 BytePlus Seedance 使用它根据输入图像 尺寸自动检测比例)。未声明该值的提供商会在工具结果中的 details.ignoredOverrides 暴露该值,让丢弃行为可见。

    高级

    action"generate" | "status" | "list"

    "status" 返回当前会话任务;"list" 检查提供商。

    OPENCLAW_DOCS_MARKER:paramOpen:IHBhdGg9Im1vZGVsIiB0eXBlPSJzdHJpbmci 提供商/模型覆盖(例如 runway/gen4.5)。 OPENCLAW_DOCS_MARKER:paramClose:

    filenamestring
    timeoutMsnumber
    providerOptionsobject

    以 JSON 对象形式提供的提供商特定选项(例如 {"seed": 42, "draft": true})。 声明了类型化 schema 的提供商会验证键和类型;未知 键或不匹配会在回退期间跳过候选项。未 声明 schema 的提供商会原样接收这些选项。运行 video_generate action=list 可查看每个提供商接受的内容。

    参考输入会选择运行时模式:

    • 无参考媒体 → generate
    • 任意图像参考 → imageToVideo
    • 任意视频参考 → videoToVideo
    • 参考音频输入不会改变解析后的模式;它们会应用在 图像/视频参考所选择的任意模式之上,并且只适用于 声明了 maxInputAudios 的提供商。

    混合图像和视频参考并不是稳定的共享能力面。 建议每个请求只使用一种参考类型。

    回退和类型化选项

    有些能力检查会在回退层而不是 工具边界应用,因此超出主提供商限制的请求 仍可在有能力的回退上运行:

    • 当请求包含音频参考时,声明无 maxInputAudios(或为 0)的活动候选项会被跳过; 然后尝试下一个候选项。
    • 活动候选项的 maxDurationSeconds 低于请求的 durationSeconds 且未声明 supportedDurationSeconds 列表 → 跳过。
    • 请求包含 providerOptions,且活动候选项明确 声明了类型化 providerOptions schema → 如果提供的键 不在 schema 中或值类型不匹配,则跳过。未 声明 schema 的提供商会原样接收选项(向后兼容的 透传)。提供商可以通过 声明空 schema(capabilities.providerOptions: {})选择退出所有提供商选项,这 会导致与类型不匹配相同的跳过。

    请求中的第一个跳过原因会以 warn 记录,以便操作员看到 主提供商何时被跳过;后续跳过会以 debug 记录,以 保持长回退链安静。如果每个候选项都被跳过, 聚合错误会包含每个候选项的跳过原因。

    操作

    操作 作用
    generate 默认值。根据给定提示词和可选参考输入创建视频。
    status 检查当前会话中正在进行的视频任务状态,不启动另一次生成。
    list 显示可用提供商、模型及其能力。

    模型选择

    OpenClaw 按以下顺序解析模型:

    1. model 工具参数 - 如果智能体在调用中指定了它。
    2. 配置中的 videoGenerationModel.primary
    3. 按顺序使用 videoGenerationModel.fallbacks
    4. 自动检测 - 具有有效凭证的提供商,从 当前默认提供商开始,然后按字母 顺序使用其余提供商。

    如果提供商失败,会自动尝试下一个候选项。如果所有 候选项都失败,错误会包含每次尝试的详情。

    设置 agents.defaults.mediaGenerationAutoProviderFallback: false 可只使用 显式的 modelprimaryfallbacks 条目。

    {
      agents: {
        defaults: {
          videoGenerationModel: {
            primary: "google/veo-3.1-fast-generate-preview",
            fallbacks: ["runway/gen4.5", "qwen/wan2.6-t2v"],
          },
        },
      },
    }
    

    提供商说明

    Alibaba

    使用 DashScope / Model Studio 异步端点。参考图像和 视频必须是远程 http(s) URL。

    BytePlus (1.0)

    提供商 ID:byteplus

    模型:seedance-1-0-pro-250528(默认值)、 seedance-1-0-pro-t2v-250528seedance-1-0-pro-fast-251015seedance-1-0-lite-t2v-250428seedance-1-0-lite-i2v-250428

    T2V 模型(*-t2v-*)不接受图像输入;I2V 模型和 通用 *-pro-* 模型支持单个参考图像(第一 帧)。按位置传入图像,或设置 role: "first_frame"。 提供图像时,T2V 模型 ID 会自动切换到对应的 I2V 变体。

    支持的 providerOptions 键:seed(数字)、draft(布尔值 - 强制 480p)、camera_fixed(布尔值)。

    BytePlus Seedance 1.5

    需要 @openclaw/byteplus-modelark 插件。提供商 ID:byteplus-seedance15。模型: seedance-1-5-pro-251215

    使用统一的 content[] API。最多支持 2 张输入图像 (first_frame + last_frame)。所有输入都必须是远程 https:// URL。在每张图像上设置 role: "first_frame" / "last_frame",或 按位置传入图像。

    aspectRatio: "adaptive" 会根据输入图像自动检测比例。 audio: true 映射到 generate_audioproviderOptions.seed (数字)会被转发。

    BytePlus Seedance 2.0

    需要 @openclaw/byteplus-modelark 插件。提供商 ID:byteplus-seedance2。模型: dreamina-seedance-2-0-260128dreamina-seedance-2-0-fast-260128

    使用统一的 content[] API。最多支持 9 张参考图像、 3 个参考视频和 3 个参考音频。所有输入都必须是远程 https:// URL。在每个资产上设置 role - 支持的值: "first_frame""last_frame""reference_image""reference_video""reference_audio"

    aspectRatio: "adaptive" 会根据输入图像自动检测比例。 audio: true 映射到 generate_audioproviderOptions.seed (数字)会被转发。

    ComfyUI

    工作流驱动的本地或云端执行。通过配置的图支持文本转视频和 图像转视频。

    fal

    对长时间运行的作业使用队列支持的流程。默认情况下,OpenClaw 最多等待 20 分钟,之后会将仍在进行中的 fal 队列作业视为超时。大多数 fal 视频模型 接受单个图像引用。Seedance 2.0 引用转视频 模型最多接受 9 个图像、3 个视频和 3 个音频引用, 总引用文件数最多为 12 个。

    Google (Gemini / Veo)

    支持一个图像或一个视频引用。生成音频请求会 在 Gemini API 路径上被忽略并给出警告,因为该 API 会拒绝 当前 Veo 视频生成中的 generateAudio 参数。

    MiniMax

    仅支持单个图像引用。MiniMax 接受 768P1080P 分辨率;诸如 720P 之类的请求会在提交前规范化为最接近的 受支持值。

    OpenAI

    仅转发 size 覆盖项。其他样式覆盖项 (aspectRatioresolutionaudiowatermark)会被忽略并 给出警告。

    OpenRouter

    使用 OpenRouter 的异步 /videos API。OpenClaw 提交 作业,轮询 polling_url,并下载 unsigned_urls 或 文档中说明的作业内容端点。内置的 google/veo-3.1-fast 默认值 声明支持 4/6/8 秒时长、720P/1080P 分辨率,以及 16:9/9:16 宽高比。

    Qwen

    使用与 Alibaba 相同的 DashScope 后端。引用输入必须是远程 http(s) URL;本地文件会被预先拒绝。

    Runway

    通过数据 URI 支持本地文件。视频转视频需要 runway/gen4_aleph。仅文本运行会暴露 16:99:16 宽高 比。

    Together

    仅支持单个图像引用。

    Vydra

    直接使用 https://www.vydra.ai/api/v1 以避免会丢弃认证信息的 重定向。veo3 内置为仅文本转视频;kling 需要 远程图像 URL。

    xAI

    支持文本转视频、单个首帧图像转视频、通过 xAI reference_images 最多传入 7 个 reference_image 输入,以及远程 视频编辑/扩展流程。

    提供商能力模式

    共享的视频生成合约支持特定模式的能力, 而不是只支持扁平的聚合限制。新的提供商实现 应优先使用显式模式块:

    capabilities: {
      generate: {
        maxVideos: 1,
        maxDurationSeconds: 10,
        supportsResolution: true,
      },
      imageToVideo: {
        enabled: true,
        maxVideos: 1,
        maxInputImages: 1,
        maxInputImagesByModel: { "provider/reference-to-video": 9 },
        maxDurationSeconds: 5,
      },
      videoToVideo: {
        enabled: true,
        maxVideos: 1,
        maxInputVideos: 1,
        maxDurationSeconds: 5,
      },
    }
    

    诸如 maxInputImagesmaxInputVideos 的扁平聚合字段 不足以声明支持转换模式。提供商应 显式声明 generateimageToVideovideoToVideo,以便实时 测试、合约测试和共享的 video_generate 工具可以确定性地验证 模式支持。

    当提供商中的某个模型拥有比其余模型更宽泛的引用输入支持时, 请使用 maxInputImagesByModelmaxInputVideosByModelmaxInputAudiosByModel,而不是提高整个模式的限制。

    实时测试

    共享内置提供商的可选实时覆盖:

    OPENCLAW_LIVE_TEST=1 pnpm test:live -- extensions/video-generation-providers.live.test.ts
    

    仓库包装器:

    pnpm test:live:media video
    

    此实时文件会从 ~/.profile 加载缺失的提供商环境变量, 默认优先使用实时/环境 API key,而不是已存储的认证配置文件,并且默认运行一个 适合发布的冒烟测试:

    • 对扫描中的每个非 FAL 提供商运行 generate
    • 一秒钟的龙虾提示词。
    • 每个提供商的操作上限来自 OPENCLAW_LIVE_VIDEO_GENERATION_TIMEOUT_MS(默认 180000)。

    FAL 是可选项,因为提供商侧队列延迟可能主导发布时间:

    pnpm test:live:media video --video-providers fal
    

    设置 OPENCLAW_LIVE_VIDEO_GENERATION_FULL_MODES=1,还会运行声明的 转换模式,这些模式可由共享扫描使用本地媒体安全执行:

    • capabilities.imageToVideo.enabled 时运行 imageToVideo
    • capabilities.videoToVideo.enabled 且 提供商/模型在共享扫描中接受缓冲区支持的本地视频输入时运行 videoToVideo

    目前,只有在选择 runway/gen4_aleph 时,共享的 videoToVideo 实时通道才覆盖 runway

    配置

    在你的 OpenClaw 配置中设置默认视频生成模型:

    {
      agents: {
        defaults: {
          videoGenerationModel: {
            primary: "qwen/wan2.6-t2v",
            fallbacks: ["qwen/wan2.6-r2v-flash"],
          },
        },
      },
    }
    

    或通过 CLI:

    openclaw config set agents.defaults.videoGenerationModel.primary "qwen/wan2.6-t2v"
    

    相关内容