Tools

Generazione di video

Gli agenti OpenClaw possono generare video da prompt testuali, immagini di riferimento o video esistenti. Sono supportati sedici backend di provider, ciascuno con opzioni di modello, modalità di input e set di funzionalità differenti. L'agente sceglie automaticamente il provider corretto in base alla tua configurazione e alle API key disponibili.

OpenClaw tratta la generazione video come tre modalità runtime:

  • generate - richieste text-to-video senza media di riferimento.
  • imageToVideo - la richiesta include una o più immagini di riferimento.
  • videoToVideo - la richiesta include uno o più video di riferimento.

I provider possono supportare qualsiasi sottoinsieme di queste modalità. Lo strumento valida la modalità attiva prima dell'invio e segnala le modalità supportate in action=list.

Avvio rapido

  • Configura l'autenticazione

    Imposta una API key per qualsiasi provider supportato:

    export GEMINI_API_KEY="your-key"
    
  • Scegli un modello predefinito (opzionale)

    openclaw config set agents.defaults.videoGenerationModel.primary "google/veo-3.1-fast-generate-preview"
    
  • Chiedi all'agente

    Genera un video cinematografico di 5 secondi di un'aragosta amichevole che fa surf al tramonto.

    L'agente chiama automaticamente video_generate. Non è necessario consentire esplicitamente lo strumento.

  • Come funziona la generazione asincrona

    La generazione video è asincrona. Quando l'agente chiama video_generate in una sessione:

    1. OpenClaw invia la richiesta al provider e restituisce immediatamente un ID attività.
    2. Il provider elabora il job in background (in genere da 30 secondi a diversi minuti, a seconda del provider e della risoluzione; i provider lenti basati su coda possono arrivare fino al timeout configurato).
    3. Quando il video è pronto, OpenClaw riattiva la stessa sessione con un evento interno di completamento.
    4. L'agente informa l'utente e allega il video completato. Nelle chat di gruppo/canale che usano la consegna visibile solo tramite strumento messaggi, l'agente inoltra il risultato tramite lo strumento messaggi invece di farlo pubblicare direttamente da OpenClaw.

    Mentre un job è in corso, chiamate duplicate a video_generate nella stessa sessione restituiscono lo stato dell'attività corrente invece di avviare un'altra generazione. Usa openclaw tasks list o openclaw tasks show <taskId> per controllare l'avanzamento dalla CLI.

    Al di fuori delle esecuzioni agente basate su sessione (ad esempio, invocazioni dirette dello strumento), lo strumento ripiega sulla generazione inline e restituisce il percorso del media finale nello stesso turno.

    I file video generati vengono salvati nello storage multimediale gestito da OpenClaw quando il provider restituisce byte. Il limite predefinito di salvataggio dei video generati segue il limite dei media video, e agents.defaults.mediaMaxMb lo aumenta per render più grandi. Quando un provider restituisce anche un URL di output ospitato, OpenClaw può consegnare quell'URL invece di far fallire l'attività se la persistenza locale rifiuta un file troppo grande.

    Ciclo di vita dell'attività

    Stato Significato
    queued Attività creata, in attesa che il provider la accetti.
    running Il provider sta elaborando (in genere da 30 secondi a diversi minuti, a seconda del provider e della risoluzione).
    succeeded Video pronto; l'agente si riattiva e lo pubblica nella conversazione.
    failed Errore del provider o timeout; l'agente si riattiva con i dettagli dell'errore.

    Controlla lo stato dalla CLI:

    openclaw tasks list
    openclaw tasks show <taskId>
    openclaw tasks cancel <taskId>
    

    Se un'attività video è già queued o running per la sessione corrente, video_generate restituisce lo stato dell'attività esistente invece di avviarne una nuova. Usa action: "status" per controllare esplicitamente senza attivare una nuova generazione.

    Provider supportati

    Provider Modello predefinito Testo Rif. immagine Rif. video Autenticazione
    Alibaba wan2.6-t2v Sì (URL remoto) Sì (URL remoto) MODELSTUDIO_API_KEY
    BytePlus (1.0) seedance-1-0-pro-250528 Fino a 2 immagini (solo modelli I2V; primo + ultimo fotogramma) - BYTEPLUS_API_KEY
    BytePlus Seedance 1.5 seedance-1-5-pro-251215 Fino a 2 immagini (primo + ultimo fotogramma tramite ruolo) - BYTEPLUS_API_KEY
    BytePlus Seedance 2.0 dreamina-seedance-2-0-260128 Fino a 9 immagini di riferimento Fino a 3 video BYTEPLUS_API_KEY
    ComfyUI workflow 1 immagine - COMFY_API_KEY o COMFY_CLOUD_API_KEY
    DeepInfra Pixverse/Pixverse-T2V - - DEEPINFRA_API_KEY
    fal fal-ai/minimax/video-01-live 1 immagine; fino a 9 con Seedance reference-to-video Fino a 3 video con Seedance reference-to-video FAL_KEY
    Google veo-3.1-fast-generate-preview 1 immagine 1 video GEMINI_API_KEY
    MiniMax MiniMax-Hailuo-2.3 1 immagine - MINIMAX_API_KEY o MiniMax OAuth
    OpenAI sora-2 1 immagine 1 video OPENAI_API_KEY
    OpenRouter google/veo-3.1-fast Fino a 4 immagini (primo/ultimo fotogramma o riferimenti) - OPENROUTER_API_KEY
    Qwen wan2.6-t2v Sì (URL remoto) Sì (URL remoto) QWEN_API_KEY
    Runway gen4.5 1 immagine 1 video RUNWAYML_API_SECRET
    Together Wan-AI/Wan2.2-T2V-A14B 1 immagine - TOGETHER_API_KEY
    Vydra veo3 1 immagine (kling) - VYDRA_API_KEY
    xAI grok-imagine-video 1 immagine di primo fotogramma o fino a 7 reference_image 1 video XAI_API_KEY

    Alcuni provider accettano variabili d'ambiente API key aggiuntive o alternative. Consulta le singole pagine dei provider per i dettagli.

    Esegui video_generate action=list per ispezionare provider, modelli e modalità runtime disponibili in fase di esecuzione.

    Matrice delle capacità

    Il contratto esplicito delle modalità usato da video_generate, dai test di contratto e dallo sweep live condiviso:

    Provider generate imageToVideo videoToVideo Lane live condivise oggi
    Alibaba generate, imageToVideo; videoToVideo saltato perché questo provider richiede URL video http(s) remoti
    BytePlus - generate, imageToVideo
    ComfyUI - Non nello sweep condiviso; la copertura specifica del workflow vive con i test Comfy
    DeepInfra - - generate; gli schemi video DeepInfra nativi sono text-to-video nel contratto incluso
    fal generate, imageToVideo; videoToVideo solo quando si usa Seedance reference-to-video
    Google generate, imageToVideo; videoToVideo condiviso saltato perché lo sweep Gemini/Veo corrente basato su buffer non accetta quell'input
    MiniMax - generate, imageToVideo
    OpenAI generate, imageToVideo; videoToVideo condiviso saltato perché questo percorso org/input attualmente richiede accesso inpaint/remix lato provider
    OpenRouter - generate, imageToVideo
    Qwen generate, imageToVideo; videoToVideo saltato perché questo provider richiede URL video http(s) remoti
    Runway generate, imageToVideo; videoToVideo viene eseguito solo quando il modello selezionato è runway/gen4_aleph
    Together - generate, imageToVideo
    Vydra - generate; imageToVideo condiviso saltato perché veo3 incluso è solo testo e kling incluso richiede un URL immagine remoto
    xAI generate, imageToVideo; videoToVideo saltato perché questo provider attualmente richiede un URL MP4 remoto

    Parametri dello strumento

    Obbligatori

    promptstringrequired

    Descrizione testuale del video da generare. Obbligatoria per action: "generate".

    Input di contenuto

    imagestring
    imagesstring[]
    imageRolesstring[]

    Suggerimenti di ruolo opzionali per posizione, paralleli all'elenco immagini combinato. Valori canonici: first_frame, last_frame, reference_image.

    videostring
    videosstring[]
    videoRolesstring[]

    Suggerimenti di ruolo opzionali per posizione, paralleli all'elenco video combinato. Valore canonico: reference_video.

    audioRefstring

    Singolo audio di riferimento (percorso o URL). Usato per musica di sottofondo o come riferimento vocale quando il provider supporta input audio.

    audioRefsstring[]
    audioRolesstring[]

    Suggerimenti di ruolo opzionali per posizione, paralleli all'elenco audio combinato. Valore canonico: reference_audio.

    Controlli di stile

    aspectRatiostring

    Suggerimento di proporzioni come 1:1, 16:9, 9:16, adaptive o un valore specifico del provider. OpenClaw normalizza o ignora i valori non supportati per provider.

    OPENCLAW_DOCS_MARKER:paramOpen:IHBhdGg9InJlc29sdXRpb24iIHR5cGU9InN0cmluZyI Suggerimento di risoluzione come 480P, 720P, 768P, 1080P, 4K o un valore specifico del provider. OpenClaw normalizza o ignora i valori non supportati per provider. OPENCLAW_DOCS_MARKER:paramClose:

    durationSecondsnumber

    Durata target in secondi (arrotondata al valore supportato dal provider più vicino).

    sizestring
    audioboolean

    Abilita l'audio generato nell'output quando supportato. Distinto da audioRef* (input).

    watermarkboolean

    adaptive è un sentinella specifico del provider: viene inoltrato così com'è ai provider che dichiarano adaptive nelle loro capacità (ad esempio BytePlus Seedance lo usa per rilevare automaticamente il rapporto dalle dimensioni dell'immagine di input). I provider che non lo dichiarano espongono il valore tramite details.ignoredOverrides nel risultato dello strumento, così l'esclusione è visibile.

    Avanzate

    action"generate" | "status" | "list"

    "status" restituisce l'attività della sessione corrente; "list" ispeziona i provider.

    OPENCLAW_DOCS_MARKER:paramOpen:IHBhdGg9Im1vZGVsIiB0eXBlPSJzdHJpbmci Override di provider/modello (ad esempio runway/gen4.5). OPENCLAW_DOCS_MARKER:paramClose:

    filenamestring
    timeoutMsnumber
    providerOptionsobject

    Opzioni specifiche del provider come oggetto JSON (ad esempio {"seed": 42, "draft": true}). I provider che dichiarano uno schema tipizzato convalidano chiavi e tipi; chiavi sconosciute o mancate corrispondenze saltano il candidato durante il fallback. I provider senza uno schema dichiarato ricevono le opzioni così come sono. Esegui video_generate action=list per vedere che cosa accetta ciascun provider.

    Gli input di riferimento selezionano la modalità di runtime:

    • Nessun media di riferimento → generate
    • Qualsiasi riferimento immagine → imageToVideo
    • Qualsiasi riferimento video → videoToVideo
    • Gli input audio di riferimento non modificano la modalità risolta; si applicano sopra qualunque modalità selezionino i riferimenti immagine/video e funzionano solo con provider che dichiarano maxInputAudios.

    Riferimenti immagine e video misti non sono una superficie di capacità condivisa stabile. Preferisci un solo tipo di riferimento per richiesta.

    Fallback e opzioni tipizzate

    Alcuni controlli di capacità vengono applicati al livello di fallback anziché al confine dello strumento, quindi una richiesta che supera i limiti del provider primario può comunque essere eseguita su un fallback capace:

    • Il candidato attivo che non dichiara maxInputAudios (o dichiara 0) viene saltato quando la richiesta contiene riferimenti audio; viene provato il candidato successivo.
    • Il maxDurationSeconds del candidato attivo sotto il durationSeconds richiesto senza elenco supportedDurationSeconds dichiarato → saltato.
    • La richiesta contiene providerOptions e il candidato attivo dichiara esplicitamente uno schema providerOptions tipizzato → saltato se le chiavi fornite non sono nello schema o i tipi di valore non corrispondono. I provider senza uno schema dichiarato ricevono le opzioni così come sono (pass-through retrocompatibile). Un provider può rinunciare a tutte le opzioni del provider dichiarando uno schema vuoto (capabilities.providerOptions: {}), il che causa lo stesso salto di una mancata corrispondenza di tipo.

    Il primo motivo di salto in una richiesta viene registrato a warn, così gli operatori vedono quando il loro provider primario è stato ignorato; i salti successivi vengono registrati a debug per mantenere silenziose le lunghe catene di fallback. Se ogni candidato viene saltato, l' errore aggregato include il motivo di salto per ciascuno.

    Azioni

    Azione Che cosa fa
    generate Predefinita. Crea un video dal prompt fornito e dagli input di riferimento opzionali.
    status Controlla lo stato dell'attività video in corso per la sessione corrente senza avviare un'altra generazione.
    list Mostra i provider disponibili, i modelli e le loro capacità.

    Selezione del modello

    OpenClaw risolve il modello in questo ordine:

    1. Parametro dello strumento model - se l'agente ne specifica uno nella chiamata.
    2. videoGenerationModel.primary dalla configurazione.
    3. videoGenerationModel.fallbacks in ordine.
    4. Rilevamento automatico - provider con autenticazione valida, a partire dal provider predefinito corrente, poi i provider rimanenti in ordine alfabetico.

    Se un provider fallisce, il candidato successivo viene provato automaticamente. Se tutti i candidati falliscono, l'errore include i dettagli di ciascun tentativo.

    Imposta agents.defaults.mediaGenerationAutoProviderFallback: false per usare solo le voci esplicite model, primary e fallbacks.

    {
      agents: {
        defaults: {
          videoGenerationModel: {
            primary: "google/veo-3.1-fast-generate-preview",
            fallbacks: ["runway/gen4.5", "qwen/wan2.6-t2v"],
          },
        },
      },
    }
    

    Note sui provider

    Alibaba

    Usa l'endpoint asincrono DashScope / Model Studio. Le immagini e i video di riferimento devono essere URL http(s) remoti.

    BytePlus (1.0)

    ID provider: byteplus.

    Modelli: seedance-1-0-pro-250528 (predefinito), seedance-1-0-pro-t2v-250528, seedance-1-0-pro-fast-251015, seedance-1-0-lite-t2v-250428, seedance-1-0-lite-i2v-250428.

    I modelli T2V (*-t2v-*) non accettano input immagine; i modelli I2V e i modelli generali *-pro-* supportano una singola immagine di riferimento (primo frame). Passa l'immagine per posizione o imposta role: "first_frame". Gli ID modello T2V vengono commutati automaticamente nella variante I2V corrispondente quando viene fornita un'immagine.

    Chiavi providerOptions supportate: seed (numero), draft (booleano - forza 480p), camera_fixed (booleano).

    BytePlus Seedance 1.5

    Richiede il Plugin @openclaw/byteplus-modelark. ID provider: byteplus-seedance15. Modello: seedance-1-5-pro-251215.

    Usa l'API unificata content[]. Supporta al massimo 2 immagini di input (first_frame + last_frame). Tutti gli input devono essere URL https:// remoti. Imposta role: "first_frame" / "last_frame" su ciascuna immagine, oppure passa le immagini per posizione.

    aspectRatio: "adaptive" rileva automaticamente il rapporto dall'immagine di input. audio: true viene mappato a generate_audio. providerOptions.seed (numero) viene inoltrato.

    BytePlus Seedance 2.0

    Richiede il Plugin @openclaw/byteplus-modelark. ID provider: byteplus-seedance2. Modelli: dreamina-seedance-2-0-260128, dreamina-seedance-2-0-fast-260128.

    Usa l'API unificata content[]. Supporta fino a 9 immagini di riferimento, 3 video di riferimento e 3 audio di riferimento. Tutti gli input devono essere URL https:// remoti. Imposta role su ciascun asset - valori supportati: "first_frame", "last_frame", "reference_image", "reference_video", "reference_audio".

    aspectRatio: "adaptive" rileva automaticamente il rapporto dall'immagine di input. audio: true viene mappato a generate_audio. providerOptions.seed (numero) viene inoltrato.

    ComfyUI

    Esecuzione locale o nel cloud guidata da workflow. Supporta text-to-video e image-to-video tramite il grafo configurato.

    fal

    Usa un flusso basato su coda per i job di lunga durata. OpenClaw attende fino a 20 minuti per impostazione predefinita prima di considerare scaduto un job fal in coda ancora in corso. La maggior parte dei modelli video fal accetta un singolo riferimento immagine. I modelli Seedance 2.0 reference-to-video accettano fino a 9 immagini, 3 video e 3 riferimenti audio, con al massimo 12 file di riferimento totali.

    Google (Gemini / Veo)

    Supporta un riferimento immagine o un riferimento video. Le richieste di audio generato vengono ignorate con un avviso nel percorso API Gemini perché tale API rifiuta il parametro generateAudio per l'attuale generazione video Veo.

    MiniMax

    Solo singolo riferimento immagine. MiniMax accetta risoluzioni 768P e 1080P; richieste come 720P vengono normalizzate al valore supportato più vicino prima dell'invio.

    OpenAI

    Viene inoltrato solo l'override size. Gli altri override di stile (aspectRatio, resolution, audio, watermark) vengono ignorati con un avviso.

    OpenRouter

    Usa l'API asincrona /videos di OpenRouter. OpenClaw invia il job, interroga polling_url e scarica unsigned_urls oppure l'endpoint documentato per il contenuto del job. Il default incluso google/veo-3.1-fast dichiara durate di 4/6/8 secondi, risoluzioni 720P/1080P e proporzioni 16:9/9:16.

    Qwen

    Stesso backend DashScope di Alibaba. Gli input di riferimento devono essere URL http(s) remoti; i file locali vengono rifiutati in anticipo.

    Runway

    Supporta file locali tramite URI dati. Video-to-video richiede runway/gen4_aleph. Le esecuzioni solo testo espongono proporzioni 16:9 e 9:16.

    Together

    Solo singolo riferimento immagine.

    Vydra

    Usa direttamente https://www.vydra.ai/api/v1 per evitare redirect che eliminano l'autenticazione. veo3 è incluso solo come text-to-video; kling richiede un URL immagine remoto.

    xAI

    Supporta text-to-video, image-to-video con una singola immagine del primo fotogramma, fino a 7 input reference_image tramite reference_images di xAI, e flussi remoti di modifica/estensione video.

    Modalità di capacità dei provider

    Il contratto condiviso di generazione video supporta capacità specifiche per modalità invece di soli limiti aggregati piatti. Le nuove implementazioni di provider dovrebbero preferire blocchi di modalità espliciti:

    capabilities: {
      generate: {
        maxVideos: 1,
        maxDurationSeconds: 10,
        supportsResolution: true,
      },
      imageToVideo: {
        enabled: true,
        maxVideos: 1,
        maxInputImages: 1,
        maxInputImagesByModel: { "provider/reference-to-video": 9 },
        maxDurationSeconds: 5,
      },
      videoToVideo: {
        enabled: true,
        maxVideos: 1,
        maxInputVideos: 1,
        maxDurationSeconds: 5,
      },
    }
    

    Campi aggregati piatti come maxInputImages e maxInputVideos non sono sufficienti per dichiarare il supporto della modalità di trasformazione. I provider dovrebbero dichiarare esplicitamente generate, imageToVideo e videoToVideo affinché test live, test di contratto e lo strumento condiviso video_generate possano convalidare il supporto della modalità in modo deterministico.

    Quando un modello in un provider ha un supporto più ampio per gli input di riferimento rispetto al resto, usa maxInputImagesByModel, maxInputVideosByModel o maxInputAudiosByModel invece di aumentare il limite dell'intera modalità.

    Test live

    Copertura live opzionale per i provider inclusi condivisi:

    OPENCLAW_LIVE_TEST=1 pnpm test:live -- extensions/video-generation-providers.live.test.ts
    

    Wrapper del repository:

    pnpm test:live:media video
    

    Questo file live carica le variabili d'ambiente mancanti del provider da ~/.profile, preferisce per impostazione predefinita le chiavi API live/env rispetto ai profili di autenticazione archiviati, ed esegue uno smoke sicuro per la release per impostazione predefinita:

    • generate per ogni provider non FAL nella sweep.
    • Prompt di un secondo con aragosta.
    • Limite operativo per provider da OPENCLAW_LIVE_VIDEO_GENERATION_TIMEOUT_MS (180000 per impostazione predefinita).

    FAL è opzionale perché la latenza della coda lato provider può dominare il tempo di release:

    pnpm test:live:media video --video-providers fal
    

    Imposta OPENCLAW_LIVE_VIDEO_GENERATION_FULL_MODES=1 per eseguire anche le modalità di trasformazione dichiarate che la sweep condivisa può esercitare in sicurezza con media locali:

    • imageToVideo quando capabilities.imageToVideo.enabled.
    • videoToVideo quando capabilities.videoToVideo.enabled e il provider/modello accetta input video locale basato su buffer nella sweep condivisa.

    Oggi la lane live condivisa videoToVideo copre runway solo quando selezioni runway/gen4_aleph.

    Configurazione

    Imposta il modello predefinito di generazione video nella tua configurazione OpenClaw:

    {
      agents: {
        defaults: {
          videoGenerationModel: {
            primary: "qwen/wan2.6-t2v",
            fallbacks: ["qwen/wan2.6-r2v-flash"],
          },
        },
      },
    }
    

    Oppure tramite la CLI:

    openclaw config set agents.defaults.videoGenerationModel.primary "qwen/wan2.6-t2v"
    

    Correlati