Tools
Videogenerierung
OpenClaw-Agenten können Videos aus Text-Prompts, Referenzbildern oder vorhandenen Videos erzeugen. Sechzehn Provider-Backends werden unterstützt, jeweils mit unterschiedlichen Modelloptionen, Eingabemodi und Funktionsumfängen. Der Agent wählt den passenden Provider automatisch anhand Ihrer Konfiguration und der verfügbaren API-Schlüssel aus.
OpenClaw behandelt die Videogenerierung als drei Laufzeitmodi:
generate- Text-zu-Video-Anfragen ohne Referenzmedien.imageToVideo- die Anfrage enthält ein oder mehrere Referenzbilder.videoToVideo- die Anfrage enthält ein oder mehrere Referenzvideos.
Provider können beliebige Teilmengen dieser Modi unterstützen. Das Tool validiert
den aktiven Modus vor der Übermittlung und meldet unterstützte Modi in
action=list.
Schnellstart
Authentifizierung konfigurieren
Legen Sie einen API-Schlüssel für einen unterstützten Provider fest:
export GEMINI_API_KEY="your-key"
Ein Standardmodell auswählen (optional)
openclaw config set agents.defaults.videoGenerationModel.primary "google/veo-3.1-fast-generate-preview"
Den Agent fragen
Erzeuge ein 5-sekündiges filmisches Video von einem freundlichen Hummer, der bei Sonnenuntergang surft.
Der Agent ruft video_generate automatisch auf. Keine Allowlist für Tools
ist erforderlich.
So funktioniert asynchrone Generierung
Videogenerierung ist asynchron. Wenn der Agent video_generate in einer
Sitzung aufruft:
- OpenClaw übermittelt die Anfrage an den Provider und gibt sofort eine Aufgaben-ID zurück.
- Der Provider verarbeitet den Auftrag im Hintergrund (typischerweise 30 Sekunden bis mehrere Minuten, abhängig von Provider und Auflösung; langsame warteschlangenbasierte Provider können bis zum konfigurierten Timeout laufen).
- Wenn das Video bereit ist, weckt OpenClaw dieselbe Sitzung mit einem internen Abschlussereignis.
- Der Agent informiert den Benutzer und hängt das fertige Video an. In Gruppen-/Kanal- Chats, die sichtbare Zustellung ausschließlich über das Message-Tool verwenden, leitet der Agent das Ergebnis über das Message-Tool weiter, statt dass OpenClaw es direkt postet.
Während ein Auftrag läuft, geben doppelte video_generate-Aufrufe in derselben
Sitzung den aktuellen Aufgabenstatus zurück, statt eine weitere
Generierung zu starten. Verwenden Sie openclaw tasks list oder openclaw tasks show <taskId>,
um den Fortschritt über die CLI zu prüfen.
Außerhalb von sitzungsgestützten Agent-Läufen (zum Beispiel bei direkten Tool-Aufrufen) fällt das Tool auf Inline-Generierung zurück und gibt den finalen Medienpfad in derselben Runde zurück.
Generierte Videodateien werden in von OpenClaw verwaltetem Medienspeicher abgelegt,
wenn der Provider Bytes zurückgibt. Die standardmäßige Speicherobergrenze für
generierte Videos folgt dem Video-Medienlimit, und agents.defaults.mediaMaxMb
erhöht sie für größere Renderings. Wenn ein Provider auch eine gehostete Ausgabe-URL
zurückgibt, kann OpenClaw diese URL zustellen, statt die Aufgabe fehlschlagen zu lassen,
wenn die lokale Persistenz eine zu große Datei ablehnt.
Aufgabenlebenszyklus
| Status | Bedeutung |
|---|---|
queued |
Aufgabe erstellt, wartet darauf, dass der Provider sie akzeptiert. |
running |
Provider verarbeitet die Aufgabe (typischerweise 30 Sekunden bis mehrere Minuten, abhängig von Provider und Auflösung). |
succeeded |
Video bereit; der Agent wacht auf und postet es in die Unterhaltung. |
failed |
Provider-Fehler oder Timeout; der Agent wacht mit Fehlerdetails auf. |
Status über die CLI prüfen:
openclaw tasks list
openclaw tasks show <taskId>
openclaw tasks cancel <taskId>
Wenn für die aktuelle Sitzung bereits eine Videoaufgabe queued oder running ist,
gibt video_generate den vorhandenen Aufgabenstatus zurück, statt eine neue
zu starten. Verwenden Sie action: "status", um explizit zu prüfen, ohne eine neue
Generierung auszulösen.
Unterstützte Provider
| Provider | Standardmodell | Text | Bildreferenz | Videoreferenz | Auth |
|---|---|---|---|---|---|
| Alibaba | wan2.6-t2v |
✓ | Ja (entfernte URL) | Ja (entfernte URL) | MODELSTUDIO_API_KEY |
| BytePlus (1.0) | seedance-1-0-pro-250528 |
✓ | Bis zu 2 Bilder (nur I2V-Modelle; erster + letzter Frame) | - | BYTEPLUS_API_KEY |
| BytePlus Seedance 1.5 | seedance-1-5-pro-251215 |
✓ | Bis zu 2 Bilder (erster + letzter Frame über Rolle) | - | BYTEPLUS_API_KEY |
| BytePlus Seedance 2.0 | dreamina-seedance-2-0-260128 |
✓ | Bis zu 9 Referenzbilder | Bis zu 3 Videos | BYTEPLUS_API_KEY |
| ComfyUI | workflow |
✓ | 1 Bild | - | COMFY_API_KEY oder COMFY_CLOUD_API_KEY |
| DeepInfra | Pixverse/Pixverse-T2V |
✓ | - | - | DEEPINFRA_API_KEY |
| fal | fal-ai/minimax/video-01-live |
✓ | 1 Bild; bis zu 9 mit Seedance reference-to-video | Bis zu 3 Videos mit Seedance reference-to-video | FAL_KEY |
veo-3.1-fast-generate-preview |
✓ | 1 Bild | 1 Video | GEMINI_API_KEY |
|
| MiniMax | MiniMax-Hailuo-2.3 |
✓ | 1 Bild | - | MINIMAX_API_KEY oder MiniMax OAuth |
| OpenAI | sora-2 |
✓ | 1 Bild | 1 Video | OPENAI_API_KEY |
| OpenRouter | google/veo-3.1-fast |
✓ | Bis zu 4 Bilder (erster/letzter Frame oder Referenzen) | - | OPENROUTER_API_KEY |
| Qwen | wan2.6-t2v |
✓ | Ja (entfernte URL) | Ja (entfernte URL) | QWEN_API_KEY |
| Runway | gen4.5 |
✓ | 1 Bild | 1 Video | RUNWAYML_API_SECRET |
| Together | Wan-AI/Wan2.2-T2V-A14B |
✓ | 1 Bild | - | TOGETHER_API_KEY |
| Vydra | veo3 |
✓ | 1 Bild (kling) |
- | VYDRA_API_KEY |
| xAI | grok-imagine-video |
✓ | 1 Erst-Frame-Bild oder bis zu 7 reference_images |
1 Video | XAI_API_KEY |
Einige Provider akzeptieren zusätzliche oder alternative API-Schlüssel-Umgebungsvariablen. Details finden Sie auf den einzelnen Provider-Seiten.
Führen Sie video_generate action=list aus, um verfügbare Provider, Modelle und
Laufzeitmodi zur Laufzeit zu prüfen.
Capability-Matrix
Der explizite Modusvertrag, der von video_generate, Vertragstests und
dem gemeinsamen Live-Sweep verwendet wird:
| Provider | generate |
imageToVideo |
videoToVideo |
Gemeinsame Live-Lanes aktuell |
|---|---|---|---|---|
| Alibaba | ✓ | ✓ | ✓ | generate, imageToVideo; videoToVideo übersprungen, weil dieser Provider entfernte http(s)-Video-URLs benötigt |
| BytePlus | ✓ | ✓ | - | generate, imageToVideo |
| ComfyUI | ✓ | ✓ | - | Nicht im gemeinsamen Sweep; workflow-spezifische Abdeckung liegt bei Comfy-Tests |
| DeepInfra | ✓ | - | - | generate; native DeepInfra-Videoschemas sind im gebündelten Vertrag Text-zu-Video |
| fal | ✓ | ✓ | ✓ | generate, imageToVideo; videoToVideo nur bei Verwendung von Seedance reference-to-video |
| ✓ | ✓ | ✓ | generate, imageToVideo; gemeinsames videoToVideo übersprungen, weil der aktuelle buffer-gestützte Gemini/Veo-Sweep diese Eingabe nicht akzeptiert |
|
| MiniMax | ✓ | ✓ | - | generate, imageToVideo |
| OpenAI | ✓ | ✓ | ✓ | generate, imageToVideo; gemeinsames videoToVideo übersprungen, weil dieser Organisations-/Eingabepfad derzeit Provider-seitigen Inpaint-/Remix-Zugriff benötigt |
| OpenRouter | ✓ | ✓ | - | generate, imageToVideo |
| Qwen | ✓ | ✓ | ✓ | generate, imageToVideo; videoToVideo übersprungen, weil dieser Provider entfernte http(s)-Video-URLs benötigt |
| Runway | ✓ | ✓ | ✓ | generate, imageToVideo; videoToVideo läuft nur, wenn das ausgewählte Modell runway/gen4_aleph ist |
| Together | ✓ | ✓ | - | generate, imageToVideo |
| Vydra | ✓ | ✓ | - | generate; gemeinsames imageToVideo übersprungen, weil gebündeltes veo3 nur Text unterstützt und gebündeltes kling eine entfernte Bild-URL erfordert |
| xAI | ✓ | ✓ | ✓ | generate, imageToVideo; videoToVideo übersprungen, weil dieser Provider derzeit eine entfernte MP4-URL benötigt |
Tool-Parameter
Erforderlich
promptstringrequiredTextbeschreibung des zu generierenden Videos. Erforderlich für action: "generate".
Inhaltseingaben
imagestringimagesstring[]imageRolesstring[]Optionale positionsbezogene Rollenhinweise parallel zur kombinierten Bildliste.
Kanonische Werte: first_frame, last_frame, reference_image.
videostringvideosstring[]videoRolesstring[]Optionale positionsbezogene Rollenhinweise parallel zur kombinierten Videoliste.
Kanonischer Wert: reference_video.
audioRefstringEinzelnes Referenzaudio (Pfad oder URL). Wird für Hintergrundmusik oder als Stimmreferenz verwendet, wenn der Provider Audioeingaben unterstützt.
audioRefsstring[]audioRolesstring[]Optionale positionsbezogene Rollenhinweise parallel zur kombinierten Audioliste.
Kanonischer Wert: reference_audio.
Stilsteuerungen
aspectRatiostringHinweis zum Seitenverhältnis, z. B. 1:1, 16:9, 9:16, adaptive oder ein providerspezifischer Wert. OpenClaw normalisiert oder ignoriert nicht unterstützte Werte je nach Provider.
OPENCLAW_DOCS_MARKER:paramOpen:IHBhdGg9InJlc29sdXRpb24iIHR5cGU9InN0cmluZyI
Hinweis zur Auflösung, z. B. 480P, 720P, 768P, 1080P, 4K oder ein providerspezifischer Wert. OpenClaw normalisiert oder ignoriert nicht unterstützte Werte je nach Provider.
OPENCLAW_DOCS_MARKER:paramClose:
durationSecondsnumberZieldauer in Sekunden (gerundet auf den nächstliegenden vom Provider unterstützten Wert).
sizestringaudiobooleanAktiviert generiertes Audio in der Ausgabe, wenn unterstützt. Abzugrenzen von audioRef* (Eingaben).
watermarkbooleanadaptive ist ein providerspezifischer Sentinel-Wert: Er wird unverändert an
Provider weitergegeben, die adaptive in ihren Fähigkeiten deklarieren (z. B.
verwendet BytePlus Seedance ihn, um das Seitenverhältnis aus den Abmessungen
des Eingabebilds automatisch zu erkennen). Provider, die ihn nicht deklarieren,
geben den Wert im Tool-Ergebnis über details.ignoredOverrides aus, damit das
Verwerfen sichtbar ist.
Erweitert
action"generate" | "status" | "list""status" gibt den aktuellen Session-Task zurück; "list" prüft Provider.
OPENCLAW_DOCS_MARKER:paramOpen:IHBhdGg9Im1vZGVsIiB0eXBlPSJzdHJpbmci
Provider-/Modell-Override (z. B. runway/gen4.5).
OPENCLAW_DOCS_MARKER:paramClose:
filenamestringtimeoutMsnumberproviderOptionsobjectProviderspezifische Optionen als JSON-Objekt (z. B. {"seed": 42, "draft": true}).
Provider, die ein typisiertes Schema deklarieren, validieren Schlüssel und
Typen; unbekannte Schlüssel oder Abweichungen überspringen den Kandidaten
während des Fallbacks. Provider ohne deklariertes Schema erhalten die
Optionen unverändert. Führen Sie video_generate action=list aus, um zu
sehen, was jeder Provider akzeptiert.
Referenzeingaben wählen den Laufzeitmodus aus:
- Keine Referenzmedien →
generate - Beliebige Bildreferenz →
imageToVideo - Beliebige Videoreferenz →
videoToVideo - Referenzaudio-Eingaben ändern den aufgelösten Modus nicht; sie werden
zusätzlich zu dem Modus angewendet, den die Bild-/Videoreferenzen auswählen,
und funktionieren nur mit Providern, die
maxInputAudiosdeklarieren.
Gemischte Bild- und Videoreferenzen sind keine stabile gemeinsame Fähigkeitsoberfläche. Bevorzugen Sie pro Anfrage einen Referenztyp.
Fallback und typisierte Optionen
Einige Fähigkeitsprüfungen werden auf der Fallback-Ebene statt an der Tool-Grenze angewendet, sodass eine Anfrage, die die Grenzen des primären Providers überschreitet, dennoch auf einem geeigneten Fallback ausgeführt werden kann:
- Ein aktiver Kandidat, der kein
maxInputAudios(oder0) deklariert, wird übersprungen, wenn die Anfrage Audioreferenzen enthält; der nächste Kandidat wird versucht. maxDurationSecondsdes aktiven Kandidaten liegt unter dem angefordertendurationSecondsund es gibt keine deklarierte ListesupportedDurationSeconds→ übersprungen.- Die Anfrage enthält
providerOptionsund der aktive Kandidat deklariert explizit ein typisiertesproviderOptions-Schema → wird übersprungen, wenn bereitgestellte Schlüssel nicht im Schema enthalten sind oder Werttypen nicht übereinstimmen. Provider ohne deklariertes Schema erhalten Optionen unverändert (rückwärtskompatible Durchleitung). Ein Provider kann alle Provider-Optionen ablehnen, indem er ein leeres Schema deklariert (capabilities.providerOptions: {}), was zum gleichen Überspringen führt wie eine Typabweichung.
Der erste Überspringgrund in einer Anfrage wird mit warn protokolliert, damit
Betreiber sehen, wenn ihr primärer Provider übergangen wurde; nachfolgende
Überspringvorgänge werden mit debug protokolliert, um lange Fallback-Ketten
ruhig zu halten. Wenn jeder Kandidat übersprungen wird, enthält der aggregierte
Fehler den Überspringgrund für jeden Kandidaten.
Aktionen
| Aktion | Beschreibung |
|---|---|
generate |
Standard. Erstellt ein Video aus dem angegebenen Prompt und optionalen Referenzeingaben. |
status |
Prüft den Status des laufenden Video-Tasks für die aktuelle Session, ohne eine weitere Generierung zu starten. |
list |
Zeigt verfügbare Provider, Modelle und deren Fähigkeiten an. |
Modellauswahl
OpenClaw löst das Modell in dieser Reihenfolge auf:
model-Tool-Parameter - falls der Agent im Aufruf einen angibt.videoGenerationModel.primaryaus der Konfiguration.videoGenerationModel.fallbacksder Reihe nach.- Automatische Erkennung - Provider mit gültiger Authentifizierung, beginnend mit dem aktuellen Standard-Provider, danach die verbleibenden Provider in alphabetischer Reihenfolge.
Wenn ein Provider fehlschlägt, wird automatisch der nächste Kandidat versucht. Wenn alle Kandidaten fehlschlagen, enthält der Fehler Details aus jedem Versuch.
Setzen Sie agents.defaults.mediaGenerationAutoProviderFallback: false, um nur
die expliziten Einträge model, primary und fallbacks zu verwenden.
{
agents: {
defaults: {
videoGenerationModel: {
primary: "google/veo-3.1-fast-generate-preview",
fallbacks: ["runway/gen4.5", "qwen/wan2.6-t2v"],
},
},
},
}
Provider-Hinweise
Alibaba
Verwendet den asynchronen Endpunkt von DashScope / Model Studio. Referenzbilder und
-videos müssen entfernte http(s)-URLs sein.
BytePlus (1.0)
Provider-ID: byteplus.
Modelle: seedance-1-0-pro-250528 (Standard),
seedance-1-0-pro-t2v-250528, seedance-1-0-pro-fast-251015,
seedance-1-0-lite-t2v-250428, seedance-1-0-lite-i2v-250428.
T2V-Modelle (*-t2v-*) akzeptieren keine Bildeingaben; I2V-Modelle und
allgemeine *-pro-*-Modelle unterstützen ein einzelnes Referenzbild
(erstes Frame). Übergeben Sie das Bild positionsbezogen oder setzen Sie
role: "first_frame". T2V-Modell-IDs werden automatisch auf die
entsprechende I2V-Variante umgestellt, wenn ein Bild bereitgestellt wird.
Unterstützte providerOptions-Schlüssel: seed (Zahl), draft (Boolean -
erzwingt 480p), camera_fixed (Boolean).
BytePlus Seedance 1.5
Erfordert das Plugin @openclaw/byteplus-modelark.
Provider-ID: byteplus-seedance15. Modell:
seedance-1-5-pro-251215.
Verwendet die einheitliche content[]-API. Unterstützt höchstens 2
Eingabebilder (first_frame + last_frame). Alle Eingaben müssen entfernte
https://-URLs sein. Setzen Sie role: "first_frame" / "last_frame" für
jedes Bild oder übergeben Sie Bilder positionsbezogen.
aspectRatio: "adaptive" erkennt das Seitenverhältnis automatisch aus dem
Eingabebild. audio: true wird generate_audio zugeordnet.
providerOptions.seed (Zahl) wird weitergegeben.
BytePlus Seedance 2.0
Erfordert das Plugin @openclaw/byteplus-modelark.
Provider-ID: byteplus-seedance2. Modelle:
dreamina-seedance-2-0-260128,
dreamina-seedance-2-0-fast-260128.
Verwendet die einheitliche content[]-API. Unterstützt bis zu 9
Referenzbilder, 3 Referenzvideos und 3 Referenzaudios. Alle Eingaben müssen
entfernte https://-URLs sein. Setzen Sie role für jedes Asset -
unterstützte Werte: "first_frame", "last_frame", "reference_image",
"reference_video", "reference_audio".
aspectRatio: "adaptive" erkennt das Seitenverhältnis automatisch aus dem
Eingabebild. audio: true wird generate_audio zugeordnet.
providerOptions.seed (Zahl) wird weitergegeben.
ComfyUI
Workflow-gesteuerte lokale oder Cloud-Ausführung. Unterstützt Text-zu-Video und Bild-zu-Video über den konfigurierten Graphen.
fal
Verwendet einen warteschlangengestützten Ablauf für lang laufende Aufträge. OpenClaw wartet standardmäßig bis zu 20 Minuten, bevor ein laufender fal-Warteschlangenauftrag als zeitüberschritten behandelt wird. Die meisten fal-Videomodelle akzeptieren eine einzelne Bildreferenz. Seedance 2.0-Referenz-zu-Video- Modelle akzeptieren bis zu 9 Bilder, 3 Videos und 3 Audioreferenzen, mit höchstens 12 Referenzdateien insgesamt.
Google (Gemini / Veo)
Unterstützt eine Bild- oder eine Videoreferenz. Anfragen mit generiertem Audio werden
im Gemini-API-Pfad mit einer Warnung ignoriert, weil diese API den
Parameter generateAudio für die aktuelle Veo-Videogenerierung ablehnt.
MiniMax
Nur einzelne Bildreferenz. MiniMax akzeptiert die Auflösungen 768P und 1080P;
Anfragen wie 720P werden vor dem Absenden auf den nächstliegenden
unterstützten Wert normalisiert.
OpenAI
Nur die Überschreibung size wird weitergeleitet. Andere Stilüberschreibungen
(aspectRatio, resolution, audio, watermark) werden mit
einer Warnung ignoriert.
OpenRouter
Verwendet die asynchrone /videos-API von OpenRouter. OpenClaw übermittelt den
Auftrag, fragt polling_url ab und lädt entweder unsigned_urls oder den
dokumentierten Endpunkt für Auftragsinhalte herunter. Der gebündelte Standard google/veo-3.1-fast
gibt Dauern von 4/6/8 Sekunden, Auflösungen von 720P/1080P und
Seitenverhältnisse von 16:9/9:16 an.
Qwen
Dasselbe DashScope-Backend wie Alibaba. Referenzeingaben müssen entfernte
http(s)-URLs sein; lokale Dateien werden im Voraus abgelehnt.
Runway
Unterstützt lokale Dateien über Daten-URIs. Video-zu-Video erfordert
runway/gen4_aleph. Reine Textläufe stellen Seitenverhältnisse von 16:9 und 9:16
bereit.
Together
Nur einzelne Bildreferenz.
Vydra
Verwendet https://www.vydra.ai/api/v1 direkt, um Redirects zu vermeiden,
bei denen die Authentifizierung verloren geht. veo3 ist nur als Text-zu-Video gebündelt; kling erfordert
eine entfernte Bild-URL.
xAI
Unterstützt Text-zu-Video, Bild-zu-Video mit einem einzelnen ersten Frame, bis zu 7
reference_image-Eingaben über xAI reference_images sowie entfernte
Abläufe zum Bearbeiten/Erweitern von Videos.
Provider-Fähigkeitsmodi
Der gemeinsame Vertrag für die Videogenerierung unterstützt modusspezifische Fähigkeiten statt nur flacher aggregierter Grenzwerte. Neue Provider-Implementierungen sollten explizite Modusblöcke bevorzugen:
capabilities: {
generate: {
maxVideos: 1,
maxDurationSeconds: 10,
supportsResolution: true,
},
imageToVideo: {
enabled: true,
maxVideos: 1,
maxInputImages: 1,
maxInputImagesByModel: { "provider/reference-to-video": 9 },
maxDurationSeconds: 5,
},
videoToVideo: {
enabled: true,
maxVideos: 1,
maxInputVideos: 1,
maxDurationSeconds: 5,
},
}
Flache Aggregatfelder wie maxInputImages und maxInputVideos reichen
nicht aus, um Unterstützung für Transformationsmodi anzugeben. Provider sollten
generate, imageToVideo und videoToVideo explizit deklarieren, damit Live-
Tests, Vertragstests und das gemeinsame Tool video_generate die
Modusunterstützung deterministisch validieren können.
Wenn ein Modell in einem Provider eine breitere Unterstützung für Referenzeingaben hat als die
übrigen, verwenden Sie maxInputImagesByModel, maxInputVideosByModel oder
maxInputAudiosByModel, statt den modusweiten Grenzwert zu erhöhen.
Live-Tests
Opt-in-Live-Abdeckung für die gemeinsamen gebündelten Provider:
OPENCLAW_LIVE_TEST=1 pnpm test:live -- extensions/video-generation-providers.live.test.ts
Repository-Wrapper:
pnpm test:live:media video
Diese Live-Datei lädt fehlende Provider-Umgebungsvariablen aus ~/.profile, bevorzugt
standardmäßig Live-/Umgebungs-API-Schlüssel vor gespeicherten Authentifizierungsprofilen und führt
standardmäßig einen release-sicheren Smoke-Test aus:
generatefür jeden Nicht-FAL-Provider im Durchlauf.- Einsekündiger Lobster-Prompt.
- Operationsbegrenzung pro Provider aus
OPENCLAW_LIVE_VIDEO_GENERATION_TIMEOUT_MS(standardmäßig180000).
FAL ist opt-in, weil die warteschlangenseitige Latenz beim Provider die Release- Zeit dominieren kann:
pnpm test:live:media video --video-providers fal
Setzen Sie OPENCLAW_LIVE_VIDEO_GENERATION_FULL_MODES=1, um auch deklarierte
Transformationsmodi auszuführen, die der gemeinsame Durchlauf mit lokalen Medien sicher ausüben kann:
imageToVideo, wenncapabilities.imageToVideo.enabled.videoToVideo, wenncapabilities.videoToVideo.enabledund der Provider/das Modell pufferbasierte lokale Videoeingaben im gemeinsamen Durchlauf akzeptiert.
Der gemeinsame videoToVideo-Live-Lauf deckt derzeit runway nur ab, wenn Sie
runway/gen4_aleph auswählen.
Konfiguration
Legen Sie das Standardmodell für die Videogenerierung in Ihrer OpenClaw-Konfiguration fest:
{
agents: {
defaults: {
videoGenerationModel: {
primary: "qwen/wan2.6-t2v",
fallbacks: ["qwen/wan2.6-r2v-flash"],
},
},
},
}
Oder über die CLI:
openclaw config set agents.defaults.videoGenerationModel.primary "qwen/wan2.6-t2v"
Verwandte Themen
- Alibaba Model Studio
- Hintergrundaufgaben - Aufgabenverfolgung für asynchrone Videogenerierung
- BytePlus
- ComfyUI
- Konfigurationsreferenz
- fal
- Google (Gemini)
- MiniMax
- Modelle
- OpenAI
- Qwen
- Runway
- Together AI
- Tools-Übersicht
- Vydra
- xAI