CLI commands
Modelle
openclaw models
Modellerkennung, Scans und Konfiguration (Standardmodell, Fallbacks, Auth-Profile).
Verwandt:
- Provider + Modelle: Modelle
- Konzepte zur Modellauswahl + Slash-Befehl
/models: Modelle-Konzept - Provider-Auth-Einrichtung: Erste Schritte
Häufige Befehle
openclaw models status
openclaw models list
openclaw models set <model-or-alias>
openclaw models scan
openclaw models status zeigt die aufgelöste Standard-/Fallback-Konfiguration sowie eine Auth-Übersicht.
Wenn Provider-Nutzungs-Snapshots verfügbar sind, enthält der Abschnitt zum OAuth/API-Key-Status
Provider-Nutzungsfenster und Quota-Snapshots.
Aktuelle Provider mit Nutzungsfenstern: Anthropic, GitHub Copilot, Gemini CLI, OpenAI
Codex, MiniMax, Xiaomi und z.ai. Nutzungs-Auth stammt, wenn verfügbar, aus Provider-spezifischen Hooks;
andernfalls greift OpenClaw auf passende OAuth/API-Key-
Anmeldedaten aus Auth-Profilen, Env oder Konfiguration zurück.
In der Ausgabe von --json ist auth.providers die env-/config-/store-bewusste Provider-
Übersicht, während auth.oauth nur den Zustand der Auth-Store-Profile beschreibt.
Fügen Sie --probe hinzu, um Live-Auth-Probes gegen jedes konfigurierte Provider-Profil auszuführen.
Probes sind echte Anfragen (sie können Tokens verbrauchen und Rate Limits auslösen).
Verwenden Sie --agent <id>, um den Modell-/Auth-Zustand eines konfigurierten Agents zu prüfen. Wenn es weggelassen wird,
verwendet der Befehl OPENCLAW_AGENT_DIR/PI_CODING_AGENT_DIR, falls gesetzt, andernfalls den
konfigurierten Standard-Agent.
Probe-Zeilen können aus Auth-Profilen, Env-Anmeldedaten oder models.json stammen.
Für die Fehlersuche bei Codex OAuth sind openclaw models status,
openclaw models auth list --provider openai-codex und
openclaw config get agents.defaults.model --json der schnellste Weg, um zu
bestätigen, ob ein Agent ein verwendbares openai-codex-Auth-Profil für
openai/* über die native Codex-Laufzeit hat. Siehe OpenAI-Provider-Einrichtung.
Hinweise:
models set <model-or-alias>akzeptiertprovider/modeloder einen Alias.models listist schreibgeschützt: Es liest Konfiguration, Auth-Profile, bestehenden Katalogzustand und Provider-eigene Katalogzeilen, schreibt abermodels.jsonnicht um.- Die Spalte
Authist Provider-weit und schreibgeschützt. Sie wird aus lokalen Auth-Profil-Metadaten, Env-Markern, konfigurierten Provider-Schlüsseln, Local-Provider- Markern, AWS-Bedrock-Env-/Profil-Markern und synthetischen Auth-Metadaten von Plugins berechnet; sie lädt keine Provider-Laufzeit, liest keine Keychain-Secrets, ruft keine Provider- APIs auf und weist keine exakte Ausführungsbereitschaft pro Modell nach. models list --all --provider <id>kann Provider-eigene statische Katalogzeilen aus Plugin-Manifesten oder gebündelten Provider-Katalogmetadaten enthalten, selbst wenn Sie sich noch nicht bei diesem Provider authentifiziert haben. Diese Zeilen werden weiterhin als nicht verfügbar angezeigt, bis passende Auth konfiguriert ist.models listhält die Control Plane reaktionsfähig, während die Provider-Katalog- Erkennung langsam ist. Die Standard- und konfigurierten Ansichten fallen nach kurzer Wartezeit auf konfigurierte oder synthetische Modellzeilen zurück und lassen die Erkennung im Hintergrund abschließen. Verwenden Sie--all, wenn Sie den exakten vollständigen erkannten Katalog benötigen und bereit sind, auf die Provider-Erkennung zu warten.- Ein breites
models list --allführt Manifest-Katalogzeilen über Registry-Zeilen zusammen, ohne Provider-Laufzeit-Supplement-Hooks zu laden. Provider-gefilterte Manifest- Schnellpfade verwenden nur Provider, die alsstaticmarkiert sind; Provider, die alsrefreshablemarkiert sind, bleiben Registry-/Cache-gestützt und hängen Manifest-Zeilen als Ergänzungen an, während Provider, die alsruntimemarkiert sind, bei Registry-/Laufzeit-Erkennung bleiben. models listhält native Modellmetadaten und Laufzeit-Caps getrennt. In der Tabellen- Ausgabe zeigtCtxcontextTokens/contextWindow, wenn ein effektives Laufzeit- Cap vom nativen Kontextfenster abweicht; JSON-Zeilen enthaltencontextTokens, wenn ein Provider dieses Cap bereitstellt.models list --provider <id>filtert nach Provider-ID, etwamoonshotoderopenai-codex. Es akzeptiert keine Anzeigenamen aus interaktiven Provider- Auswahlen, etwaMoonshot AI.- Modell-Refs werden durch Aufteilen am ersten
/geparst. Wenn die Modell-ID/enthält (OpenRouter-Stil), geben Sie das Provider-Präfix an (Beispiel:openrouter/moonshotai/kimi-k2). - Wenn Sie den Provider weglassen, löst OpenClaw die Eingabe zuerst als Alias auf, dann als eindeutige Übereinstimmung eines konfigurierten Providers für diese exakte Modell-ID und erst danach fällt es mit einer Deprecation-Warnung auf den konfigurierten Standard-Provider zurück. Wenn dieser Provider das konfigurierte Standardmodell nicht mehr anbietet, fällt OpenClaw auf den ersten konfigurierten Provider/das erste konfigurierte Modell zurück, anstatt einen veralteten entfernten Provider-Standard anzuzeigen.
models statuskann in der Auth-Ausgabemarker(<value>)für nicht geheime Platzhalter anzeigen (zum BeispielOPENAI_API_KEY,secretref-managed,minimax-oauth,oauth:chutes,ollama-local), anstatt sie als Secrets zu maskieren.
Modelle scannen
models scan liest den öffentlichen :free-Katalog von OpenRouter und bewertet Kandidaten für
die Fallback-Nutzung. Der Katalog selbst ist öffentlich, daher benötigen reine Metadaten-Scans keinen
OpenRouter-Schlüssel.
Standardmäßig versucht OpenClaw, Tool- und Bildunterstützung mit Live-Modellaufrufen zu prüfen.
Wenn kein OpenRouter-Schlüssel konfiguriert ist, fällt der Befehl auf eine reine Metadaten-
Ausgabe zurück und erklärt, dass :free-Modelle weiterhin OPENROUTER_API_KEY für
Probes und Inferenz benötigen.
Optionen:
--no-probe(nur Metadaten; keine Konfigurations-/Secrets-Suche)--min-params <b>--max-age-days <days>--provider <name>--max-candidates <n>--timeout <ms>(Kataloganfrage und Timeout pro Probe)--concurrency <n>--yes--no-input--set-default--set-image--json
--set-default und --set-image erfordern Live-Probes; reine Metadaten-Scan-
Ergebnisse sind informativ und werden nicht auf die Konfiguration angewendet.
Modellstatus
Optionen:
--json--plain--check(Exit 1=abgelaufen/fehlend, 2=läuft bald ab)--probe(Live-Probe konfigurierter Auth-Profile)--probe-provider <name>(einen Provider prüfen)--probe-profile <id>(wiederholte oder kommagetrennte Profil-IDs)--probe-timeout <ms>--probe-concurrency <n>--probe-max-tokens <n>--agent <id>(konfigurierte Agent-ID; überschreibtOPENCLAW_AGENT_DIR/PI_CODING_AGENT_DIR)
--json hält stdout für die JSON-Nutzlast reserviert. Auth-Profil-, Provider-
und Startdiagnosen werden an stderr geleitet, sodass Skripte stdout direkt
in Tools wie jq leiten können.
Probe-Statusgruppen:
okauthrate_limitbillingtimeoutformatunknownno_model
Zu erwartende Detail-/Reason-Code-Fälle für Probes:
excluded_by_auth_order: Ein gespeichertes Profil existiert, aber explizitesauth.order.<provider>hat es ausgelassen, daher meldet die Probe den Ausschluss, anstatt es zu versuchen.missing_credential,invalid_expires,expired,unresolved_ref: Profil ist vorhanden, aber nicht berechtigt/auflösbar.no_model: Provider-Auth existiert, aber OpenClaw konnte keinen prüfbaren Modellkandidaten für diesen Provider auflösen.
Aliase + Fallbacks
openclaw models aliases list
openclaw models fallbacks list
Auth-Profile
openclaw models auth add
openclaw models auth list [--provider <id>] [--json]
openclaw models auth login --provider <id>
openclaw models auth setup-token --provider <id>
openclaw models auth paste-token
models auth add ist der interaktive Auth-Helfer. Er kann einen Provider-Auth-
Flow (OAuth/API-Key) starten oder Sie je nach gewähltem Provider zum manuellen Einfügen eines Tokens führen.
models auth list listet gespeicherte Auth-Profile für den ausgewählten Agent auf, ohne
Token-, API-Key- oder OAuth-Secret-Material auszugeben. Verwenden Sie --provider <id>, um
auf einen Provider wie openai-codex zu filtern, und --json für Scripting.
models auth login führt den Auth-Flow eines Provider-Plugins aus (OAuth/API-Key). Verwenden Sie
openclaw plugins list, um zu sehen, welche Provider installiert sind.
Verwenden Sie openclaw models auth --agent <id> <subcommand>, um Auth-Ergebnisse in einen
bestimmten konfigurierten Agent-Store zu schreiben. Das übergeordnete Flag --agent wird von
add, list, login, setup-token, paste-token und
login-github-copilot berücksichtigt.
Beispiele:
openclaw models auth login --provider openai-codex --set-default
openclaw models auth list --provider openai-codex
Hinweise:
setup-tokenundpaste-tokenbleiben generische Token-Befehle für Provider, die Token-Auth-Methoden bereitstellen.setup-tokenerfordert ein interaktives TTY und führt die Token-Auth- Methode des Providers aus (standardmäßig diesetup-token-Methode dieses Providers, wenn er eine bereitstellt).paste-tokenakzeptiert eine Token-Zeichenfolge, die an anderer Stelle oder durch Automatisierung erzeugt wurde.paste-tokenerfordert--provider, fragt nach dem Token-Wert und schreibt ihn in die Standard-Profil-ID<provider>:manual, sofern Sie nicht--profile-idübergeben.paste-token --expires-in <duration>speichert einen absoluten Token-Ablaufzeitpunkt aus einer relativen Dauer wie365doder12h.- Anthropic-Hinweis: Anthropic-Mitarbeiter haben uns mitgeteilt, dass OpenClaw-artige Claude-CLI-Nutzung wieder erlaubt ist. Daher behandelt OpenClaw die Wiederverwendung der Claude CLI und die Nutzung von
claude -pfür diese Integration als genehmigt, sofern Anthropic keine neue Richtlinie veröffentlicht. - Anthropic
setup-token/paste-tokenbleiben als unterstützter OpenClaw-Token-Pfad verfügbar, aber OpenClaw bevorzugt jetzt die Wiederverwendung der Claude CLI undclaude -p, wenn verfügbar.