Tools
Denkstufen
Was es tut
- Inline-Direktive in jedem eingehenden Text:
/t <level>,/think:<level>oder/thinking <level>. - Stufen (Aliase):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal → "think"
- low → "think hard"
- medium → "think harder"
- high → "ultrathink" (maximales Budget)
- xhigh → "ultrathink+" (GPT-5.2+ und Codex-Modelle sowie Anthropic Claude Opus 4.7-Aufwand)
- adaptive → vom Provider verwaltetes adaptives Denken (unterstützt für Claude 4.6 auf Anthropic/Bedrock, Anthropic Claude Opus 4.7 und dynamisches Denken von Google Gemini)
- max → maximale Reasoning-Stufe des Providers (Anthropic Claude Opus 4.7; Ollama ordnet dies seinem höchsten nativen
think-Aufwand zu) x-high,x_high,extra-high,extra highundextra_highwerdenxhighzugeordnet.highestwirdhighzugeordnet.
- Provider-Hinweise:
- Denk-Menüs und Auswahlfelder werden durch Provider-Profile gesteuert. Provider-Plugins deklarieren die genaue Stufenmenge für das ausgewählte Modell, einschließlich Labels wie dem binären
on. adaptive,xhighundmaxwerden nur für Provider-/Modellprofile angezeigt, die sie unterstützen. Eingegebene Direktiven für nicht unterstützte Stufen werden mit den gültigen Optionen dieses Modells abgelehnt.- Vorhandene gespeicherte nicht unterstützte Stufen werden anhand des Provider-Profilrangs neu zugeordnet.
adaptivefällt bei nicht adaptiven Modellen aufmediumzurück, währendxhighundmaxauf die größte unterstützte Nicht-off-Stufe für das ausgewählte Modell zurückfallen. - Anthropic Claude 4.6-Modelle verwenden standardmäßig
adaptive, wenn keine explizite Denk-Stufe gesetzt ist. - Anthropic Claude Opus 4.7 verwendet adaptives Denken nicht standardmäßig. Der API-Aufwand-Standardwert bleibt Provider-eigen, sofern Sie nicht explizit eine Denk-Stufe setzen.
- Anthropic Claude Opus 4.7 ordnet
/think xhighadaptivem Denken plusoutput_config.effort: "xhigh"zu, weil/thinkeine Denk-Direktive ist undxhighdie Aufwandseinstellung von Opus 4.7 ist. - Anthropic Claude Opus 4.7 stellt außerdem
/think maxbereit; es wird demselben Provider-eigenen Max-Aufwandspfad zugeordnet. - Direkte DeepSeek V4-Modelle stellen
/think xhigh|maxbereit; beide werden DeepSeekreasoning_effort: "max"zugeordnet, während niedrigere Nicht-off-Stufenhighzugeordnet werden. - Über OpenRouter geroutete DeepSeek V4-Modelle stellen
/think xhighbereit und senden von OpenRouter unterstütztereasoning_effort-Werte. Gespeichertemax-Overrides fallen aufxhighzurück. - Denkfähige Ollama-Modelle stellen
/think low|medium|high|maxbereit;maxwird nativemthink: "high"zugeordnet, weil Ollamas native API die Aufwandszeichenfolgenlow,mediumundhighakzeptiert. - OpenAI GPT-Modelle ordnen
/thinküber die modellspezifische Aufwandsunterstützung der Responses API zu./think offsendetreasoning.effort: "none"nur, wenn das Zielmodell dies unterstützt; andernfalls lässt OpenClaw die deaktivierte Reasoning-Nutzlast weg, statt einen nicht unterstützten Wert zu senden. - Benutzerdefinierte OpenAI-kompatible Katalogeinträge können
/think xhighaktivieren, indemmodels.providers.<provider>.models[].compat.supportedReasoningEffortsso gesetzt wird, dass es"xhigh"enthält. Dies verwendet dieselben Kompatibilitätsmetadaten, die ausgehende OpenAI-Reasoning-Aufwandsnutzlasten zuordnen, sodass Menüs, Sitzungsvalidierung, Agent-CLI undllm-taskmit dem Transportverhalten übereinstimmen. - Veraltete konfigurierte OpenRouter Hunter Alpha-Referenzen überspringen Proxy-Reasoning-Injektion, weil diese eingestellte Route finalen Antworttext über Reasoning-Felder zurückgeben konnte.
- Google Gemini ordnet
/think adaptivedem Provider-eigenen dynamischen Denken von Gemini zu. Gemini 3-Anfragen lassen ein festesthinkingLevelweg, während Gemini 2.5-AnfragenthinkingBudget: -1senden; feste Stufen werden weiterhin dem nächstliegenden Gemini-thinkingLeveloder Budget für diese Modellfamilie zugeordnet. - MiniMax (
minimax/*) auf dem Anthropic-kompatiblen Streaming-Pfad verwendet standardmäßigthinking: { type: "disabled" }, sofern Sie Denken nicht explizit in Modellparametern oder Anfrageparametern setzen. Dies vermeidet durchgereichtereasoning_content-Deltas aus MiniMaxs nicht nativem Anthropic-Streamformat. - Z.AI (
zai/*) unterstützt nur binäres Denken (on/off). Jede Nicht-off-Stufe wird alsonbehandelt (lowzugeordnet). - Moonshot (
moonshot/*) ordnet/think offthinking: { type: "disabled" }und jede Nicht-off-Stufethinking: { type: "enabled" }zu. Wenn Denken aktiviert ist, akzeptiert Moonshot nurtool_choiceauto|none; OpenClaw normalisiert inkompatible Werte zuauto.
- Denk-Menüs und Auswahlfelder werden durch Provider-Profile gesteuert. Provider-Plugins deklarieren die genaue Stufenmenge für das ausgewählte Modell, einschließlich Labels wie dem binären
Auflösungsreihenfolge
- Inline-Direktive in der Nachricht (gilt nur für diese Nachricht).
- Sitzungs-Override (gesetzt durch Senden einer reinen Direktiven-Nachricht).
- Pro-Agent-Standard (
agents.list[].thinkingDefaultin der Konfiguration). - Globaler Standard (
agents.defaults.thinkingDefaultin der Konfiguration). - Fallback: vom Provider deklarierter Standard, wenn verfügbar; andernfalls werden Reasoning-fähige Modelle zu
mediumoder der nächstliegenden unterstützten Nicht-off-Stufe für dieses Modell aufgelöst, und Modelle ohne Reasoning bleibenoff.
Sitzungsstandard festlegen
- Senden Sie eine Nachricht, die nur aus der Direktive besteht (Leerzeichen erlaubt), z. B.
/think:mediumoder/t high. - Das bleibt für die aktuelle Sitzung bestehen (standardmäßig pro Absender); es wird durch
/think:offoder das Zurücksetzen nach Sitzungsinaktivität gelöscht. - Eine Bestätigungsantwort wird gesendet (
Thinking level set to high./Thinking disabled.). Wenn die Stufe ungültig ist (z. B./thinking big), wird der Befehl mit einem Hinweis abgelehnt und der Sitzungszustand bleibt unverändert. - Senden Sie
/think(oder/think:) ohne Argument, um die aktuelle Denk-Stufe anzuzeigen.
Anwendung nach Agent
- Eingebetteter Pi: Die aufgelöste Stufe wird an die In-Process-Pi-Agent-Laufzeit übergeben.
- Claude CLI-Backend: Nicht-
off-Stufen werden bei Verwendung vonclaude-clials--effortan Claude Code übergeben; siehe CLI-Backends.
Schnellmodus (/fast)
- Stufen:
on|off. - Eine reine Direktiven-Nachricht schaltet einen Sitzungs-Override für den Schnellmodus um und antwortet mit
Fast mode enabled./Fast mode disabled.. - Senden Sie
/fast(oder/fast status) ohne Modus, um den aktuellen effektiven Schnellmodusstatus anzuzeigen. - OpenClaw löst den Schnellmodus in dieser Reihenfolge auf:
- Inline-/reine Direktive
/fast on|off - Sitzungs-Override
- Pro-Agent-Standard (
agents.list[].fastModeDefault) - Pro-Modell-Konfiguration:
agents.defaults.models["<provider>/<model>"].params.fastMode - Fallback:
off
- Inline-/reine Direktive
- Für
openai/*wird der Schnellmodus auf OpenAI-Prioritätsverarbeitung abgebildet, indemservice_tier=prioritybei unterstützten Responses-Anfragen gesendet wird. - Für
openai-codex/*sendet der Schnellmodus dasselbeservice_tier=priority-Flag bei Codex Responses. OpenClaw verwendet einen gemeinsamen/fast-Schalter für beide Authentifizierungspfade. - Für direkte öffentliche
anthropic/*-Anfragen, einschließlich OAuth-authentifiziertem Traffic anapi.anthropic.com, wird der Schnellmodus auf Anthropic-Service-Tiers abgebildet:/fast onsetztservice_tier=auto,/fast offsetztservice_tier=standard_only. - Für
minimax/*auf dem Anthropic-kompatiblen Pfad schreibt/fast on(oderparams.fastMode: true)MiniMax-M2.7inMiniMax-M2.7-highspeedum. - Explizite Anthropic-
serviceTier-/service_tier-Modellparameter überschreiben den Schnellmodus-Standard, wenn beide gesetzt sind. OpenClaw überspringt weiterhin die Anthropic-Service-Tier-Injektion für Nicht-Anthropic-Proxy-Basis-URLs. /statuszeigtFastnur an, wenn der Schnellmodus aktiviert ist.
Ausführliche Direktiven (/verbose oder /v)
- Stufen:
on(minimal) |full|off(Standard). - Eine reine Direktiven-Nachricht schaltet ausführliche Sitzungsausgabe um und antwortet mit
Verbose logging enabled./Verbose logging disabled.; ungültige Stufen geben einen Hinweis zurück, ohne den Zustand zu ändern. /verbose offspeichert einen expliziten Sitzungs-Override; löschen Sie ihn über die Sessions-UI, indem Sieinheritwählen.- Eine Inline-Direktive betrifft nur diese Nachricht; andernfalls gelten Sitzungs-/globale Standards.
- Senden Sie
/verbose(oder/verbose:) ohne Argument, um die aktuelle Ausführlichkeitsstufe anzuzeigen. - Wenn ausführliche Ausgabe aktiviert ist, senden Agenten, die strukturierte Tool-Ergebnisse ausgeben (Pi, andere JSON-Agenten), jeden Tool-Aufruf als eigene reine Metadaten-Nachricht zurück, sofern verfügbar mit
<emoji> <tool-name>: <arg>vorangestellt. Diese Tool-Zusammenfassungen werden gesendet, sobald jedes Tool startet (separate Sprechblasen), nicht als Streaming-Deltas. - Tool-Fehlerzusammenfassungen bleiben im normalen Modus sichtbar, aber reine Fehlerdetailsuffixe werden ausgeblendet, sofern ausführliche Ausgabe nicht
onoderfullist. - Wenn ausführliche Ausgabe
fullist, werden Tool-Ausgaben nach Abschluss ebenfalls weitergeleitet (separate Sprechblase, auf eine sichere Länge gekürzt). Wenn Sie während eines laufenden Durchlaufs/verbose on|full|offumschalten, beachten nachfolgende Tool-Sprechblasen die neue Einstellung. agents.defaults.toolProgressDetailsteuert die Form der/verbose-Tool-Zusammenfassungen und Tool-Zeilen in Fortschrittsentwürfen. Verwenden Sie"explain"(Standard) für kompakte menschenlesbare Labels wie🛠️ Exec: checking JS syntax; verwenden Sie"raw", wenn Sie zusätzlich den rohen Befehl bzw. das rohe Detail zum Debuggen anhängen möchten. Pro-Agent-agents.list[].toolProgressDetailüberschreibt den Standard.explain:🛠️ Exec: check JS syntax for /tmp/app.jsraw:🛠️ Exec: check JS syntax for /tmp/app.js, node --check /tmp/app.js
Plugin-Trace-Direktiven (/trace)
- Stufen:
on|off(Standard). - Eine reine Direktiven-Nachricht schaltet die Plugin-Trace-Ausgabe für die Sitzung um und antwortet mit
Plugin trace enabled./Plugin trace disabled.. - Eine Inline-Direktive betrifft nur diese Nachricht; andernfalls gelten Sitzungs-/globale Standards.
- Senden Sie
/trace(oder/trace:) ohne Argument, um die aktuelle Trace-Stufe anzuzeigen. /traceist enger gefasst als/verbose: Es legt nur Plugin-eigene Trace-/Debug-Zeilen offen, etwa Active Memory-Debug-Zusammenfassungen.- Trace-Zeilen können in
/statusund als nachfolgende Diagnosemeldung nach der normalen Assistentenantwort erscheinen.
Reasoning-Sichtbarkeit (/reasoning)
- Stufen:
on|off|stream. - Eine reine Direktiven-Nachricht schaltet um, ob Denkblöcke in Antworten angezeigt werden.
- Wenn aktiviert, wird Reasoning als separate Nachricht mit dem Präfix
Reasoning:gesendet. stream(nur Telegram): streamt Reasoning in die Telegram-Entwurfs-Sprechblase, während die Antwort generiert wird, und sendet anschließend die finale Antwort ohne Reasoning.- Alias:
/reason. - Senden Sie
/reasoning(oder/reasoning:) ohne Argument, um die aktuelle Reasoning-Stufe anzuzeigen. - Auflösungsreihenfolge: Inline-Direktive, dann Sitzungs-Override, dann Pro-Agent-Standard (
agents.list[].reasoningDefault), dann Fallback (off).
Fehlerhafte Reasoning-Tags lokaler Modelle werden konservativ behandelt. Geschlossene <think>...</think>-Blöcke bleiben bei normalen Antworten ausgeblendet, und nicht geschlossene Reasoning-Abschnitte nach bereits sichtbarem Text werden ebenfalls ausgeblendet. Wenn eine Antwort vollständig in ein einzelnes nicht geschlossenes öffnendes Tag eingeschlossen ist und andernfalls als leerer Text ausgeliefert würde, entfernt OpenClaw das fehlerhafte öffnende Tag und liefert den verbleibenden Text aus.
Verwandte Themen
- Dokumentation zum erhöhten Modus finden Sie unter Erhöhter Modus.
Heartbeats
- Der Heartbeat-Testtext ist der konfigurierte Heartbeat-Prompt (Standard:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.). Inline-Direktiven in einer Heartbeat-Nachricht gelten wie üblich (vermeiden Sie jedoch, Sitzungsstandards über Heartbeats zu ändern). - Die Heartbeat-Zustellung verwendet standardmäßig nur die finale Nutzlast. Um auch die separate
Reasoning:-Nachricht (wenn verfügbar) zu senden, setzen Sieagents.defaults.heartbeat.includeReasoning: trueoder pro Agentagents.list[].heartbeat.includeReasoning: true.
Webchat-UI
- Die Denkstufenauswahl im Webchat spiegelt beim Laden der Seite die in der Sitzung gespeicherte Stufe aus dem eingehenden Sitzungsspeicher bzw. der Konfiguration wider.
- Wird eine andere Stufe ausgewählt, schreibt dies die Sitzungsüberschreibung sofort über
sessions.patch; es wartet nicht bis zum nächsten Senden und ist keine einmaligethinkingOnce-Überschreibung. - Die erste Option ist immer die Auswahl zum Löschen der Überschreibung. Sie zeigt
Inherited: <resolved level>, wenn die Sitzung eine nicht deaktivierte effektive Standardeinstellung erbt, oderOff, wenn geerbtes Denken deaktiviert ist. - Explizite Auswahlen im Picker werden als Überschreibungen gekennzeichnet, wobei Provider-Beschriftungen beibehalten werden, wenn sie vorhanden sind (zum Beispiel
Override: maximumfür eine vom Provider beschriftete Optionmax). - Der Picker verwendet
thinkingLevels, die von der Gateway-Sitzungszeile bzw. den Standardwerten zurückgegeben werden, wobeithinkingOptionsals Legacy-Beschriftungsliste beibehalten wird. Die Browser-UI führt keine eigene Provider-Regex-Liste; Plugins besitzen modellspezifische Stufensätze. /think:<level>funktioniert weiterhin und aktualisiert dieselbe gespeicherte Sitzungsstufe, sodass Chat-Direktiven und Picker synchron bleiben.
Provider-Profile
- Provider-Plugins können
resolveThinkingProfile(ctx)bereitstellen, um die unterstützten Stufen und den Standardwert des Modells zu definieren. - Provider-Plugins, die Claude-Modelle weiterleiten, sollten
resolveClaudeThinkingProfile(modelId)ausopenclaw/plugin-sdk/provider-model-sharedwiederverwenden, damit direkte Anthropic-Kataloge und Proxy-Kataloge aufeinander abgestimmt bleiben. - Jede Profilstufe hat eine gespeicherte kanonische
id(off,minimal,low,medium,high,xhigh,adaptiveodermax) und kann ein anzuzeigendeslabelenthalten. Binäre Provider verwenden{ id: "low", label: "on" }. - Tool-Plugins, die eine explizite Denküberschreibung validieren müssen, sollten
api.runtime.agent.resolveThinkingPolicy({ provider, model })plusapi.runtime.agent.normalizeThinkingLevel(...)verwenden; sie sollten keine eigenen Provider-/Modell-Stufenlisten führen. - Tool-Plugins mit Zugriff auf konfigurierte benutzerdefinierte Modellmetadaten können
cataloganresolveThinkingPolicyübergeben, sodass Opt-ins fürcompat.supportedReasoningEffortsin der pluginseitigen Validierung berücksichtigt werden. - Veröffentlichte Legacy-Hooks (
supportsXHighThinking,isBinaryThinkingundresolveDefaultThinkingLevel) bleiben als Kompatibilitätsadapter erhalten, neue benutzerdefinierte Stufensätze sollten jedochresolveThinkingProfileverwenden. - Gateway-Zeilen und -Standardwerte stellen
thinkingLevels,thinkingOptionsundthinkingDefaultbereit, sodass ACP-/Chat-Clients dieselben Profil-IDs und Beschriftungen rendern, die auch die Laufzeitvalidierung verwendet.