Tools
Poziomy myślenia
Co robi
- Dyrektywa inline w dowolnej przychodzącej treści:
/t <level>,/think:<level>lub/thinking <level>. - Poziomy (aliasy):
off | minimal | low | medium | high | xhigh | adaptive | max- minimal → "think"
- low → "think hard"
- medium → "think harder"
- high → "ultrathink" (maksymalny budżet)
- xhigh → "ultrathink+" (modele GPT-5.2+ i Codex oraz wysiłek Anthropic Claude Opus 4.7)
- adaptive → adaptacyjne myślenie zarządzane przez dostawcę (obsługiwane dla Claude 4.6 w Anthropic/Bedrock, Anthropic Claude Opus 4.7 oraz dynamicznego myślenia Google Gemini)
- max → maksymalne rozumowanie dostawcy (Anthropic Claude Opus 4.7; Ollama mapuje to na swój najwyższy natywny wysiłek
think) x-high,x_high,extra-high,extra highiextra_highmapują naxhigh.highestmapuje nahigh.
- Uwagi o dostawcach:
- Menu i selektory myślenia są sterowane profilem dostawcy. Pluginy dostawców deklarują dokładny zestaw poziomów dla wybranego modelu, w tym etykiety takie jak binarne
on. adaptive,xhighimaxsą reklamowane tylko dla profili dostawcy/modelu, które je obsługują. Wpisane dyrektywy dla nieobsługiwanych poziomów są odrzucane wraz z prawidłowymi opcjami tego modelu.- Istniejące zapisane nieobsługiwane poziomy są mapowane ponownie według rangi profilu dostawcy.
adaptivecofa się domediumw modelach nieadaptacyjnych, natomiastxhighimaxcofają się do największego obsługiwanego poziomu innego niżoffdla wybranego modelu. - Modele Anthropic Claude 4.6 domyślnie używają
adaptive, gdy nie ustawiono jawnego poziomu myślenia. - Anthropic Claude Opus 4.7 nie używa domyślnie adaptacyjnego myślenia. Domyślny wysiłek API pozostaje własnością dostawcy, chyba że jawnie ustawisz poziom myślenia.
- Anthropic Claude Opus 4.7 mapuje
/think xhighna adaptacyjne myślenie plusoutput_config.effort: "xhigh", ponieważ/thinkjest dyrektywą myślenia, axhighjest ustawieniem wysiłku Opus 4.7. - Anthropic Claude Opus 4.7 udostępnia także
/think max; mapuje się ona na tę samą ścieżkę maksymalnego wysiłku należącą do dostawcy. - Bezpośrednie modele DeepSeek V4 udostępniają
/think xhigh|max; oba mapują na DeepSeekreasoning_effort: "max", a niższe poziomy inne niżoffmapują nahigh. - Modele DeepSeek V4 routowane przez OpenRouter udostępniają
/think xhighi wysyłają obsługiwane przez OpenRouter wartościreasoning_effort. Zapisane nadpisaniamaxcofają się doxhigh. - Modele Ollama z obsługą myślenia udostępniają
/think low|medium|high|max;maxmapuje na natywnethink: "high", ponieważ natywne API Ollama akceptuje ciągi wysiłkulow,mediumihigh. - Modele OpenAI GPT mapują
/thinkprzez obsługę wysiłku specyficzną dla modelu w Responses API./think offwysyłareasoning.effort: "none"tylko wtedy, gdy model docelowy to obsługuje; w przeciwnym razie OpenClaw pomija wyłączony ładunek rozumowania zamiast wysyłać nieobsługiwaną wartość. - Niestandardowe wpisy katalogu zgodne z OpenAI mogą włączyć
/think xhigh, ustawiającmodels.providers.<provider>.models[].compat.supportedReasoningEffortstak, aby zawierało"xhigh". Używa to tych samych metadanych zgodności, które mapują wychodzące ładunki wysiłku rozumowania OpenAI, dzięki czemu menu, walidacja sesji, CLI agenta illm-tasksą zgodne z zachowaniem transportu. - Nieaktualne skonfigurowane referencje OpenRouter Hunter Alpha pomijają wstrzykiwanie rozumowania proxy, ponieważ ta wycofana trasa mogła zwracać tekst finalnej odpowiedzi przez pola rozumowania.
- Google Gemini mapuje
/think adaptivena dynamiczne myślenie należące do dostawcy Gemini. Żądania Gemini 3 pomijają stałythinkingLevel, natomiast żądania Gemini 2.5 wysyłająthinkingBudget: -1; stałe poziomy nadal mapują na najbliższythinkingLevelGemini albo budżet dla tej rodziny modeli. - MiniMax (
minimax/*) na ścieżce strumieniowania zgodnej z Anthropic domyślnie używathinking: { type: "disabled" }, chyba że jawnie ustawisz myślenie w parametrach modelu lub parametrach żądania. Zapobiega to wyciekom deltreasoning_contentz nienatywnego formatu strumienia Anthropic w MiniMax. - Z.AI (
zai/*) obsługuje tylko myślenie binarne (on/off). Każdy poziom inny niżoffjest traktowany jakoon(mapowany nalow). - Moonshot (
moonshot/*) mapuje/think offnathinking: { type: "disabled" }, a każdy poziom inny niżoffnathinking: { type: "enabled" }. Gdy myślenie jest włączone, Moonshot akceptuje tylkotool_choiceauto|none; OpenClaw normalizuje niezgodne wartości doauto.
- Menu i selektory myślenia są sterowane profilem dostawcy. Pluginy dostawców deklarują dokładny zestaw poziomów dla wybranego modelu, w tym etykiety takie jak binarne
Kolejność rozstrzygania
- Dyrektywa inline w wiadomości (dotyczy tylko tej wiadomości).
- Nadpisanie sesji (ustawiane przez wysłanie wiadomości zawierającej tylko dyrektywę).
- Domyślna wartość per agent (
agents.list[].thinkingDefaultw konfiguracji). - Domyślna wartość globalna (
agents.defaults.thinkingDefaultw konfiguracji). - Fallback: domyślna wartość zadeklarowana przez dostawcę, gdy jest dostępna; w przeciwnym razie modele zdolne do rozumowania rozstrzygają na
mediumlub najbliższy obsługiwany poziom inny niżoffdla tego modelu, a modele bez rozumowania pozostają przyoff.
Ustawianie domyślnej wartości sesji
- Wyślij wiadomość, która jest wyłącznie dyrektywą (białe znaki dozwolone), np.
/think:mediumlub/t high. - Pozostaje ona dla bieżącej sesji (domyślnie per nadawca); czyści ją
/think:offalbo reset bezczynnej sesji. - Wysyłana jest odpowiedź potwierdzająca (
Thinking level set to high./Thinking disabled.). Jeśli poziom jest nieprawidłowy (np./thinking big), polecenie zostaje odrzucone z podpowiedzią, a stan sesji pozostaje bez zmian. - Wyślij
/think(lub/think:) bez argumentu, aby zobaczyć bieżący poziom myślenia.
Zastosowanie według agenta
- Osadzony Pi: rozstrzygnięty poziom jest przekazywany do działającego w procesie środowiska uruchomieniowego agenta Pi.
- Zaplecze Claude CLI: poziomy inne niż off są przekazywane do Claude Code jako
--effortprzy użyciuclaude-cli; zobacz zaplecza CLI.
Tryb szybki (/fast)
- Poziomy:
on|off. - Wiadomość zawierająca tylko dyrektywę przełącza sesyjne nadpisanie trybu szybkiego i odpowiada
Fast mode enabled./Fast mode disabled.. - Wyślij
/fast(lub/fast status) bez trybu, aby zobaczyć bieżący efektywny stan trybu szybkiego. - OpenClaw rozstrzyga tryb szybki w tej kolejności:
- Inline/tylko dyrektywa
/fast on|off - Nadpisanie sesji
- Domyślna wartość per agent (
agents.list[].fastModeDefault) - Konfiguracja per model:
agents.defaults.models["<provider>/<model>"].params.fastMode - Fallback:
off
- Inline/tylko dyrektywa
- Dla
openai/*tryb szybki mapuje na priorytetowe przetwarzanie OpenAI przez wysłanieservice_tier=priorityw obsługiwanych żądaniach Responses. - Dla
openai-codex/*tryb szybki wysyła tę samą flagęservice_tier=priorityw Responses Codex. OpenClaw utrzymuje jeden wspólny przełącznik/fastdla obu ścieżek uwierzytelniania. - Dla bezpośrednich publicznych żądań
anthropic/*, w tym ruchu uwierzytelnionego przez OAuth wysyłanego doapi.anthropic.com, tryb szybki mapuje na warstwy usług Anthropic:/fast onustawiaservice_tier=auto,/fast offustawiaservice_tier=standard_only. - Dla
minimax/*na ścieżce zgodnej z Anthropic/fast on(lubparams.fastMode: true) przepisujeMiniMax-M2.7naMiniMax-M2.7-highspeed. - Jawne parametry modelu Anthropic
serviceTier/service_tiernadpisują domyślną wartość trybu szybkiego, gdy ustawiono oba. OpenClaw nadal pomija wstrzykiwanie warstwy usług Anthropic dla bazowych URL-i proxy innych niż Anthropic. /statuspokazujeFasttylko wtedy, gdy tryb szybki jest włączony.
Dyrektywy szczegółowości (/verbose lub /v)
- Poziomy:
on(minimalny) |full|off(domyślny). - Wiadomość zawierająca tylko dyrektywę przełącza szczegółowość sesji i odpowiada
Verbose logging enabled./Verbose logging disabled.; nieprawidłowe poziomy zwracają podpowiedź bez zmiany stanu. /verbose offzapisuje jawne nadpisanie sesji; wyczyść je w interfejsie sesji, wybierającinherit.- Dyrektywa inline dotyczy tylko tej wiadomości; w przeciwnym razie obowiązują domyślne wartości sesji/globalne.
- Wyślij
/verbose(lub/verbose:) bez argumentu, aby zobaczyć bieżący poziom szczegółowości. - Gdy szczegółowość jest włączona, agenci emitujący ustrukturyzowane wyniki narzędzi (Pi, inni agenci JSON) odsyłają każde wywołanie narzędzia jako osobną wiadomość zawierającą tylko metadane, poprzedzoną
<emoji> <tool-name>: <arg>, gdy jest dostępne. Te podsumowania narzędzi są wysyłane natychmiast po uruchomieniu każdego narzędzia (osobne dymki), a nie jako delty strumieniowania. - Podsumowania błędów narzędzi pozostają widoczne w trybie normalnym, ale surowe sufiksy szczegółów błędu są ukryte, chyba że szczegółowość wynosi
onlubfull. - Gdy szczegółowość wynosi
full, wyjścia narzędzi są również przekazywane po zakończeniu (osobny dymek, skrócony do bezpiecznej długości). Jeśli przełączysz/verbose on|full|off, gdy uruchomienie jest w toku, kolejne dymki narzędzi respektują nowe ustawienie. agents.defaults.toolProgressDetailkontroluje kształt podsumowań narzędzi/verboseoraz roboczych linii postępu narzędzi. Użyj"explain"(domyślnie) dla zwięzłych etykiet czytelnych dla człowieka, takich jak🛠️ Exec: checking JS syntax; użyj"raw", gdy chcesz też dołączyć surowe polecenie/szczegół do debugowania.agents.list[].toolProgressDetailper agent nadpisuje wartość domyślną.explain:🛠️ Exec: check JS syntax for /tmp/app.jsraw:🛠️ Exec: check JS syntax for /tmp/app.js, node --check /tmp/app.js
Dyrektywy śledzenia Pluginu (/trace)
- Poziomy:
on|off(domyślny). - Wiadomość zawierająca tylko dyrektywę przełącza sesyjne wyjście śledzenia Pluginu i odpowiada
Plugin trace enabled./Plugin trace disabled.. - Dyrektywa inline dotyczy tylko tej wiadomości; w przeciwnym razie obowiązują domyślne wartości sesji/globalne.
- Wyślij
/trace(lub/trace:) bez argumentu, aby zobaczyć bieżący poziom śledzenia. /tracejest węższe niż/verbose: ujawnia tylko linie śledzenia/debugowania należące do Pluginu, takie jak podsumowania debugowania Active Memory.- Linie śledzenia mogą pojawiać się w
/statusoraz jako następcza wiadomość diagnostyczna po normalnej odpowiedzi asystenta.
Widoczność rozumowania (/reasoning)
- Poziomy:
on|off|stream. - Wiadomość zawierająca tylko dyrektywę przełącza, czy bloki myślenia są pokazywane w odpowiedziach.
- Gdy włączone, rozumowanie jest wysyłane jako osobna wiadomość poprzedzona
Reasoning:. stream(tylko Telegram): strumieniuje rozumowanie do roboczego dymka Telegram podczas generowania odpowiedzi, a następnie wysyła finalną odpowiedź bez rozumowania.- Alias:
/reason. - Wyślij
/reasoning(lub/reasoning:) bez argumentu, aby zobaczyć bieżący poziom rozumowania. - Kolejność rozstrzygania: dyrektywa inline, następnie nadpisanie sesji, następnie domyślna wartość per agent (
agents.list[].reasoningDefault), następnie fallback (off).
Nieprawidłowo uformowane tagi rozumowania modeli lokalnych są obsługiwane konserwatywnie. Zamknięte bloki <think>...</think> pozostają ukryte w normalnych odpowiedziach, a niezamknięte rozumowanie po już widocznym tekście również jest ukryte. Jeśli odpowiedź jest w całości opakowana w pojedynczy niezamknięty tag otwierający i w przeciwnym razie zostałaby dostarczona jako pusty tekst, OpenClaw usuwa nieprawidłowo uformowany tag otwierający i dostarcza pozostały tekst.
Powiązane
- Dokumentacja trybu podwyższonego znajduje się w trybie podwyższonym.
Heartbeats
- Treścią sondy Heartbeat jest skonfigurowany prompt Heartbeat (domyślnie:
Read HEARTBEAT.md if it exists (workspace context). Follow it strictly. Do not infer or repeat old tasks from prior chats. If nothing needs attention, reply HEARTBEAT_OK.). Dyrektywy inline w wiadomości Heartbeat obowiązują jak zwykle (ale unikaj zmieniania domyślnych wartości sesji z Heartbeats). - Dostarczanie Heartbeat domyślnie obejmuje tylko finalny ładunek. Aby wysyłać także osobną wiadomość
Reasoning:(gdy jest dostępna), ustawagents.defaults.heartbeat.includeReasoning: truelub per agentagents.list[].heartbeat.includeReasoning: true.
Interfejs czatu webowego
- Selektor myślenia w czacie webowym odzwierciedla zapisany poziom sesji z przychodzącego magazynu sesji/konfiguracji podczas ładowania strony.
- Wybranie innego poziomu natychmiast zapisuje nadpisanie sesji przez
sessions.patch; nie czeka na następne wysłanie i nie jest jednorazowym nadpisaniemthinkingOnce. - Pierwszą opcją jest zawsze
Default (<resolved level>), gdzie rozstrzygnięta wartość domyślna pochodzi z profilu myślenia dostawcy aktywnego modelu sesji oraz tej samej logiki fallback, której używają/statusisession_status. - Selektor używa
thinkingLevelszwracanych przez wiersz/domyślne wartości sesji Gateway, zthinkingOptionszachowanym jako starsza lista etykiet. Interfejs przeglądarki nie utrzymuje własnej listy regexów dostawców; Pluginy są właścicielami zestawów poziomów specyficznych dla modeli. /think:<level>nadal działa i aktualizuje ten sam zapisany poziom sesji, więc dyrektywy czatu i selektor pozostają zsynchronizowane.
Profile dostawców
- Pluginy dostawców mogą udostępniać
resolveThinkingProfile(ctx), aby definiować obsługiwane przez model poziomy oraz wartość domyślną. - Pluginy dostawców, które pośredniczą dla modeli Claude, powinny ponownie używać
resolveClaudeThinkingProfile(modelId)zopenclaw/plugin-sdk/provider-model-shared, aby katalogi bezpośrednie Anthropic i katalogi pośredniczące pozostały spójne. - Każdy poziom profilu ma przechowywany kanoniczny
id(off,minimal,low,medium,high,xhigh,adaptivelubmax) i może zawierać wyświetlanąlabel. Dostawcy binarni używają{ id: "low", label: "on" }. - Pluginy narzędziowe, które muszą zweryfikować jawne nadpisanie myślenia, powinny używać
api.runtime.agent.resolveThinkingPolicy({ provider, model })orazapi.runtime.agent.normalizeThinkingLevel(...); nie powinny utrzymywać własnych list poziomów dostawców/modeli. - Pluginy narzędziowe z dostępem do skonfigurowanych metadanych niestandardowych modeli mogą przekazać
catalogdoresolveThinkingPolicy, aby zgodycompat.supportedReasoningEffortsbyły odzwierciedlane w walidacji po stronie Plugin. - Opublikowane starsze hooki (
supportsXHighThinking,isBinaryThinkingiresolveDefaultThinkingLevel) pozostają adapterami zgodności, ale nowe niestandardowe zestawy poziomów powinny używaćresolveThinkingProfile. - Wiersze/wartości domyślne Gateway udostępniają
thinkingLevels,thinkingOptionsithinkingDefault, aby klienci ACP/czatu renderowali te same identyfikatory profili i etykiety, których używa walidacja w czasie wykonywania.