FAQ

FAQ: modele i uwierzytelnianie

Pytania i odpowiedzi dotyczące modeli i profili uwierzytelniania. Informacje o konfiguracji, sesjach, gateway, kanałach i rozwiązywaniu problemów znajdziesz w głównym FAQ.

Modele: domyślne ustawienia, wybór, aliasy, przełączanie

Czym jest „model domyślny”?

Domyślny model OpenClaw to ten, który ustawisz jako:

agents.defaults.model.primary

Modele są wskazywane jako provider/model (przykład: openai/gpt-5.5 lub openai-codex/gpt-5.5). Jeśli pominiesz dostawcę, OpenClaw najpierw próbuje aliasu, potem unikalnego dopasowania skonfigurowanego dostawcy dla dokładnie tego identyfikatora modelu, a dopiero potem wraca do skonfigurowanego dostawcy domyślnego jako przestarzałej ścieżki zgodności. Jeśli ten dostawca nie udostępnia już skonfigurowanego modelu domyślnego, OpenClaw wraca do pierwszej skonfigurowanej pary dostawca/model zamiast pokazywać nieaktualny domyślny model usuniętego dostawcy. Nadal należy jawnie ustawić provider/model.

Jaki model polecacie?

Zalecany domyślny: użyj najsilniejszego modelu najnowszej generacji dostępnego w Twoim stosie dostawców. Dla agentów z narzędziami lub niezaufanymi danymi wejściowymi: priorytetem powinna być jakość modelu, nie koszt. Do rutynowego czatu o niskiej stawce: używaj tańszych modeli zapasowych i trasuj według roli agenta.

MiniMax ma własną dokumentację: MiniMax i Modele lokalne.

Zasada praktyczna: używaj najlepszego modelu, na jaki Cię stać do pracy o wysokiej stawce, a tańszego modelu do rutynowego czatu lub streszczeń. Możesz trasować modele per agent i używać subagentów do równoleglenia długich zadań (każdy subagent zużywa tokeny). Zobacz Modele i Subagenci.

Silne ostrzeżenie: słabsze lub nadmiernie skwantyzowane modele są bardziej podatne na prompt injection i niebezpieczne zachowanie. Zobacz Bezpieczeństwo.

Więcej kontekstu: Modele.

Jak przełączać modele bez czyszczenia konfiguracji?

Użyj poleceń modelu albo edytuj tylko pola model. Unikaj pełnego zastępowania konfiguracji.

Bezpieczne opcje:

  • /model na czacie (szybko, per sesja)
  • openclaw models set ... (aktualizuje tylko konfigurację modelu)
  • openclaw configure --section model (interaktywnie)
  • edycja agents.defaults.model w ~/.openclaw/openclaw.json

Unikaj config.apply z obiektem częściowym, chyba że zamierzasz zastąpić całą konfigurację. Przy edycjach RPC najpierw sprawdź przez config.schema.lookup i preferuj config.patch. Ładunek lookup podaje znormalizowaną ścieżkę, płytkie dokumenty/ograniczenia schematu oraz podsumowania bezpośrednich dzieci dla częściowych aktualizacji. Jeśli konfiguracja została nadpisana, przywróć ją z kopii zapasowej albo uruchom ponownie openclaw doctor, aby ją naprawić.

Dokumentacja: Modele, Konfiguracja, Config, Doctor.

Czy mogę używać modeli hostowanych samodzielnie (llama.cpp, vLLM, Ollama)?

Tak. Ollama to najłatwiejsza ścieżka dla modeli lokalnych.

Najszybsza konfiguracja:

  1. Zainstaluj Ollama z https://ollama.com/download
  2. Pobierz model lokalny, np. ollama pull gemma4
  3. Jeśli chcesz także modele chmurowe, uruchom ollama signin
  4. Uruchom openclaw onboard i wybierz Ollama
  5. Wybierz Local albo Cloud + Local

Uwagi:

  • Cloud + Local daje modele chmurowe oraz Twoje lokalne modele Ollama
  • modele chmurowe takie jak kimi-k2.5:cloud nie wymagają lokalnego pobrania
  • do ręcznego przełączania użyj openclaw models list i openclaw models set ollama/<model>

Uwaga dotycząca bezpieczeństwa: mniejsze lub silnie skwantyzowane modele są bardziej podatne na prompt injection. Zdecydowanie zalecamy duże modele dla każdego bota, który może używać narzędzi. Jeśli nadal chcesz używać małych modeli, włącz sandboxing i ścisłe listy dozwolonych narzędzi.

Dokumentacja: Ollama, Modele lokalne, Dostawcy modeli, Bezpieczeństwo, Sandboxing.

Jakich modeli używają OpenClaw, Flawd i Krill?
  • Te wdrożenia mogą się różnić i z czasem zmieniać; nie ma stałej rekomendacji dostawcy.
  • Sprawdź bieżące ustawienie runtime na każdym gateway poleceniem openclaw models status.
  • Dla agentów wrażliwych bezpieczeństwowo lub używających narzędzi użyj najsilniejszego dostępnego modelu najnowszej generacji.
Jak przełączać modele w locie (bez restartu)?

Użyj polecenia /model jako osobnej wiadomości:

/model sonnet
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash
/model gemini-flash-lite

To są wbudowane aliasy. Niestandardowe aliasy można dodać przez agents.defaults.models.

Dostępne modele możesz wyświetlić przez /model, /model list albo /model status.

/model (oraz /model list) pokazuje kompaktowy, numerowany wybór. Wybierz numerem:

/model 3

Możesz także wymusić konkretny profil uwierzytelniania dla dostawcy (per sesja):

/model opus@anthropic:default
/model opus@anthropic:work

Wskazówka: /model status pokazuje, który agent jest aktywny, który plik auth-profiles.json jest używany i który profil uwierzytelniania zostanie spróbowany jako następny. Pokazuje też skonfigurowany punkt końcowy dostawcy (baseUrl) i tryb API (api), gdy są dostępne.

Jak odpiąć profil ustawiony przez @profile?

Uruchom ponownie /model bez sufiksu @profile:

/model anthropic/claude-opus-4-6

Jeśli chcesz wrócić do domyślnego, wybierz go z /model (albo wyślij /model <default provider/model>). Użyj /model status, aby potwierdzić, który profil uwierzytelniania jest aktywny.

Czy mogę używać GPT 5.5 do codziennych zadań i Codex 5.5 do programowania?

Tak. Traktuj wybór modelu i wybór runtime osobno:

  • Natywny agent programistyczny Codex: ustaw agents.defaults.model.primary na openai/gpt-5.5, a agents.defaults.agentRuntime.id na "codex". Zaloguj się przez openclaw models auth login --provider openai-codex, gdy chcesz uwierzytelniania z subskrypcji ChatGPT/Codex.
  • Bezpośrednie zadania OpenAI API przez Pi: użyj /model openai/gpt-5.5 bez nadpisania runtime Codex i skonfiguruj OPENAI_API_KEY.
  • Codex OAuth przez Pi: użyj /model openai-codex/gpt-5.5 tylko wtedy, gdy celowo chcesz zwykłego runnera Pi z Codex OAuth.
  • Subagenci: trasuj zadania programistyczne do agenta tylko dla Codex z własnym modelem i domyślnym agentRuntime.

Zobacz Modele i Polecenia slash.

Jak skonfigurować tryb szybki dla GPT 5.5?

Użyj przełącznika sesji albo domyślnego ustawienia konfiguracji:

  • Per sesja: wyślij /fast on, gdy sesja używa openai/gpt-5.5 albo openai-codex/gpt-5.5.
  • Domyślnie per model: ustaw agents.defaults.models["openai/gpt-5.5"].params.fastMode albo agents.defaults.models["openai-codex/gpt-5.5"].params.fastMode na true.

Przykład:

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: {
            fastMode: true,
          },
        },
      },
    },
  },
}

Dla OpenAI tryb szybki mapuje się na service_tier = "priority" w obsługiwanych natywnych żądaniach Responses. Sesyjne nadpisania /fast mają pierwszeństwo przed domyślnymi ustawieniami konfiguracji.

Zobacz Myślenie i tryb szybki oraz Tryb szybki OpenAI.

Dlaczego widzę „Model ... is not allowed”, a potem nie ma odpowiedzi?

Jeśli agents.defaults.models jest ustawione, staje się listą dozwolonych dla /model i wszelkich nadpisań sesji. Wybranie modelu, którego nie ma na tej liście, zwraca:

Model "provider/model" is not allowed. Use /models to list providers, or /models <provider> to list models.
Add it with: openclaw config set agents.defaults.models '{"provider/model":{}}' --strict-json --merge

Ten błąd jest zwracany zamiast normalnej odpowiedzi. Poprawka: dodaj model do agents.defaults.models, usuń listę dozwolonych albo wybierz model z /model list. Jeśli polecenie zawierało też --runtime codex, najpierw dodaj model, a potem ponów to samo polecenie /model provider/model --runtime codex.

Dlaczego widzę „Unknown model: minimax/MiniMax-M2.7”?

To oznacza, że dostawca nie jest skonfigurowany (nie znaleziono konfiguracji dostawcy MiniMax ani profilu uwierzytelniania), więc modelu nie można rozwiązać.

Lista kontrolna poprawek:

  1. Zaktualizuj do bieżącego wydania OpenClaw (albo uruchom ze źródła main), a następnie zrestartuj gateway.

  2. Upewnij się, że MiniMax jest skonfigurowany (kreator albo JSON), albo że uwierzytelnianie MiniMax istnieje w env/profilach uwierzytelniania, aby pasujący dostawca mógł zostać wstrzyknięty (MINIMAX_API_KEY dla minimax, MINIMAX_OAUTH_TOKEN albo zapisany MiniMax OAuth dla minimax-portal).

  3. Użyj dokładnego identyfikatora modelu (z rozróżnianiem wielkości liter) dla swojej ścieżki uwierzytelniania: minimax/MiniMax-M2.7 albo minimax/MiniMax-M2.7-highspeed dla konfiguracji z kluczem API, albo minimax-portal/MiniMax-M2.7 / minimax-portal/MiniMax-M2.7-highspeed dla konfiguracji OAuth.

  4. Uruchom:

    openclaw models list
    

    i wybierz z listy (albo /model list na czacie).

Zobacz MiniMax i Modele.

Czy mogę używać MiniMax jako domyślnego, a OpenAI do złożonych zadań?

Tak. Użyj MiniMax jako domyślnego i w razie potrzeby przełączaj modele per sesja. Fallbacki są dla błędów, nie dla „trudnych zadań”, więc użyj /model albo osobnego agenta.

Opcja A: przełączanie per sesja

{
  env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.7" },
      models: {
        "minimax/MiniMax-M2.7": { alias: "minimax" },
        "openai/gpt-5.5": { alias: "gpt" },
      },
    },
  },
}

Następnie:

/model gpt

Opcja B: osobni agenci

  • Agent A domyślnie: MiniMax
  • Agent B domyślnie: OpenAI
  • Trasuj według agenta albo użyj /agent, aby przełączyć

Dokumentacja: Modele, Trasowanie wielu agentów, MiniMax, OpenAI.

Czy opus / sonnet / gpt to wbudowane skróty?

Tak. OpenClaw dostarcza kilka domyślnych skrótów (stosowanych tylko wtedy, gdy model istnieje w agents.defaults.models):

  • opusanthropic/claude-opus-4-6
  • sonnetanthropic/claude-sonnet-4-6
  • gptopenai/gpt-5.5 dla konfiguracji z kluczem API albo openai-codex/gpt-5.5, gdy skonfigurowano Codex OAuth
  • gpt-miniopenai/gpt-5.4-mini
  • gpt-nanoopenai/gpt-5.4-nano
  • geminigoogle/gemini-3.1-pro-preview
  • gemini-flashgoogle/gemini-3-flash-preview
  • gemini-flash-litegoogle/gemini-3.1-flash-lite-preview

Jeśli ustawisz własny alias o tej samej nazwie, Twoja wartość ma pierwszeństwo.

Jak zdefiniować/nadpisać skróty modeli (aliasy)?

Aliasy pochodzą z agents.defaults.models.<modelId>.alias. Przykład:

{
  agents: {
    defaults: {
      model: { primary: "anthropic/claude-opus-4-6" },
      models: {
        "anthropic/claude-opus-4-6": { alias: "opus" },
        "anthropic/claude-sonnet-4-6": { alias: "sonnet" },
        "anthropic/claude-haiku-4-5": { alias: "haiku" },
      },
    },
  },
}

Wtedy /model sonnet (albo /<alias>, gdy obsługiwane) rozwiązuje się do tego identyfikatora modelu.

Jak dodać modele od innych dostawców, takich jak OpenRouter lub Z.AI?

OpenRouter (płatność za token; wiele modeli):

{
  agents: {
    defaults: {
      model: { primary: "openrouter/anthropic/claude-sonnet-4-6" },
      models: { "openrouter/anthropic/claude-sonnet-4-6": {} },
    },
  },
  env: { OPENROUTER_API_KEY: "sk-or-..." },
}

Z.AI (modele GLM):

{
  agents: {
    defaults: {
      model: { primary: "zai/glm-5" },
      models: { "zai/glm-5": {} },
    },
  },
  env: { ZAI_API_KEY: "..." },
}

Jeśli odwołasz się do dostawcy/modelu, ale brakuje wymaganego klucza dostawcy, otrzymasz błąd uwierzytelniania w czasie działania (np. No API key found for provider "zai").

Nie znaleziono klucza API dostawcy po dodaniu nowego agenta

Zwykle oznacza to, że nowy agent ma pusty magazyn uwierzytelniania. Uwierzytelnianie jest osobne dla każdego agenta i jest przechowywane w:

~/.openclaw/agents/<agentId>/agent/auth-profiles.json

Opcje naprawy:

  • Uruchom openclaw agents add <id> i skonfiguruj uwierzytelnianie w kreatorze.
  • Albo skopiuj wyłącznie przenośne statyczne profile api_key / token z magazynu uwierzytelniania głównego agenta do magazynu uwierzytelniania nowego agenta.
  • W przypadku profili OAuth zaloguj się z poziomu nowego agenta, gdy potrzebuje on własnego konta; w przeciwnym razie OpenClaw może odczytywać dane z domyślnego/głównego agenta bez klonowania tokenów odświeżania.

Nie używaj ponownie agentDir między agentami; powoduje to kolizje uwierzytelniania/sesji.

Przełączanie awaryjne modeli i „Wszystkie modele zawiodły”

Jak działa przełączanie awaryjne?

Przełączanie awaryjne odbywa się w dwóch etapach:

  1. Rotacja profili uwierzytelniania w ramach tego samego dostawcy.
  2. Fallback modelu do następnego modelu w agents.defaults.model.fallbacks.

Okresy wyciszenia dotyczą zawodzących profili (wycofywanie wykładnicze), więc OpenClaw może nadal odpowiadać nawet wtedy, gdy dostawca ogranicza częstotliwość żądań albo tymczasowo zawodzi.

Koszyk limitu częstotliwości obejmuje więcej niż zwykłe odpowiedzi 429. OpenClaw traktuje także komunikaty takie jak Too many concurrent requests, ThrottlingException, concurrency limit reached, workers_ai ... quota limit exceeded, resource exhausted oraz okresowe limity okien użycia (weekly/monthly limit reached) jako limity częstotliwości kwalifikujące się do przełączenia awaryjnego.

Niektóre odpowiedzi wyglądające na rozliczeniowe nie są 402, a niektóre odpowiedzi HTTP 402 również pozostają w tym przejściowym koszyku. Jeśli dostawca zwróci jawny tekst rozliczeniowy przy 401 lub 403, OpenClaw może nadal utrzymać to w ścieżce rozliczeniowej, ale dopasowania tekstu specyficzne dla dostawcy pozostają ograniczone do dostawcy, który je posiada (na przykład OpenRouter Key limit exceeded). Jeśli komunikat 402 wygląda natomiast jak możliwe do ponowienia okno użycia albo limit wydatków organizacji/przestrzeni roboczej (daily limit reached, resets tomorrow, organization spending limit exceeded), OpenClaw traktuje go jako rate_limit, a nie długotrwałe wyłączenie rozliczeniowe.

Błędy przepełnienia kontekstu są inne: sygnatury takie jak request_too_large, input exceeds the maximum number of tokens, input token count exceeds the maximum number of input tokens, input is too long for the model lub ollama error: context length exceeded pozostają na ścieżce Compaction/ponowienia zamiast uruchamiać fallback modelu.

Ogólny tekst błędu serwera jest celowo węższy niż „cokolwiek z unknown/error w treści”. OpenClaw rzeczywiście traktuje przejściowe kształty ograniczone do dostawcy, takie jak surowe Anthropic An unknown error occurred, surowe OpenRouter Provider returned error, błędy przyczyn zatrzymania takie jak Unhandled stop reason: error, ładunki JSON api_error z przejściowym tekstem serwera (internal server error, unknown error, 520, upstream error, backend error) oraz błędy zajętości dostawcy takie jak ModelNotReadyException jako sygnały timeout/przeciążenia kwalifikujące się do przełączenia awaryjnego, gdy kontekst dostawcy pasuje. Ogólny wewnętrzny tekst fallbacku, taki jak LLM request failed with an unknown error., pozostaje konserwatywny i samodzielnie nie wyzwala fallbacku modelu.

Co oznacza „No credentials found for profile anthropic:default”?

Oznacza to, że system próbował użyć identyfikatora profilu uwierzytelniania anthropic:default, ale nie mógł znaleźć dla niego poświadczeń w oczekiwanym magazynie uwierzytelniania.

Lista kontrolna naprawy:

  • Potwierdź, gdzie znajdują się profile uwierzytelniania (nowe i starsze ścieżki)
    • Obecnie: ~/.openclaw/agents/<agentId>/agent/auth-profiles.json
    • Starsze: ~/.openclaw/agent/* (migrowane przez openclaw doctor)
  • Potwierdź, że Twoja zmienna środowiskowa jest ładowana przez Gateway
    • Jeśli ustawisz ANTHROPIC_API_KEY w swojej powłoce, ale uruchamiasz Gateway przez systemd/launchd, może jej nie odziedziczyć. Umieść ją w ~/.openclaw/.env albo włącz env.shellEnv.
  • Upewnij się, że edytujesz właściwego agenta
    • Konfiguracje wieloagentowe oznaczają, że może istnieć wiele plików auth-profiles.json.
  • Sprawdź stan modeli/uwierzytelniania
    • Użyj openclaw models status, aby zobaczyć skonfigurowane modele i to, czy dostawcy są uwierzytelnieni.

Lista kontrolna naprawy dla „No credentials found for profile anthropic”

Oznacza to, że uruchomienie jest przypięte do profilu uwierzytelniania Anthropic, ale Gateway nie może znaleźć go w swoim magazynie uwierzytelniania.

  • Użyj Claude CLI

    • Uruchom openclaw models auth login --provider anthropic --method cli --set-default na hoście bramy.
  • Jeśli zamiast tego chcesz użyć klucza API

    • Umieść ANTHROPIC_API_KEY w ~/.openclaw/.env na hoście bramy.

    • Wyczyść każdą przypiętą kolejność, która wymusza brakujący profil:

      openclaw models auth order clear --provider anthropic
      
  • Potwierdź, że uruchamiasz polecenia na hoście bramy

    • W trybie zdalnym profile uwierzytelniania znajdują się na maszynie bramy, a nie na Twoim laptopie.
Dlaczego spróbowano też Google Gemini i zakończyło się to niepowodzeniem?

Jeśli konfiguracja modelu obejmuje Google Gemini jako fallback (albo przełączono na skrót Gemini), OpenClaw spróbuje go podczas fallbacku modelu. Jeśli nie skonfigurowano poświadczeń Google, zobaczysz No API key found for provider "google".

Poprawka: podaj uwierzytelnianie Google albo usuń/unikaj modeli Google w agents.defaults.model.fallbacks / aliasach, aby fallback nie kierował tam ruchu.

Żądanie LLM odrzucone: wymagany podpis myślenia (Google Antigravity)

Przyczyna: historia sesji zawiera bloki myślenia bez podpisów (często z przerwanego/częściowego strumienia). Google Antigravity wymaga podpisów dla bloków myślenia.

Poprawka: OpenClaw usuwa teraz niepodpisane bloki myślenia dla Google Antigravity Claude. Jeśli problem nadal występuje, rozpocznij nową sesję albo ustaw /thinking off dla tego agenta.

Profile uwierzytelniania: czym są i jak nimi zarządzać

Powiązane: /concepts/oauth (przepływy OAuth, przechowywanie tokenów, wzorce wielu kont)

Czym jest profil uwierzytelniania?

Profil uwierzytelniania to nazwany rekord poświadczeń (OAuth lub klucz API) powiązany z dostawcą. Profile znajdują się w:

~/.openclaw/agents/<agentId>/agent/auth-profiles.json

Aby sprawdzić zapisane profile bez wypisywania sekretów, uruchom openclaw models auth list (opcjonalnie z --provider <id> lub --json). Szczegóły znajdziesz w CLI modeli.

Jakie są typowe identyfikatory profili?

OpenClaw używa identyfikatorów z prefiksem dostawcy, takich jak:

  • anthropic:default (częste, gdy nie istnieje tożsamość e-mail)
  • anthropic:<email> dla tożsamości OAuth
  • wybrane przez Ciebie niestandardowe identyfikatory (np. anthropic:work)
Czy mogę kontrolować, który profil uwierzytelniania jest próbowany jako pierwszy?

Tak. Konfiguracja obsługuje opcjonalne metadane dla profili oraz kolejność dla każdego dostawcy (auth.order.<provider>). Nie przechowuje to sekretów; mapuje identyfikatory na dostawcę/tryb i ustawia kolejność rotacji.

OpenClaw może tymczasowo pominąć profil, jeśli znajduje się on w krótkim stanie cooldown (limity szybkości/limity czasu/niepowodzenia uwierzytelniania) albo w dłuższym stanie disabled (rozliczenia/niewystarczające środki). Aby to sprawdzić, uruchom openclaw models status --json i sprawdź auth.unusableProfiles. Dostrajanie: auth.cooldowns.billingBackoffHours*.

Stany cooldown limitów szybkości mogą być ograniczone do modelu. Profil, który jest w stanie cooldown dla jednego modelu, nadal może być użyteczny dla pokrewnego modelu u tego samego dostawcy, natomiast okna rozliczeniowe/wyłączenia nadal blokują cały profil.

Możesz także ustawić nadpisanie kolejności dla agenta (przechowywane w auth-state.json tego agenta) przez CLI:

# Defaults to the configured default agent (omit --agent)
openclaw models auth order get --provider anthropic

# Lock rotation to a single profile (only try this one)
openclaw models auth order set --provider anthropic anthropic:default

# Or set an explicit order (fallback within provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default

# Clear override (fall back to config auth.order / round-robin)
openclaw models auth order clear --provider anthropic

Aby wskazać konkretnego agenta:

openclaw models auth order set --provider anthropic --agent main anthropic:default

Aby sprawdzić, co faktycznie zostanie wypróbowane, użyj:

openclaw models status --probe

Jeśli zapisany profil zostanie pominięty w jawnej kolejności, probe zgłosi excluded_by_auth_order dla tego profilu zamiast próbować go po cichu.

OAuth a klucz API — jaka jest różnica?

OpenClaw obsługuje oba rozwiązania:

  • OAuth często wykorzystuje dostęp z subskrypcji (tam, gdzie ma to zastosowanie).
  • Klucze API używają rozliczania za token.

Kreator jawnie obsługuje Anthropic Claude CLI, OpenAI Codex OAuth i klucze API.

Powiązane