FAQ
FAQ: modele i uwierzytelnianie
Pytania i odpowiedzi dotyczące modeli i profili uwierzytelniania. Informacje o konfiguracji, sesjach, gateway, kanałach i rozwiązywaniu problemów znajdziesz w głównym FAQ.
Modele: domyślne ustawienia, wybór, aliasy, przełączanie
Czym jest „model domyślny”?
Domyślny model OpenClaw to ten, który ustawisz jako:
agents.defaults.model.primary
Modele są wskazywane jako provider/model (przykład: openai/gpt-5.5 lub openai-codex/gpt-5.5). Jeśli pominiesz dostawcę, OpenClaw najpierw próbuje aliasu, potem unikalnego dopasowania skonfigurowanego dostawcy dla dokładnie tego identyfikatora modelu, a dopiero potem wraca do skonfigurowanego dostawcy domyślnego jako przestarzałej ścieżki zgodności. Jeśli ten dostawca nie udostępnia już skonfigurowanego modelu domyślnego, OpenClaw wraca do pierwszej skonfigurowanej pary dostawca/model zamiast pokazywać nieaktualny domyślny model usuniętego dostawcy. Nadal należy jawnie ustawić provider/model.
Jaki model polecacie?
Zalecany domyślny: użyj najsilniejszego modelu najnowszej generacji dostępnego w Twoim stosie dostawców. Dla agentów z narzędziami lub niezaufanymi danymi wejściowymi: priorytetem powinna być jakość modelu, nie koszt. Do rutynowego czatu o niskiej stawce: używaj tańszych modeli zapasowych i trasuj według roli agenta.
MiniMax ma własną dokumentację: MiniMax i Modele lokalne.
Zasada praktyczna: używaj najlepszego modelu, na jaki Cię stać do pracy o wysokiej stawce, a tańszego modelu do rutynowego czatu lub streszczeń. Możesz trasować modele per agent i używać subagentów do równoleglenia długich zadań (każdy subagent zużywa tokeny). Zobacz Modele i Subagenci.
Silne ostrzeżenie: słabsze lub nadmiernie skwantyzowane modele są bardziej podatne na prompt injection i niebezpieczne zachowanie. Zobacz Bezpieczeństwo.
Więcej kontekstu: Modele.
Jak przełączać modele bez czyszczenia konfiguracji?
Użyj poleceń modelu albo edytuj tylko pola model. Unikaj pełnego zastępowania konfiguracji.
Bezpieczne opcje:
/modelna czacie (szybko, per sesja)openclaw models set ...(aktualizuje tylko konfigurację modelu)openclaw configure --section model(interaktywnie)- edycja
agents.defaults.modelw~/.openclaw/openclaw.json
Unikaj config.apply z obiektem częściowym, chyba że zamierzasz zastąpić całą konfigurację.
Przy edycjach RPC najpierw sprawdź przez config.schema.lookup i preferuj config.patch. Ładunek lookup podaje znormalizowaną ścieżkę, płytkie dokumenty/ograniczenia schematu oraz podsumowania bezpośrednich dzieci
dla częściowych aktualizacji.
Jeśli konfiguracja została nadpisana, przywróć ją z kopii zapasowej albo uruchom ponownie openclaw doctor, aby ją naprawić.
Dokumentacja: Modele, Konfiguracja, Config, Doctor.
Czy mogę używać modeli hostowanych samodzielnie (llama.cpp, vLLM, Ollama)?
Tak. Ollama to najłatwiejsza ścieżka dla modeli lokalnych.
Najszybsza konfiguracja:
- Zainstaluj Ollama z
https://ollama.com/download - Pobierz model lokalny, np.
ollama pull gemma4 - Jeśli chcesz także modele chmurowe, uruchom
ollama signin - Uruchom
openclaw onboardi wybierzOllama - Wybierz
LocalalboCloud + Local
Uwagi:
Cloud + Localdaje modele chmurowe oraz Twoje lokalne modele Ollama- modele chmurowe takie jak
kimi-k2.5:cloudnie wymagają lokalnego pobrania - do ręcznego przełączania użyj
openclaw models listiopenclaw models set ollama/<model>
Uwaga dotycząca bezpieczeństwa: mniejsze lub silnie skwantyzowane modele są bardziej podatne na prompt injection. Zdecydowanie zalecamy duże modele dla każdego bota, który może używać narzędzi. Jeśli nadal chcesz używać małych modeli, włącz sandboxing i ścisłe listy dozwolonych narzędzi.
Dokumentacja: Ollama, Modele lokalne, Dostawcy modeli, Bezpieczeństwo, Sandboxing.
Jakich modeli używają OpenClaw, Flawd i Krill?
- Te wdrożenia mogą się różnić i z czasem zmieniać; nie ma stałej rekomendacji dostawcy.
- Sprawdź bieżące ustawienie runtime na każdym gateway poleceniem
openclaw models status. - Dla agentów wrażliwych bezpieczeństwowo lub używających narzędzi użyj najsilniejszego dostępnego modelu najnowszej generacji.
Jak przełączać modele w locie (bez restartu)?
Użyj polecenia /model jako osobnej wiadomości:
/model sonnet
/model opus
/model gpt
/model gpt-mini
/model gemini
/model gemini-flash
/model gemini-flash-lite
To są wbudowane aliasy. Niestandardowe aliasy można dodać przez agents.defaults.models.
Dostępne modele możesz wyświetlić przez /model, /model list albo /model status.
/model (oraz /model list) pokazuje kompaktowy, numerowany wybór. Wybierz numerem:
/model 3
Możesz także wymusić konkretny profil uwierzytelniania dla dostawcy (per sesja):
/model opus@anthropic:default
/model opus@anthropic:work
Wskazówka: /model status pokazuje, który agent jest aktywny, który plik auth-profiles.json jest używany i który profil uwierzytelniania zostanie spróbowany jako następny.
Pokazuje też skonfigurowany punkt końcowy dostawcy (baseUrl) i tryb API (api), gdy są dostępne.
Jak odpiąć profil ustawiony przez @profile?
Uruchom ponownie /model bez sufiksu @profile:
/model anthropic/claude-opus-4-6
Jeśli chcesz wrócić do domyślnego, wybierz go z /model (albo wyślij /model <default provider/model>).
Użyj /model status, aby potwierdzić, który profil uwierzytelniania jest aktywny.
Czy mogę używać GPT 5.5 do codziennych zadań i Codex 5.5 do programowania?
Tak. Traktuj wybór modelu i wybór runtime osobno:
- Natywny agent programistyczny Codex: ustaw
agents.defaults.model.primarynaopenai/gpt-5.5, aagents.defaults.agentRuntime.idna"codex". Zaloguj się przezopenclaw models auth login --provider openai-codex, gdy chcesz uwierzytelniania z subskrypcji ChatGPT/Codex. - Bezpośrednie zadania OpenAI API przez Pi: użyj
/model openai/gpt-5.5bez nadpisania runtime Codex i skonfigurujOPENAI_API_KEY. - Codex OAuth przez Pi: użyj
/model openai-codex/gpt-5.5tylko wtedy, gdy celowo chcesz zwykłego runnera Pi z Codex OAuth. - Subagenci: trasuj zadania programistyczne do agenta tylko dla Codex z własnym modelem i domyślnym
agentRuntime.
Zobacz Modele i Polecenia slash.
Jak skonfigurować tryb szybki dla GPT 5.5?
Użyj przełącznika sesji albo domyślnego ustawienia konfiguracji:
- Per sesja: wyślij
/fast on, gdy sesja używaopenai/gpt-5.5alboopenai-codex/gpt-5.5. - Domyślnie per model: ustaw
agents.defaults.models["openai/gpt-5.5"].params.fastModealboagents.defaults.models["openai-codex/gpt-5.5"].params.fastModenatrue.
Przykład:
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
fastMode: true,
},
},
},
},
},
}
Dla OpenAI tryb szybki mapuje się na service_tier = "priority" w obsługiwanych natywnych żądaniach Responses. Sesyjne nadpisania /fast mają pierwszeństwo przed domyślnymi ustawieniami konfiguracji.
Zobacz Myślenie i tryb szybki oraz Tryb szybki OpenAI.
Dlaczego widzę „Model ... is not allowed”, a potem nie ma odpowiedzi?
Jeśli agents.defaults.models jest ustawione, staje się listą dozwolonych dla /model i wszelkich
nadpisań sesji. Wybranie modelu, którego nie ma na tej liście, zwraca:
Model "provider/model" is not allowed. Use /models to list providers, or /models <provider> to list models.
Add it with: openclaw config set agents.defaults.models '{"provider/model":{}}' --strict-json --merge
Ten błąd jest zwracany zamiast normalnej odpowiedzi. Poprawka: dodaj model do
agents.defaults.models, usuń listę dozwolonych albo wybierz model z /model list.
Jeśli polecenie zawierało też --runtime codex, najpierw dodaj model, a potem ponów
to samo polecenie /model provider/model --runtime codex.
Dlaczego widzę „Unknown model: minimax/MiniMax-M2.7”?
To oznacza, że dostawca nie jest skonfigurowany (nie znaleziono konfiguracji dostawcy MiniMax ani profilu uwierzytelniania), więc modelu nie można rozwiązać.
Lista kontrolna poprawek:
-
Zaktualizuj do bieżącego wydania OpenClaw (albo uruchom ze źródła
main), a następnie zrestartuj gateway. -
Upewnij się, że MiniMax jest skonfigurowany (kreator albo JSON), albo że uwierzytelnianie MiniMax istnieje w env/profilach uwierzytelniania, aby pasujący dostawca mógł zostać wstrzyknięty (
MINIMAX_API_KEYdlaminimax,MINIMAX_OAUTH_TOKENalbo zapisany MiniMax OAuth dlaminimax-portal). -
Użyj dokładnego identyfikatora modelu (z rozróżnianiem wielkości liter) dla swojej ścieżki uwierzytelniania:
minimax/MiniMax-M2.7albominimax/MiniMax-M2.7-highspeeddla konfiguracji z kluczem API, albominimax-portal/MiniMax-M2.7/minimax-portal/MiniMax-M2.7-highspeeddla konfiguracji OAuth. -
Uruchom:
openclaw models listi wybierz z listy (albo
/model listna czacie).
Czy mogę używać MiniMax jako domyślnego, a OpenAI do złożonych zadań?
Tak. Użyj MiniMax jako domyślnego i w razie potrzeby przełączaj modele per sesja.
Fallbacki są dla błędów, nie dla „trudnych zadań”, więc użyj /model albo osobnego agenta.
Opcja A: przełączanie per sesja
{
env: { MINIMAX_API_KEY: "sk-...", OPENAI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.7" },
models: {
"minimax/MiniMax-M2.7": { alias: "minimax" },
"openai/gpt-5.5": { alias: "gpt" },
},
},
},
}
Następnie:
/model gpt
Opcja B: osobni agenci
- Agent A domyślnie: MiniMax
- Agent B domyślnie: OpenAI
- Trasuj według agenta albo użyj
/agent, aby przełączyć
Dokumentacja: Modele, Trasowanie wielu agentów, MiniMax, OpenAI.
Czy opus / sonnet / gpt to wbudowane skróty?
Tak. OpenClaw dostarcza kilka domyślnych skrótów (stosowanych tylko wtedy, gdy model istnieje w agents.defaults.models):
opus→anthropic/claude-opus-4-6sonnet→anthropic/claude-sonnet-4-6gpt→openai/gpt-5.5dla konfiguracji z kluczem API alboopenai-codex/gpt-5.5, gdy skonfigurowano Codex OAuthgpt-mini→openai/gpt-5.4-minigpt-nano→openai/gpt-5.4-nanogemini→google/gemini-3.1-pro-previewgemini-flash→google/gemini-3-flash-previewgemini-flash-lite→google/gemini-3.1-flash-lite-preview
Jeśli ustawisz własny alias o tej samej nazwie, Twoja wartość ma pierwszeństwo.
Jak zdefiniować/nadpisać skróty modeli (aliasy)?
Aliasy pochodzą z agents.defaults.models.<modelId>.alias. Przykład:
{
agents: {
defaults: {
model: { primary: "anthropic/claude-opus-4-6" },
models: {
"anthropic/claude-opus-4-6": { alias: "opus" },
"anthropic/claude-sonnet-4-6": { alias: "sonnet" },
"anthropic/claude-haiku-4-5": { alias: "haiku" },
},
},
},
}
Wtedy /model sonnet (albo /<alias>, gdy obsługiwane) rozwiązuje się do tego identyfikatora modelu.
Jak dodać modele od innych dostawców, takich jak OpenRouter lub Z.AI?
OpenRouter (płatność za token; wiele modeli):
{
agents: {
defaults: {
model: { primary: "openrouter/anthropic/claude-sonnet-4-6" },
models: { "openrouter/anthropic/claude-sonnet-4-6": {} },
},
},
env: { OPENROUTER_API_KEY: "sk-or-..." },
}
Z.AI (modele GLM):
{
agents: {
defaults: {
model: { primary: "zai/glm-5" },
models: { "zai/glm-5": {} },
},
},
env: { ZAI_API_KEY: "..." },
}
Jeśli odwołasz się do dostawcy/modelu, ale brakuje wymaganego klucza dostawcy, otrzymasz błąd uwierzytelniania w czasie działania (np. No API key found for provider "zai").
Nie znaleziono klucza API dostawcy po dodaniu nowego agenta
Zwykle oznacza to, że nowy agent ma pusty magazyn uwierzytelniania. Uwierzytelnianie jest osobne dla każdego agenta i jest przechowywane w:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Opcje naprawy:
- Uruchom
openclaw agents add <id>i skonfiguruj uwierzytelnianie w kreatorze. - Albo skopiuj wyłącznie przenośne statyczne profile
api_key/tokenz magazynu uwierzytelniania głównego agenta do magazynu uwierzytelniania nowego agenta. - W przypadku profili OAuth zaloguj się z poziomu nowego agenta, gdy potrzebuje on własnego konta; w przeciwnym razie OpenClaw może odczytywać dane z domyślnego/głównego agenta bez klonowania tokenów odświeżania.
Nie używaj ponownie agentDir między agentami; powoduje to kolizje uwierzytelniania/sesji.
Przełączanie awaryjne modeli i „Wszystkie modele zawiodły”
Jak działa przełączanie awaryjne?
Przełączanie awaryjne odbywa się w dwóch etapach:
- Rotacja profili uwierzytelniania w ramach tego samego dostawcy.
- Fallback modelu do następnego modelu w
agents.defaults.model.fallbacks.
Okresy wyciszenia dotyczą zawodzących profili (wycofywanie wykładnicze), więc OpenClaw może nadal odpowiadać nawet wtedy, gdy dostawca ogranicza częstotliwość żądań albo tymczasowo zawodzi.
Koszyk limitu częstotliwości obejmuje więcej niż zwykłe odpowiedzi 429. OpenClaw
traktuje także komunikaty takie jak Too many concurrent requests,
ThrottlingException, concurrency limit reached,
workers_ai ... quota limit exceeded, resource exhausted oraz okresowe
limity okien użycia (weekly/monthly limit reached) jako limity częstotliwości
kwalifikujące się do przełączenia awaryjnego.
Niektóre odpowiedzi wyglądające na rozliczeniowe nie są 402, a niektóre odpowiedzi HTTP 402
również pozostają w tym przejściowym koszyku. Jeśli dostawca zwróci
jawny tekst rozliczeniowy przy 401 lub 403, OpenClaw może nadal utrzymać to
w ścieżce rozliczeniowej, ale dopasowania tekstu specyficzne dla dostawcy pozostają ograniczone do
dostawcy, który je posiada (na przykład OpenRouter Key limit exceeded). Jeśli komunikat 402
wygląda natomiast jak możliwe do ponowienia okno użycia albo
limit wydatków organizacji/przestrzeni roboczej (daily limit reached, resets tomorrow,
organization spending limit exceeded), OpenClaw traktuje go jako
rate_limit, a nie długotrwałe wyłączenie rozliczeniowe.
Błędy przepełnienia kontekstu są inne: sygnatury takie jak
request_too_large, input exceeds the maximum number of tokens,
input token count exceeds the maximum number of input tokens,
input is too long for the model lub ollama error: context length exceeded pozostają na ścieżce Compaction/ponowienia zamiast uruchamiać
fallback modelu.
Ogólny tekst błędu serwera jest celowo węższy niż „cokolwiek z
unknown/error w treści”. OpenClaw rzeczywiście traktuje przejściowe kształty ograniczone do dostawcy,
takie jak surowe Anthropic An unknown error occurred, surowe OpenRouter
Provider returned error, błędy przyczyn zatrzymania takie jak Unhandled stop reason: error, ładunki JSON api_error z przejściowym tekstem serwera
(internal server error, unknown error, 520, upstream error, backend error) oraz błędy zajętości dostawcy takie jak ModelNotReadyException jako
sygnały timeout/przeciążenia kwalifikujące się do przełączenia awaryjnego, gdy kontekst dostawcy
pasuje.
Ogólny wewnętrzny tekst fallbacku, taki jak LLM request failed with an unknown error., pozostaje konserwatywny i samodzielnie nie wyzwala fallbacku modelu.
Co oznacza „No credentials found for profile anthropic:default”?
Oznacza to, że system próbował użyć identyfikatora profilu uwierzytelniania anthropic:default, ale nie mógł znaleźć dla niego poświadczeń w oczekiwanym magazynie uwierzytelniania.
Lista kontrolna naprawy:
- Potwierdź, gdzie znajdują się profile uwierzytelniania (nowe i starsze ścieżki)
- Obecnie:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - Starsze:
~/.openclaw/agent/*(migrowane przezopenclaw doctor)
- Obecnie:
- Potwierdź, że Twoja zmienna środowiskowa jest ładowana przez Gateway
- Jeśli ustawisz
ANTHROPIC_API_KEYw swojej powłoce, ale uruchamiasz Gateway przez systemd/launchd, może jej nie odziedziczyć. Umieść ją w~/.openclaw/.envalbo włączenv.shellEnv.
- Jeśli ustawisz
- Upewnij się, że edytujesz właściwego agenta
- Konfiguracje wieloagentowe oznaczają, że może istnieć wiele plików
auth-profiles.json.
- Konfiguracje wieloagentowe oznaczają, że może istnieć wiele plików
- Sprawdź stan modeli/uwierzytelniania
- Użyj
openclaw models status, aby zobaczyć skonfigurowane modele i to, czy dostawcy są uwierzytelnieni.
- Użyj
Lista kontrolna naprawy dla „No credentials found for profile anthropic”
Oznacza to, że uruchomienie jest przypięte do profilu uwierzytelniania Anthropic, ale Gateway nie może znaleźć go w swoim magazynie uwierzytelniania.
-
Użyj Claude CLI
- Uruchom
openclaw models auth login --provider anthropic --method cli --set-defaultna hoście bramy.
- Uruchom
-
Jeśli zamiast tego chcesz użyć klucza API
-
Umieść
ANTHROPIC_API_KEYw~/.openclaw/.envna hoście bramy. -
Wyczyść każdą przypiętą kolejność, która wymusza brakujący profil:
openclaw models auth order clear --provider anthropic
-
-
Potwierdź, że uruchamiasz polecenia na hoście bramy
- W trybie zdalnym profile uwierzytelniania znajdują się na maszynie bramy, a nie na Twoim laptopie.
Dlaczego spróbowano też Google Gemini i zakończyło się to niepowodzeniem?
Jeśli konfiguracja modelu obejmuje Google Gemini jako fallback (albo przełączono na skrót Gemini), OpenClaw spróbuje go podczas fallbacku modelu. Jeśli nie skonfigurowano poświadczeń Google, zobaczysz No API key found for provider "google".
Poprawka: podaj uwierzytelnianie Google albo usuń/unikaj modeli Google w agents.defaults.model.fallbacks / aliasach, aby fallback nie kierował tam ruchu.
Żądanie LLM odrzucone: wymagany podpis myślenia (Google Antigravity)
Przyczyna: historia sesji zawiera bloki myślenia bez podpisów (często z przerwanego/częściowego strumienia). Google Antigravity wymaga podpisów dla bloków myślenia.
Poprawka: OpenClaw usuwa teraz niepodpisane bloki myślenia dla Google Antigravity Claude. Jeśli problem nadal występuje, rozpocznij nową sesję albo ustaw /thinking off dla tego agenta.
Profile uwierzytelniania: czym są i jak nimi zarządzać
Powiązane: /concepts/oauth (przepływy OAuth, przechowywanie tokenów, wzorce wielu kont)
Czym jest profil uwierzytelniania?
Profil uwierzytelniania to nazwany rekord poświadczeń (OAuth lub klucz API) powiązany z dostawcą. Profile znajdują się w:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json
Aby sprawdzić zapisane profile bez wypisywania sekretów, uruchom openclaw models auth list (opcjonalnie z --provider <id> lub --json). Szczegóły znajdziesz w CLI modeli.
Jakie są typowe identyfikatory profili?
OpenClaw używa identyfikatorów z prefiksem dostawcy, takich jak:
anthropic:default(częste, gdy nie istnieje tożsamość e-mail)anthropic:<email>dla tożsamości OAuth- wybrane przez Ciebie niestandardowe identyfikatory (np.
anthropic:work)
Czy mogę kontrolować, który profil uwierzytelniania jest próbowany jako pierwszy?
Tak. Konfiguracja obsługuje opcjonalne metadane dla profili oraz kolejność dla każdego dostawcy (auth.order.<provider>). Nie przechowuje to sekretów; mapuje identyfikatory na dostawcę/tryb i ustawia kolejność rotacji.
OpenClaw może tymczasowo pominąć profil, jeśli znajduje się on w krótkim stanie cooldown (limity szybkości/limity czasu/niepowodzenia uwierzytelniania) albo w dłuższym stanie disabled (rozliczenia/niewystarczające środki). Aby to sprawdzić, uruchom openclaw models status --json i sprawdź auth.unusableProfiles. Dostrajanie: auth.cooldowns.billingBackoffHours*.
Stany cooldown limitów szybkości mogą być ograniczone do modelu. Profil, który jest w stanie cooldown dla jednego modelu, nadal może być użyteczny dla pokrewnego modelu u tego samego dostawcy, natomiast okna rozliczeniowe/wyłączenia nadal blokują cały profil.
Możesz także ustawić nadpisanie kolejności dla agenta (przechowywane w auth-state.json tego agenta) przez CLI:
# Defaults to the configured default agent (omit --agent)
openclaw models auth order get --provider anthropic
# Lock rotation to a single profile (only try this one)
openclaw models auth order set --provider anthropic anthropic:default
# Or set an explicit order (fallback within provider)
openclaw models auth order set --provider anthropic anthropic:work anthropic:default
# Clear override (fall back to config auth.order / round-robin)
openclaw models auth order clear --provider anthropic
Aby wskazać konkretnego agenta:
openclaw models auth order set --provider anthropic --agent main anthropic:default
Aby sprawdzić, co faktycznie zostanie wypróbowane, użyj:
openclaw models status --probe
Jeśli zapisany profil zostanie pominięty w jawnej kolejności, probe zgłosi
excluded_by_auth_order dla tego profilu zamiast próbować go po cichu.
OAuth a klucz API — jaka jest różnica?
OpenClaw obsługuje oba rozwiązania:
- OAuth często wykorzystuje dostęp z subskrypcji (tam, gdzie ma to zastosowanie).
- Klucze API używają rozliczania za token.
Kreator jawnie obsługuje Anthropic Claude CLI, OpenAI Codex OAuth i klucze API.