FAQ
Często zadawane pytania: konfiguracja przy pierwszym uruchomieniu
Szybki start i pytania oraz odpowiedzi dotyczące pierwszego uruchomienia. Informacje o codziennej obsłudze, modelach, uwierzytelnianiu, sesjach i rozwiązywaniu problemów znajdziesz w głównym FAQ.
Szybki start i konfiguracja pierwszego uruchomienia
Utknąłem, najszybszy sposób, żeby ruszyć dalej
Użyj lokalnego agenta AI, który może widzieć Twój komputer. To znacznie skuteczniejsze niż pytanie na Discord, ponieważ większość przypadków „utknąłem” to lokalne problemy z konfiguracją lub środowiskiem, których zdalni pomocnicy nie mogą sprawdzić.
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
Te narzędzia mogą czytać repozytorium, uruchamiać polecenia, sprawdzać logi i pomagać naprawiać konfigurację na poziomie komputera (PATH, usługi, uprawnienia, pliki uwierzytelniania). Daj im pełne pobranie źródeł przez instalację hackowalną (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
To instaluje OpenClaw z pobranego repozytorium git, więc agent może czytać kod i dokumentację oraz rozumować o dokładnej wersji, której używasz. Zawsze możesz później wrócić do wersji stabilnej, uruchamiając instalator ponownie bez --install-method git.
Wskazówka: poproś agenta, aby zaplanował i nadzorował naprawę (krok po kroku), a potem wykonywał tylko niezbędne polecenia. Dzięki temu zmiany pozostają małe i łatwiejsze do audytu.
Jeśli znajdziesz rzeczywisty błąd lub poprawkę, zgłoś problem na GitHub albo wyślij PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
Zacznij od tych poleceń (udostępnij wyniki, gdy prosisz o pomoc):
openclaw status
openclaw models status
openclaw doctor
Co robią:
openclaw status: szybki obraz stanu Gateway/agenta i podstawowej konfiguracji.openclaw models status: sprawdza uwierzytelnianie dostawców i dostępność modeli.openclaw doctor: waliduje i naprawia typowe problemy z konfiguracją/stanem.
Inne przydatne kontrole CLI: openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.
Szybka pętla debugowania: Pierwsze 60 sekund, jeśli coś jest zepsute. Dokumentacja instalacji: Instalacja, Flagi instalatora, Aktualizacja.
Heartbeat ciągle się pomija. Co oznaczają powody pominięcia?
Typowe powody pominięcia Heartbeat:
quiet-hours: poza skonfigurowanym oknem aktywnych godzinempty-heartbeat-file:HEARTBEAT.mdistnieje, ale zawiera tylko pusty/sam nagłówkowy szkieletno-tasks-due: tryb zadańHEARTBEAT.mdjest aktywny, ale żaden z interwałów zadań nie jest jeszcze wymagalnyalerts-disabled: cała widoczność Heartbeat jest wyłączona (showOk,showAlertsiuseIndicatorsą wyłączone)
W trybie zadań znaczniki czasu wymagalności są przesuwane dopiero po zakończeniu rzeczywistego uruchomienia Heartbeat. Pominięte uruchomienia nie oznaczają zadań jako ukończonych.
Dokumentacja: Heartbeat, Automatyzacja i zadania.
Zalecany sposób instalacji i konfiguracji OpenClaw
Repozytorium zaleca uruchamianie ze źródeł i użycie onboardingu:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
Kreator może też automatycznie zbudować zasoby UI. Po onboardingu zwykle uruchamiasz Gateway na porcie 18789.
Ze źródeł (kontrybutorzy/dev):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
Jeśli nie masz jeszcze instalacji globalnej, uruchom ją przez pnpm openclaw onboard.
Jak otworzyć pulpit po onboardingu?
Kreator otwiera przeglądarkę z czystym (bez tokenu w URL) adresem pulpitu od razu po onboardingu i wypisuje też link w podsumowaniu. Zostaw tę kartę otwartą; jeśli się nie uruchomiła, skopiuj/wklej wypisany URL na tym samym komputerze.
Jak uwierzytelnić pulpit na localhost i zdalnie?
Localhost (ten sam komputer):
- Otwórz
http://127.0.0.1:18789/. - Jeśli poprosi o uwierzytelnianie wspólnym sekretem, wklej skonfigurowany token lub hasło w ustawieniach Control UI.
- Źródło tokenu:
gateway.auth.token(lubOPENCLAW_GATEWAY_TOKEN). - Źródło hasła:
gateway.auth.password(lubOPENCLAW_GATEWAY_PASSWORD). - Jeśli wspólny sekret nie jest jeszcze skonfigurowany, wygeneruj token poleceniem
openclaw doctor --generate-gateway-token.
Nie na localhost:
- Tailscale Serve (zalecane): zachowaj wiązanie z loopback, uruchom
openclaw gateway --tailscale serve, otwórzhttps://<magicdns>/. Jeśligateway.auth.allowTailscalema wartośćtrue, nagłówki tożsamości spełniają uwierzytelnianie Control UI/WebSocket (bez wklejanego wspólnego sekretu, przy założeniu zaufanego hosta Gateway); HTTP API nadal wymagają uwierzytelniania wspólnym sekretem, chyba że celowo użyjesz prywatnego wejścianonealbo uwierzytelniania HTTP przez zaufane proxy. Nieudane równoczesne próby uwierzytelniania Serve od tego samego klienta są serializowane, zanim limiter nieudanego uwierzytelniania je zarejestruje, więc druga błędna ponowna próba może już pokazaćretry later. - Wiązanie Tailnet: uruchom
openclaw gateway --bind tailnet --token "<token>"(albo skonfiguruj uwierzytelnianie hasłem), otwórzhttp://<tailscale-ip>:18789/, a następnie wklej pasujący wspólny sekret w ustawieniach pulpitu. - Reverse proxy świadome tożsamości: trzymaj Gateway za zaufanym proxy, skonfiguruj
gateway.auth.mode: "trusted-proxy", a potem otwórz URL proxy. Proxy loopback na tym samym hoście wymagają jawnegogateway.auth.trustedProxy.allowLoopback = true. - Tunel SSH:
ssh -N -L 18789:127.0.0.1:18789 user@host, a potem otwórzhttp://127.0.0.1:18789/. Uwierzytelnianie wspólnym sekretem nadal obowiązuje przez tunel; wklej skonfigurowany token lub hasło, jeśli pojawi się monit.
Zobacz Pulpit i Powierzchnie webowe, aby poznać tryby wiązania i szczegóły uwierzytelniania.
Dlaczego istnieją dwie konfiguracje zatwierdzania exec dla zatwierdzeń na czacie?
Sterują różnymi warstwami:
approvals.exec: przekazuje monity zatwierdzeń do miejsc docelowych czatuchannels.<channel>.execApprovals: sprawia, że ten kanał działa jako natywny klient zatwierdzeń dla zatwierdzeń exec
Polityka exec hosta nadal jest rzeczywistą bramką zatwierdzeń. Konfiguracja czatu kontroluje tylko, gdzie pojawiają się monity zatwierdzeń i jak ludzie mogą na nie odpowiadać.
W większości konfiguracji nie potrzebujesz obu:
- Jeśli czat obsługuje już polecenia i odpowiedzi,
/approvena tym samym czacie działa przez wspólną ścieżkę. - Jeśli obsługiwany natywny kanał może bezpiecznie wywnioskować osoby zatwierdzające, OpenClaw automatycznie włącza teraz natywne zatwierdzenia DM-first, gdy
channels.<channel>.execApprovals.enablednie jest ustawione albo ma wartość"auto". - Gdy dostępne są natywne karty/przyciski zatwierdzania, ten natywny UI jest główną ścieżką; agent powinien zawierać ręczne polecenie
/approvetylko wtedy, gdy wynik narzędzia mówi, że zatwierdzenia na czacie są niedostępne albo ręczne zatwierdzenie jest jedyną ścieżką. - Używaj
approvals.exectylko wtedy, gdy monity muszą być także przekazywane do innych czatów lub jawnych pokojów operacyjnych. - Używaj
channels.<channel>.execApprovals.target: "channel"albo"both"tylko wtedy, gdy jawnie chcesz publikować monity zatwierdzeń z powrotem w pierwotnym pokoju/wątku. - Zatwierdzenia Pluginów są znów oddzielne: domyślnie używają
/approvena tym samym czacie, opcjonalnego przekazywaniaapprovals.plugin, a tylko niektóre kanały natywne zachowują obsługę plugin-approval-native na wierzchu.
Krótko: przekazywanie służy do routingu, konfiguracja natywnego klienta do bogatszego UX specyficznego dla kanału. Zobacz Zatwierdzenia Exec.
Jakiego runtime potrzebuję?
Wymagany jest Node >= 22. Zalecany jest pnpm. Bun nie jest zalecany dla Gateway.
Czy działa na Raspberry Pi?
Tak. Gateway jest lekki — dokumentacja podaje 512MB-1GB RAM, 1 rdzeń i około 500MB miejsca na dysku jako wystarczające do użytku osobistego oraz zaznacza, że Raspberry Pi 4 może go uruchomić.
Jeśli chcesz mieć dodatkowy zapas (logi, media, inne usługi), zalecane są 2GB, ale nie jest to twarde minimum.
Wskazówka: mały Pi/VPS może hostować Gateway, a Ty możesz parować węzły na laptopie/telefonie dla lokalnego ekranu/kamery/canvas albo wykonywania poleceń. Zobacz Węzły.
Jakieś wskazówki dotyczące instalacji na Raspberry Pi?
Krótko: działa, ale spodziewaj się niedociągnięć.
- Użyj systemu operacyjnego 64-bit i utrzymuj Node >= 22.
- Preferuj instalację hackowalną (git), aby móc widzieć logi i szybko aktualizować.
- Zacznij bez kanałów/Skills, a potem dodawaj je pojedynczo.
- Jeśli trafisz na dziwne problemy binarne, zwykle jest to problem ze zgodnością ARM.
Dokumentacja: Linux, Instalacja.
Utknęło na wake up my friend / onboarding się nie wykluwa. Co teraz?
Ten ekran zależy od tego, czy Gateway jest osiągalny i uwierzytelniony. TUI wysyła też automatycznie „Wake up, my friend!” przy pierwszym wykluciu. Jeśli widzisz tę linię bez odpowiedzi, a tokeny pozostają na 0, agent nigdy się nie uruchomił.
- Uruchom ponownie Gateway:
openclaw gateway restart
- Sprawdź status i uwierzytelnianie:
openclaw status
openclaw models status
openclaw logs --follow
- Jeśli nadal się zawiesza, uruchom:
openclaw doctor
Jeśli Gateway jest zdalny, upewnij się, że tunel/połączenie Tailscale działa i że UI wskazuje właściwy Gateway. Zobacz Dostęp zdalny.
Czy mogę przenieść konfigurację na nowy komputer (Mac mini) bez ponownego onboardingu?
Tak. Skopiuj katalog stanu i workspace, a potem uruchom Doctor raz. To zachowuje Twojego bota „dokładnie takiego samego” (pamięć, historię sesji, uwierzytelnianie i stan kanałów), o ile skopiujesz obie lokalizacje:
- Zainstaluj OpenClaw na nowym komputerze.
- Skopiuj
$OPENCLAW_STATE_DIR(domyślnie:~/.openclaw) ze starego komputera. - Skopiuj swój workspace (domyślnie:
~/.openclaw/workspace). - Uruchom
openclaw doctori zrestartuj usługę Gateway.
To zachowuje konfigurację, profile uwierzytelniania, dane uwierzytelniające WhatsApp, sesje i pamięć. Jeśli jesteś w trybie zdalnym, pamiętaj, że host Gateway posiada magazyn sesji i workspace.
Ważne: jeśli tylko commitujesz/pushujesz swój workspace do GitHub, tworzysz kopię zapasową pamięci i plików bootstrap, ale nie historii sesji ani uwierzytelniania. One znajdują się pod ~/.openclaw/ (na przykład ~/.openclaw/agents/<agentId>/sessions/).
Powiązane: Migracja, Gdzie rzeczy znajdują się na dysku, Workspace agenta, Doctor, Tryb zdalny.
Gdzie zobaczę, co nowego jest w najnowszej wersji?
Sprawdź changelog na GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Najnowsze wpisy są na górze. Jeśli górna sekcja jest oznaczona jako Unreleased, następna sekcja z datą jest najnowszą wydaną wersją. Wpisy są pogrupowane według Highlights, Changes i Fixes (oraz sekcji dokumentacji/innych, gdy są potrzebne).
Nie mogę uzyskać dostępu do docs.openclaw.ai (błąd SSL)
Niektóre połączenia Comcast/Xfinity błędnie blokują docs.openclaw.ai przez Xfinity Advanced Security. Wyłącz to albo dodaj docs.openclaw.ai do listy dozwolonych, a potem spróbuj ponownie.
Pomóż nam to odblokować, zgłaszając tutaj: https://spa.xfinity.com/check_url_status.
Jeśli nadal nie możesz dotrzeć do strony, dokumentacja jest zdublowana na GitHubie: https://github.com/openclaw/openclaw/tree/main/docs
Różnica między stable a beta
Stable i beta to npm dist-tags, a nie oddzielne linie kodu:
latest= stablebeta= wczesna kompilacja do testowania
Zwykle wydanie stable najpierw trafia na beta, a potem jawny krok
promocji przenosi tę samą wersję do latest. Maintainerzy mogą też
publikować bezpośrednio do latest, gdy jest to potrzebne. Dlatego beta i stable mogą
wskazywać na tę samą wersję po promocji.
Zobacz, co się zmieniło: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Jednowierszowe polecenia instalacji oraz różnicę między beta i dev znajdziesz w akordeonie poniżej.
Jak zainstalować wersję beta i jaka jest różnica między beta a dev?
Beta to npm dist-tag beta (po promocji może odpowiadać latest).
Dev to ruchoma głowica main (git); po opublikowaniu używa npm dist-tag dev.
Jednowierszowe polecenia (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Instalator Windows (PowerShell): https://openclaw.ai/install.ps1
Więcej szczegółów: Kanały rozwojowe i Flagi instalatora.
Jak wypróbować najnowsze bity?
Dwie opcje:
- Kanał dev (git checkout):
openclaw update --channel dev
To przełącza na gałąź main i aktualizuje ze źródeł.
- Instalacja do modyfikacji (ze strony instalatora):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Dzięki temu otrzymasz lokalne repo, które możesz edytować, a potem aktualizować przez git.
Jeśli wolisz ręcznie wykonać czysty clone, użyj:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
Dokumentacja: Aktualizacja, Kanały rozwojowe, Instalacja.
Ile zwykle trwa instalacja i onboarding?
Orientacyjnie:
- Instalacja: 2-5 minut
- Onboarding: 5-15 minut w zależności od liczby konfigurowanych kanałów/modeli
Jeśli proces się zawiesza, użyj Instalator utknął oraz szybkiej pętli debugowania w Utknąłem.
Instalator utknął? Jak uzyskać więcej informacji zwrotnych?
Uruchom instalator ponownie z pełnym wyjściem:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Instalacja beta z pełnym wyjściem:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Dla instalacji do modyfikacji (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Odpowiednik dla Windows (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
Więcej opcji: Flagi instalatora.
Instalacja w Windows mówi, że nie znaleziono git albo openclaw nie jest rozpoznawany
Dwa częste problemy w Windows:
1) błąd npm spawn git / nie znaleziono git
- Zainstaluj Git for Windows i upewnij się, że
gitjest w PATH. - Zamknij i ponownie otwórz PowerShell, a potem uruchom instalator ponownie.
2) openclaw nie jest rozpoznawany po instalacji
-
Globalny folder bin npm nie jest w PATH.
-
Sprawdź ścieżkę:
npm config get prefix -
Dodaj ten katalog do PATH użytkownika (w Windows nie jest potrzebny sufiks
\bin; w większości systemów jest to%AppData%\npm). -
Zamknij i ponownie otwórz PowerShell po aktualizacji PATH.
Jeśli chcesz najpłynniejszą konfigurację w Windows, użyj WSL2 zamiast natywnego Windows. Dokumentacja: Windows.
Wyjście exec w Windows pokazuje zniekształcony chiński tekst - co zrobić?
To zwykle niedopasowanie strony kodowej konsoli w natywnych powłokach Windows.
Objawy:
- wyjście
system.run/execrenderuje chiński jako mojibake - To samo polecenie wygląda poprawnie w innym profilu terminala
Szybkie obejście w PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
Następnie uruchom ponownie Gateway i ponów polecenie:
openclaw gateway restart
Jeśli nadal możesz odtworzyć to w najnowszym OpenClaw, śledź/zgłoś to tutaj:
Dokumentacja nie odpowiedziała na moje pytanie - jak uzyskać lepszą odpowiedź?
Użyj instalacji do modyfikacji (git), aby mieć pełne źródła i dokumentację lokalnie, a potem zapytaj swojego bota (albo Claude/Codex) z tego folderu, aby mógł odczytać repo i odpowiedzieć precyzyjnie.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Więcej szczegółów: Instalacja i Flagi instalatora.
Jak zainstalować OpenClaw na Linuxie?
Krótka odpowiedź: postępuj zgodnie z przewodnikiem dla Linuxa, a potem uruchom onboarding.
- Szybka ścieżka dla Linuxa + instalacja usługi: Linux.
- Pełny przewodnik: Pierwsze kroki.
- Instalator + aktualizacje: Instalacja i aktualizacje.
Jak zainstalować OpenClaw na VPS?
Działa dowolny VPS z Linuxem. Zainstaluj na serwerze, a potem użyj SSH/Tailscale, aby dotrzeć do Gateway.
Przewodniki: exe.dev, Hetzner, Fly.io. Dostęp zdalny: Zdalny Gateway.
Gdzie są przewodniki instalacji w chmurze/VPS?
Utrzymujemy centrum hostingu z popularnymi dostawcami. Wybierz jednego i postępuj zgodnie z przewodnikiem:
- Hosting VPS (wszyscy dostawcy w jednym miejscu)
- Fly.io
- Hetzner
- exe.dev
Jak to działa w chmurze: Gateway działa na serwerze, a dostęp uzyskujesz z laptopa/telefonu przez Control UI (albo Tailscale/SSH). Twój stan + workspace znajdują się na serwerze, więc traktuj host jako źródło prawdy i wykonuj jego kopie zapasowe.
Możesz sparować węzły (Mac/iOS/Android/headless) z tym chmurowym Gateway, aby uzyskać dostęp do lokalnego ekranu/kamery/canvas albo uruchamiać polecenia na laptopie, utrzymując Gateway w chmurze.
Centrum: Platformy. Dostęp zdalny: Zdalny Gateway. Węzły: Węzły, CLI węzłów.
Czy mogę poprosić OpenClaw, aby zaktualizował się sam?
Krótka odpowiedź: możliwe, niezalecane. Przepływ aktualizacji może ponownie uruchomić Gateway (co zrywa aktywną sesję), może wymagać czystego checkoutu git i może poprosić o potwierdzenie. Bezpieczniej: uruchamiaj aktualizacje z powłoki jako operator.
Użyj CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Jeśli musisz automatyzować z agenta:
openclaw update --yes --no-restart
openclaw gateway restart
Dokumentacja: Aktualizacja, Aktualizowanie.
Co właściwie robi onboarding?
openclaw onboard to zalecana ścieżka konfiguracji. W trybie lokalnym prowadzi przez:
- Konfigurację modelu/uwierzytelniania (OAuth dostawcy, klucze API, setup-token Anthropic oraz opcje modeli lokalnych, takie jak LM Studio)
- Lokalizację workspace + pliki bootstrap
- Ustawienia Gateway (bind/port/auth/tailscale)
- Kanały (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage oraz dołączone pluginy kanałów, takie jak QQ Bot)
- Instalację daemona (LaunchAgent na macOS; jednostka użytkownika systemd na Linux/WSL2)
- Kontrole zdrowia i wybór skills
Ostrzega również, jeśli skonfigurowany model jest nieznany albo brakuje uwierzytelniania.
Czy potrzebuję subskrypcji Claude albo OpenAI, aby to uruchomić?
Nie. Możesz uruchamiać OpenClaw z kluczami API (Anthropic/OpenAI/inni) albo z wyłącznie lokalnymi modelami, aby Twoje dane pozostały na Twoim urządzeniu. Subskrypcje (Claude Pro/Max albo OpenAI Codex) to opcjonalne sposoby uwierzytelniania tych dostawców.
Dla Anthropic w OpenClaw praktyczny podział wygląda tak:
- Klucz API Anthropic: normalne rozliczanie API Anthropic
- Claude CLI / uwierzytelnianie subskrypcji Claude w OpenClaw: pracownicy Anthropic
powiedzieli nam, że to użycie jest ponownie dozwolone, a OpenClaw traktuje użycie
claude -pjako zatwierdzone dla tej integracji, chyba że Anthropic opublikuje nową politykę
Dla długotrwałych hostów Gateway klucze API Anthropic nadal są bardziej przewidywalną konfiguracją. OpenAI Codex OAuth jest jawnie obsługiwany dla zewnętrznych narzędzi takich jak OpenClaw.
OpenClaw obsługuje także inne hostowane opcje w stylu subskrypcji, w tym Qwen Cloud Coding Plan, MiniMax Coding Plan oraz Z.AI / GLM Coding Plan.
Dokumentacja: Anthropic, OpenAI, Qwen Cloud, MiniMax, Modele GLM, Modele lokalne, Modele.
Czy mogę używać subskrypcji Claude Max bez klucza API?
Tak.
Pracownicy Anthropic powiedzieli nam, że użycie Claude CLI w stylu OpenClaw jest ponownie dozwolone, więc
OpenClaw traktuje uwierzytelnianie subskrypcji Claude i użycie claude -p jako zatwierdzone
dla tej integracji, chyba że Anthropic opublikuje nową politykę. Jeśli chcesz
najbardziej przewidywalną konfigurację po stronie serwera, zamiast tego użyj klucza API Anthropic.
Czy obsługujecie uwierzytelnianie subskrypcji Claude (Claude Pro lub Max)?
Tak.
Pracownicy Anthropic powiedzieli nam, że to użycie jest ponownie dozwolone, więc OpenClaw traktuje
ponowne użycie Claude CLI i użycie claude -p jako zatwierdzone dla tej integracji,
chyba że Anthropic opublikuje nową politykę.
Anthropic setup-token nadal jest dostępny jako obsługiwana ścieżka tokenu OpenClaw, ale OpenClaw obecnie preferuje ponowne użycie Claude CLI i claude -p, gdy są dostępne.
Dla produkcyjnych albo wieloużytkownikowych obciążeń uwierzytelnianie kluczem API Anthropic nadal jest
bezpieczniejszym, bardziej przewidywalnym wyborem. Jeśli chcesz innych hostowanych
opcji w stylu subskrypcji w OpenClaw, zobacz OpenAI, Qwen / Model
Cloud, MiniMax i Modele GLM.
Dlaczego widzę HTTP 429 rate_limit_error od Anthropic?
To oznacza, że Twój limit quota/rate Anthropic został wyczerpany dla bieżącego okna. Jeśli używasz Claude CLI, poczekaj na zresetowanie okna albo przejdź na wyższy plan. Jeśli używasz klucza API Anthropic, sprawdź Anthropic Console pod kątem użycia/rozliczeń i podnieś limity w razie potrzeby.
Jeśli komunikat brzmi dokładnie:
Extra usage is required for long context requests, żądanie próbuje użyć
wersji beta kontekstu 1M Anthropic (context1m: true). Działa to tylko wtedy, gdy Twoje
dane uwierzytelniające kwalifikują się do rozliczania długiego kontekstu (rozliczanie kluczem API albo
ścieżka logowania Claude w OpenClaw z włączonym Extra Usage).
Wskazówka: ustaw model awaryjny, aby OpenClaw mógł nadal odpowiadać, gdy dostawca ma ograniczenie liczby żądań. Zobacz Modele, OAuth oraz /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
Czy AWS Bedrock jest obsługiwany?
Tak. OpenClaw ma wbudowanego dostawcę Amazon Bedrock (Converse). Gdy obecne są znaczniki środowiskowe AWS, OpenClaw może automatycznie wykryć katalog streaming/tekst Bedrock i scalić go jako niejawnego dostawcę amazon-bedrock; w przeciwnym razie możesz jawnie włączyć plugins.entries.amazon-bedrock.config.discovery.enabled albo dodać ręczny wpis dostawcy. Zobacz Amazon Bedrock oraz Dostawcy modeli. Jeśli wolisz zarządzany przepływ klucza, proxy zgodne z OpenAI przed Bedrock nadal jest poprawną opcją.
Jak działa uwierzytelnianie Codex?
OpenClaw obsługuje OpenAI Code (Codex) przez OAuth (logowanie ChatGPT). Użyj
openai/gpt-5.5 z agentRuntime.id: "codex" dla typowej konfiguracji:
uwierzytelnianie subskrypcją ChatGPT/Codex plus natywne wykonywanie przez serwer aplikacji Codex. Użyj
openai-codex/gpt-5.5 tylko wtedy, gdy chcesz użyć Codex OAuth przez domyślny
runner PI. Użyj openai/gpt-5.5 bez nadpisania runtime Codex dla
bezpośredniego dostępu przez klucz API OpenAI.
Zobacz Dostawcy modeli oraz Onboarding (CLI).
Dlaczego OpenClaw nadal wspomina openai-codex?
openai-codex to identyfikator dostawcy i profilu uwierzytelniania dla ChatGPT/Codex OAuth.
To także jawny prefiks modelu PI dla Codex OAuth:
openai/gpt-5.5+agentRuntime.id: "codex"= uwierzytelnianie subskrypcją ChatGPT/Codex z natywnym runtime Codexopenai-codex/gpt-5.5= ścieżka Codex OAuth w PIopenai/gpt-5.5bez nadpisania runtime Codex = bezpośrednia ścieżka klucza API OpenAI w PIopenai-codex:...= identyfikator profilu uwierzytelniania, nie odwołanie do modelu
Jeśli chcesz używać bezpośredniej ścieżki rozliczeń/limitów OpenAI Platform, ustaw
OPENAI_API_KEY. Jeśli chcesz uwierzytelnianie subskrypcją ChatGPT/Codex, zaloguj się przez
openclaw models auth login --provider openai-codex. Dla natywnego runtime Codex
zachowaj odwołanie do modelu jako openai/gpt-5.5 i ustaw
agentRuntime.id: "codex". Odwołań do modeli openai-codex/* używaj tylko dla uruchomień
PI.
Dlaczego limity Codex OAuth mogą się różnić od ChatGPT w przeglądarce?
Codex OAuth używa zarządzanych przez OpenAI okien limitów zależnych od planu. W praktyce te limity mogą różnić się od doświadczenia na stronie/aplikacji ChatGPT, nawet gdy oba są powiązane z tym samym kontem.
OpenClaw może pokazać aktualnie widoczne okna użycia/limitów dostawcy w
openclaw models status, ale nie wymyśla ani nie normalizuje uprawnień ChatGPT-web
do bezpośredniego dostępu API. Jeśli chcesz używać bezpośredniej ścieżki
rozliczeń/limitów OpenAI Platform, użyj openai/* z kluczem API.
Czy obsługujecie uwierzytelnianie subskrypcją OpenAI (Codex OAuth)?
Tak. OpenClaw w pełni obsługuje subskrypcyjne OAuth OpenAI Code (Codex). OpenAI jawnie pozwala na użycie subskrypcyjnego OAuth w zewnętrznych narzędziach/przepływach pracy takich jak OpenClaw. Onboarding może uruchomić przepływ OAuth za Ciebie.
Zobacz OAuth, Dostawcy modeli oraz Onboarding (CLI).
Jak skonfigurować Gemini CLI OAuth?
Gemini CLI używa przepływu uwierzytelniania Plugin, a nie identyfikatora klienta ani sekretu w openclaw.json.
Kroki:
- Zainstaluj Gemini CLI lokalnie, aby
geminibyło wPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Włącz Plugin:
openclaw plugins enable google - Zaloguj się:
openclaw models auth login --provider google-gemini-cli --set-default - Domyślny model po zalogowaniu:
google-gemini-cli/gemini-3-flash-preview - Jeśli żądania zawodzą, ustaw
GOOGLE_CLOUD_PROJECTlubGOOGLE_CLOUD_PROJECT_IDna hoście Gateway
To zapisuje tokeny OAuth w profilach uwierzytelniania na hoście Gateway. Szczegóły: Dostawcy modeli.
Czy model lokalny nadaje się do zwykłych rozmów?
Zwykle nie. OpenClaw potrzebuje dużego kontekstu i silnego bezpieczeństwa; małe karty obcinają i ujawniają dane. Jeśli musisz, uruchom lokalnie największą kompilację modelu, jaką możesz (LM Studio), i zobacz /gateway/local-models. Mniejsze/skwantyzowane modele zwiększają ryzyko prompt injection - zobacz Bezpieczeństwo.
Jak utrzymać ruch hostowanego modelu w konkretnym regionie?
Wybierz endpointy przypięte do regionu. OpenRouter udostępnia opcje hostowane w USA dla MiniMax, Kimi i GLM; wybierz wariant hostowany w USA, aby utrzymać dane w regionie. Nadal możesz wymienić Anthropic/OpenAI obok nich, używając models.mode: "merge", aby modele awaryjne pozostały dostępne przy jednoczesnym respektowaniu wybranego dostawcy regionalnego.
Czy muszę kupić Mac Mini, aby to zainstalować?
Nie. OpenClaw działa na macOS lub Linux (Windows przez WSL2). Mac mini jest opcjonalny - niektórzy kupują go jako zawsze włączony host, ale mały VPS, serwer domowy albo urządzenie klasy Raspberry Pi też działa.
Mac jest potrzebny tylko do narzędzi dostępnych wyłącznie na macOS. Dla iMessage użyj BlueBubbles (zalecane) - serwer BlueBubbles działa na dowolnym Macu, a Gateway może działać na Linux lub gdzie indziej. Jeśli chcesz używać innych narzędzi dostępnych wyłącznie na macOS, uruchom Gateway na Macu albo sparuj węzeł macOS.
Dokumentacja: BlueBubbles, Węzły, Tryb zdalny Mac.
Czy potrzebuję Mac mini do obsługi iMessage?
Potrzebujesz jakiegoś urządzenia macOS zalogowanego w Wiadomościach. To nie musi być Mac mini - dowolny Mac wystarczy. Użyj BlueBubbles (zalecane) dla iMessage - serwer BlueBubbles działa na macOS, a Gateway może działać na Linux lub gdzie indziej.
Typowe konfiguracje:
- Uruchom Gateway na Linux/VPS, a serwer BlueBubbles na dowolnym Macu zalogowanym w Wiadomościach.
- Uruchom wszystko na Macu, jeśli chcesz najprostszą konfigurację na jednej maszynie.
Dokumentacja: BlueBubbles, Węzły, Tryb zdalny Mac.
Jeśli kupię Mac mini do uruchamiania OpenClaw, czy mogę połączyć go z moim MacBook Pro?
Tak. Mac mini może uruchamiać Gateway, a Twój MacBook Pro może połączyć się jako
węzeł (urządzenie towarzyszące). Węzły nie uruchamiają Gateway - dostarczają dodatkowe
możliwości, takie jak ekran/kamera/canvas oraz system.run na tym urządzeniu.
Typowy wzorzec:
- Gateway na Mac mini (zawsze włączony).
- MacBook Pro uruchamia aplikację macOS albo host węzła i paruje się z Gateway.
- Użyj
openclaw nodes status/openclaw nodes list, aby go zobaczyć.
Dokumentacja: Węzły, CLI węzłów.
Czy mogę używać Bun?
Bun nie jest zalecany. Widzimy błędy runtime, zwłaszcza z WhatsApp i Telegram. Używaj Node dla stabilnych Gateway.
Jeśli nadal chcesz eksperymentować z Bun, rób to na nieprodukcyjnym Gateway bez WhatsApp/Telegram.
Telegram: co wpisać w allowFrom?
channels.telegram.allowFrom to identyfikator użytkownika Telegram nadawcy-człowieka (numeryczny). To nie jest nazwa użytkownika bota.
Konfiguracja prosi wyłącznie o numeryczne identyfikatory użytkowników. Jeśli masz już starsze wpisy @username w konfiguracji, openclaw doctor --fix może spróbować je rozwiązać.
Bezpieczniej (bez bota zewnętrznego):
- Wyślij DM do swojego bota, a potem uruchom
openclaw logs --followi odczytajfrom.id.
Oficjalne Bot API:
- Wyślij DM do swojego bota, a potem wywołaj
https://api.telegram.org/bot<bot_token>/getUpdatesi odczytajmessage.from.id.
Zewnętrzne (mniej prywatne):
- Wyślij DM do
@userinfobotalbo@getidsbot.
Zobacz /channels/telegram.
Czy wiele osób może używać jednego numeru WhatsApp z różnymi instancjami OpenClaw?
Tak, przez routing wielu agentów. Powiąż DM WhatsApp każdego nadawcy (peer kind: "direct", nadawca E.164, np. +15551234567) z innym agentId, aby każda osoba dostała własny obszar roboczy i magazyn sesji. Odpowiedzi nadal wychodzą z tego samego konta WhatsApp, a kontrola dostępu DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) jest globalna dla konta WhatsApp. Zobacz Routing wielu agentów oraz WhatsApp.
Czy mogę uruchomić agenta do „szybkiego czatu” i agenta „Opus do kodowania”?
Tak. Użyj routingu wielu agentów: nadaj każdemu agentowi własny domyślny model, a potem powiąż trasy przychodzące (konto dostawcy albo konkretne peery) z każdym agentem. Przykładowa konfiguracja znajduje się w Routing wielu agentów. Zobacz też Modele oraz Konfiguracja.
Czy Homebrew działa na Linux?
Tak. Homebrew obsługuje Linux (Linuxbrew). Szybka konfiguracja:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
Jeśli uruchamiasz OpenClaw przez systemd, upewnij się, że PATH usługi zawiera /home/linuxbrew/.linuxbrew/bin (albo Twój prefiks brew), aby narzędzia zainstalowane przez brew były rozwiązywane w powłokach nielogowania.
Najnowsze kompilacje dodają też na początku typowe katalogi bin użytkownika w usługach Linux systemd (na przykład ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) i respektują PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR oraz FNM_DIR, gdy są ustawione.
Różnica między hakowalną instalacją git a instalacją npm
- Hakowalna instalacja (git): pełny checkout źródeł, edytowalny, najlepszy dla kontrybutorów. Uruchamiasz kompilacje lokalnie i możesz poprawiać kod/dokumentację.
- Instalacja npm: globalna instalacja CLI, bez repozytorium, najlepsza do „po prostu uruchom”. Aktualizacje pochodzą z dist-tagów npm.
Dokumentacja: Pierwsze kroki, Aktualizacja.
Czy mogę później przełączać się między instalacjami npm i git?
Tak. Użyj openclaw update --channel ..., gdy OpenClaw jest już zainstalowany.
To nie usuwa Twoich danych - zmienia tylko instalację kodu OpenClaw.
Twój stan (~/.openclaw) i obszar roboczy (~/.openclaw/workspace) pozostają nietknięte.
Z npm na git:
openclaw update --channel dev
Z git na npm:
openclaw update --channel stable
Dodaj --dry-run, aby najpierw podejrzeć planowaną zmianę trybu. Aktualizator uruchamia
działania następcze Doctor, odświeża źródła Plugin dla kanału docelowego i
restartuje Gateway, chyba że przekażesz --no-restart.
Instalator też może wymusić dowolny tryb:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
Wskazówki dotyczące kopii zapasowej: zobacz Strategia kopii zapasowej.
Czy uruchomić Gateway na laptopie czy na VPS?
Krótka odpowiedź: jeśli chcesz niezawodności 24/7, użyj VPS. Jeśli zależy Ci na najmniejszym tarciu i akceptujesz uśpienie/restarty, uruchom go lokalnie.
Laptop (lokalny Gateway)
- Zalety: brak kosztu serwera, bezpośredni dostęp do plików lokalnych, aktywne okno przeglądarki.
- Wady: uśpienie/problemy z siecią = rozłączenia, aktualizacje/restarty systemu przerywają pracę, urządzenie musi pozostać aktywne.
VPS / chmura
- Zalety: zawsze włączony, stabilna sieć, brak problemów z uśpieniem laptopa, łatwiejsze utrzymanie działania.
- Wady: często działa bez interfejsu graficznego (używaj zrzutów ekranu), tylko zdalny dostęp do plików, aktualizacje wymagają SSH.
Uwaga dotycząca OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord działają poprawnie z VPS. Jedyny realny kompromis to przeglądarka bez interfejsu graficznego kontra widoczne okno. Zobacz Przeglądarka.
Zalecane ustawienie domyślne: VPS, jeśli wcześniej występowały rozłączenia gateway. Lokalnie sprawdza się świetnie, gdy aktywnie używasz Maca i chcesz mieć dostęp do plików lokalnych albo automatyzację UI z widoczną przeglądarką.
Jak ważne jest uruchamianie OpenClaw na dedykowanej maszynie?
Nie jest wymagane, ale zalecane ze względu na niezawodność i izolację.
- Dedykowany host (VPS/Mac mini/Pi): zawsze włączony, mniej przerw przez uśpienie/restart, czystsze uprawnienia, łatwiejsze utrzymanie działania.
- Współdzielony laptop/komputer stacjonarny: całkowicie wystarczający do testów i aktywnego użycia, ale spodziewaj się przerw, gdy maszyna przejdzie w uśpienie lub zainstaluje aktualizacje.
Jeśli chcesz połączyć oba podejścia, utrzymuj Gateway na dedykowanym hoście i sparuj laptop jako węzeł dla narzędzi lokalnego ekranu/kamery/wykonywania poleceń. Zobacz Węzły. Wskazówki dotyczące bezpieczeństwa znajdziesz w Bezpieczeństwo.
Jakie są minimalne wymagania VPS i zalecany system operacyjny?
OpenClaw jest lekki. Dla podstawowego Gateway + jednego kanału czatu:
- Bezwzględne minimum: 1 vCPU, 1 GB RAM, około 500 MB dysku.
- Zalecane: 1-2 vCPU, 2 GB RAM lub więcej jako zapas (logi, multimedia, wiele kanałów). Narzędzia Node i automatyzacja przeglądarki mogą wymagać dużo zasobów.
System operacyjny: użyj Ubuntu LTS (lub dowolnego nowoczesnego Debian/Ubuntu). Ścieżka instalacji dla Linuksa jest tam najlepiej przetestowana.
Dokumentacja: Linux, Hosting VPS.
Czy mogę uruchomić OpenClaw w maszynie wirtualnej i jakie są wymagania?
Tak. Traktuj maszynę wirtualną tak samo jak VPS: musi być zawsze włączona, osiągalna i mieć wystarczającą ilość RAM dla Gateway oraz wszystkich włączonych kanałów.
Wytyczne bazowe:
- Bezwzględne minimum: 1 vCPU, 1 GB RAM.
- Zalecane: 2 GB RAM lub więcej, jeśli uruchamiasz wiele kanałów, automatyzację przeglądarki lub narzędzia multimedialne.
- System operacyjny: Ubuntu LTS lub inny nowoczesny Debian/Ubuntu.
Jeśli używasz Windows, WSL2 to najłatwiejsza konfiguracja w stylu maszyny wirtualnej i zapewnia najlepszą zgodność narzędzi. Zobacz Windows, Hosting VPS. Jeśli uruchamiasz macOS w maszynie wirtualnej, zobacz Maszyna wirtualna macOS.
Powiązane
- FAQ — główne FAQ (modele, sesje, gateway, bezpieczeństwo i więcej)
- Omówienie instalacji
- Pierwsze kroki
- Rozwiązywanie problemów