FAQ
Câu hỏi thường gặp: thiết lập lần đầu
Hỏi đáp khởi động nhanh và lần chạy đầu tiên. Với các thao tác hằng ngày, mô hình, xác thực, phiên, và khắc phục sự cố, hãy xem FAQ chính.
Khởi động nhanh và thiết lập lần chạy đầu tiên
Tôi bị kẹt, cách nhanh nhất để thoát kẹt
Hãy dùng một tác nhân AI cục bộ có thể nhìn thấy máy của bạn. Cách này hiệu quả hơn nhiều so với hỏi trên Discord, vì hầu hết các trường hợp "tôi bị kẹt" là vấn đề cấu hình cục bộ hoặc môi trường mà người hỗ trợ từ xa không thể kiểm tra.
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
Các công cụ này có thể đọc repo, chạy lệnh, kiểm tra log, và giúp sửa phần thiết lập ở cấp máy (PATH, dịch vụ, quyền, tệp xác thực). Hãy cung cấp cho chúng bản checkout mã nguồn đầy đủ qua cài đặt có thể chỉnh sửa (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Cách này cài OpenClaw từ một checkout git, nên tác nhân có thể đọc mã + tài liệu và
suy luận về đúng phiên bản bạn đang chạy. Bạn luôn có thể chuyển lại về bản ổn định sau
bằng cách chạy lại trình cài đặt mà không có --install-method git.
Mẹo: hãy yêu cầu tác nhân lập kế hoạch và giám sát bản sửa (từng bước), rồi chỉ thực thi các lệnh cần thiết. Cách này giữ thay đổi nhỏ và dễ kiểm tra hơn.
Nếu bạn phát hiện lỗi thật hoặc có bản sửa, vui lòng mở issue GitHub hoặc gửi PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
Bắt đầu bằng các lệnh này (chia sẻ đầu ra khi nhờ trợ giúp):
openclaw status
openclaw models status
openclaw doctor
Các lệnh này làm gì:
openclaw status: ảnh chụp nhanh tình trạng gateway/tác nhân + cấu hình cơ bản.openclaw models status: kiểm tra xác thực nhà cung cấp + khả dụng của mô hình.openclaw doctor: xác thực và sửa các vấn đề cấu hình/trạng thái thường gặp.
Các kiểm tra CLI hữu ích khác: openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.
Vòng lặp gỡ lỗi nhanh: 60 giây đầu tiên nếu có gì đó bị hỏng. Tài liệu cài đặt: Cài đặt, Cờ trình cài đặt, Cập nhật.
Heartbeat liên tục bị bỏ qua. Các lý do bỏ qua có nghĩa là gì?
Các lý do bỏ qua heartbeat thường gặp:
quiet-hours: ngoài khung giờ hoạt động đã cấu hìnhempty-heartbeat-file:HEARTBEAT.mdtồn tại nhưng chỉ chứa khung trống/chỉ có tiêu đềno-tasks-due: chế độ tác vụHEARTBEAT.mdđang bật nhưng chưa có khoảng thời gian tác vụ nào đến hạnalerts-disabled: toàn bộ khả năng hiển thị heartbeat đã bị tắt (showOk,showAlerts, vàuseIndicatorđều tắt)
Trong chế độ tác vụ, dấu thời gian đến hạn chỉ được cập nhật sau khi một lượt heartbeat thật hoàn tất. Các lượt bị bỏ qua không đánh dấu tác vụ là đã hoàn tất.
Tài liệu: Heartbeat, Tự động hóa & Tác vụ.
Cách được khuyến nghị để cài đặt và thiết lập OpenClaw
Repo khuyến nghị chạy từ mã nguồn và dùng onboarding:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
Trình hướng dẫn cũng có thể tự động dựng tài nguyên UI. Sau onboarding, bạn thường chạy Gateway trên cổng 18789.
Từ mã nguồn (người đóng góp/dev):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
Nếu bạn chưa có cài đặt toàn cục, hãy chạy qua pnpm openclaw onboard.
Làm sao mở dashboard sau onboarding?
Trình hướng dẫn mở trình duyệt của bạn với URL dashboard sạch (không token hóa) ngay sau onboarding và cũng in liên kết trong phần tóm tắt. Hãy giữ tab đó mở; nếu nó không tự khởi chạy, hãy sao chép/dán URL đã in trên cùng máy.
Làm sao xác thực dashboard trên localhost so với từ xa?
Localhost (cùng máy):
- Mở
http://127.0.0.1:18789/. - Nếu được hỏi xác thực shared-secret, hãy dán token hoặc mật khẩu đã cấu hình vào phần cài đặt Control UI.
- Nguồn token:
gateway.auth.token(hoặcOPENCLAW_GATEWAY_TOKEN). - Nguồn mật khẩu:
gateway.auth.password(hoặcOPENCLAW_GATEWAY_PASSWORD). - Nếu chưa cấu hình shared secret, hãy tạo token bằng
openclaw doctor --generate-gateway-token.
Không phải trên localhost:
- Tailscale Serve (khuyến nghị): giữ bind loopback, chạy
openclaw gateway --tailscale serve, mởhttps://<magicdns>/. Nếugateway.auth.allowTailscalelàtrue, header danh tính sẽ đáp ứng xác thực Control UI/WebSocket (không cần dán shared secret, giả định máy chủ gateway đáng tin cậy); HTTP API vẫn yêu cầu xác thực shared-secret trừ khi bạn chủ ý dùng private-ingressnonehoặc xác thực HTTP trusted-proxy. Các lần thử xác thực Serve đồng thời không hợp lệ từ cùng client được tuần tự hóa trước khi bộ giới hạn failed-auth ghi nhận chúng, nên lần thử lại không hợp lệ thứ hai đã có thể hiển thịretry later. - Tailnet bind: chạy
openclaw gateway --bind tailnet --token "<token>"(hoặc cấu hình xác thực bằng mật khẩu), mởhttp://<tailscale-ip>:18789/, rồi dán shared secret tương ứng trong cài đặt dashboard. - Reverse proxy nhận biết danh tính: giữ Gateway sau một proxy đáng tin cậy, cấu hình
gateway.auth.mode: "trusted-proxy", rồi mở URL proxy. Proxy loopback cùng máy yêu cầugateway.auth.trustedProxy.allowLoopback = truerõ ràng. - SSH tunnel:
ssh -N -L 18789:127.0.0.1:18789 user@hostrồi mởhttp://127.0.0.1:18789/. Xác thực shared-secret vẫn áp dụng qua tunnel; dán token hoặc mật khẩu đã cấu hình nếu được nhắc.
Xem Dashboard và Bề mặt web để biết chi tiết về chế độ bind và xác thực.
Vì sao có hai cấu hình phê duyệt exec cho phê duyệt qua chat?
Chúng kiểm soát các lớp khác nhau:
approvals.exec: chuyển tiếp lời nhắc phê duyệt đến đích chatchannels.<channel>.execApprovals: khiến kênh đó hoạt động như một client phê duyệt gốc cho phê duyệt exec
Chính sách exec của host vẫn là cổng phê duyệt thật. Cấu hình chat chỉ kiểm soát nơi lời nhắc phê duyệt xuất hiện và cách mọi người có thể trả lời chúng.
Trong hầu hết thiết lập, bạn không cần cả hai:
- Nếu chat đã hỗ trợ lệnh và trả lời,
/approvetrong cùng chat hoạt động qua đường dẫn dùng chung. - Nếu một kênh gốc được hỗ trợ có thể suy ra người phê duyệt một cách an toàn, OpenClaw hiện tự bật phê duyệt gốc ưu tiên DM khi
channels.<channel>.execApprovals.enabledchưa đặt hoặc là"auto". - Khi có thẻ/nút phê duyệt gốc, UI gốc đó là đường dẫn chính; tác nhân chỉ nên đưa lệnh
/approvethủ công nếu kết quả công cụ cho biết phê duyệt qua chat không khả dụng hoặc phê duyệt thủ công là đường dẫn duy nhất. - Chỉ dùng
approvals.execkhi lời nhắc cũng phải được chuyển tiếp đến các chat khác hoặc phòng vận hành rõ ràng. - Chỉ dùng
channels.<channel>.execApprovals.target: "channel"hoặc"both"khi bạn rõ ràng muốn lời nhắc phê duyệt được đăng lại vào phòng/chủ đề gốc. - Phê duyệt Plugin lại tách riêng: chúng dùng
/approvetrong cùng chat theo mặc định, có chuyển tiếpapprovals.plugintùy chọn, và chỉ một số kênh gốc giữ xử lý plugin-approval-native ở trên.
Phiên bản ngắn: chuyển tiếp dành cho định tuyến, cấu hình client gốc dành cho UX riêng theo kênh phong phú hơn. Xem Phê duyệt Exec.
Tôi cần runtime nào?
Cần Node >= 22. Khuyến nghị dùng pnpm. Bun không được khuyến nghị cho Gateway.
Nó có chạy trên Raspberry Pi không?
Có. Gateway nhẹ - tài liệu liệt kê 512MB-1GB RAM, 1 core, và khoảng 500MB ổ đĩa là đủ cho nhu cầu cá nhân, và ghi chú rằng Raspberry Pi 4 có thể chạy được.
Nếu bạn muốn dư địa hơn (log, media, dịch vụ khác), khuyến nghị 2GB, nhưng đó không phải mức tối thiểu bắt buộc.
Mẹo: một Pi/VPS nhỏ có thể lưu trữ Gateway, và bạn có thể ghép cặp node trên laptop/điện thoại cho màn hình/camera/canvas cục bộ hoặc thực thi lệnh. Xem Node.
Có mẹo nào cho cài đặt Raspberry Pi không?
Phiên bản ngắn: nó hoạt động, nhưng hãy chuẩn bị cho vài điểm chưa mượt.
- Dùng hệ điều hành 64-bit và giữ Node >= 22.
- Ưu tiên cài đặt có thể chỉnh sửa (git) để bạn có thể xem log và cập nhật nhanh.
- Bắt đầu không có kênh/Skills, rồi thêm từng cái một.
- Nếu gặp vấn đề nhị phân lạ, thường đó là vấn đề tương thích ARM.
Nó bị kẹt ở wake up my friend / onboarding không hatch. Giờ làm gì?
Màn hình đó phụ thuộc vào việc Gateway có thể truy cập và đã xác thực. TUI cũng tự động gửi "Wake up, my friend!" trong lần hatch đầu tiên. Nếu bạn thấy dòng đó mà không có phản hồi và token vẫn ở 0, tác nhân chưa bao giờ chạy.
- Khởi động lại Gateway:
openclaw gateway restart
- Kiểm tra trạng thái + xác thực:
openclaw status
openclaw models status
openclaw logs --follow
- Nếu vẫn treo, hãy chạy:
openclaw doctor
Nếu Gateway ở xa, hãy đảm bảo tunnel/kết nối Tailscale đang hoạt động và UI đang trỏ đến đúng Gateway. Xem Truy cập từ xa.
Tôi có thể di chuyển thiết lập sang máy mới (Mac mini) mà không làm lại onboarding không?
Có. Sao chép thư mục trạng thái và workspace, rồi chạy Doctor một lần. Việc này giữ bot của bạn "y hệt" (bộ nhớ, lịch sử phiên, xác thực, và trạng thái kênh) miễn là bạn sao chép cả hai vị trí:
- Cài OpenClaw trên máy mới.
- Sao chép
$OPENCLAW_STATE_DIR(mặc định:~/.openclaw) từ máy cũ. - Sao chép workspace của bạn (mặc định:
~/.openclaw/workspace). - Chạy
openclaw doctorvà khởi động lại dịch vụ Gateway.
Việc đó bảo toàn cấu hình, hồ sơ xác thực, thông tin đăng nhập WhatsApp, phiên, và bộ nhớ. Nếu bạn đang ở chế độ từ xa, hãy nhớ máy chủ gateway sở hữu kho phiên và workspace.
Quan trọng: nếu bạn chỉ commit/push workspace lên GitHub, bạn đang sao lưu
bộ nhớ + tệp bootstrap, nhưng không sao lưu lịch sử phiên hoặc xác thực. Chúng nằm
dưới ~/.openclaw/ (ví dụ ~/.openclaw/agents/<agentId>/sessions/).
Liên quan: Di chuyển, Mọi thứ nằm ở đâu trên ổ đĩa, Workspace của tác nhân, Doctor, Chế độ từ xa.
Tôi xem điểm mới trong phiên bản mới nhất ở đâu?
Xem changelog GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Các mục mới nhất nằm ở trên cùng. Nếu phần trên cùng được đánh dấu Unreleased, phần có ngày kế tiếp là phiên bản mới nhất đã phát hành. Các mục được nhóm theo Điểm nổi bật, Thay đổi, và Bản sửa (cộng thêm phần tài liệu/khác khi cần).
Không thể truy cập docs.openclaw.ai (lỗi SSL)
Một số kết nối Comcast/Xfinity chặn nhầm docs.openclaw.ai qua Xfinity
Advanced Security. Hãy tắt tính năng đó hoặc đưa docs.openclaw.ai vào allowlist, rồi thử lại.
Vui lòng giúp chúng tôi gỡ chặn bằng cách báo cáo tại đây: https://spa.xfinity.com/check_url_status.
Nếu bạn vẫn không truy cập được trang web, tài liệu được mirror trên GitHub: https://github.com/openclaw/openclaw/tree/main/docs
Khác biệt giữa stable và beta
Stable và beta là npm dist-tags, không phải các dòng mã riêng biệt:
latest= stablebeta= bản dựng sớm để kiểm thử
Thông thường, một bản phát hành stable sẽ lên beta trước, sau đó một bước
quảng bá rõ ràng sẽ chuyển cùng phiên bản đó sang latest. Maintainer cũng có thể
phát hành thẳng lên latest khi cần. Đó là lý do beta và stable có thể
trỏ tới cùng phiên bản sau khi quảng bá.
Xem những gì đã thay đổi: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Để xem các lệnh cài đặt một dòng và khác biệt giữa beta và dev, hãy xem accordion bên dưới.
Làm sao để cài đặt phiên bản beta và khác biệt giữa beta và dev là gì?
Beta là npm dist-tag beta (có thể khớp với latest sau khi quảng bá).
Dev là đầu nhánh đang thay đổi của main (git); khi được phát hành, nó dùng npm dist-tag dev.
Lệnh một dòng (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Trình cài đặt Windows (PowerShell): https://openclaw.ai/install.ps1
Chi tiết thêm: Kênh phát triển và Cờ trình cài đặt.
Làm sao để thử các phần mới nhất?
Hai tùy chọn:
- Kênh dev (git checkout):
openclaw update --channel dev
Lệnh này chuyển sang nhánh main và cập nhật từ mã nguồn.
- Cài đặt có thể chỉnh sửa (từ trang trình cài đặt):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Cách này cung cấp cho bạn một repo cục bộ có thể chỉnh sửa, rồi cập nhật qua git.
Nếu bạn muốn tự clone sạch, dùng:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
Tài liệu: Cập nhật, Kênh phát triển, Cài đặt.
Cài đặt và onboarding thường mất bao lâu?
Ước lượng sơ bộ:
- Cài đặt: 2-5 phút
- Onboarding: 5-15 phút tùy vào số lượng kênh/mô hình bạn cấu hình
Nếu bị treo, dùng Trình cài đặt bị kẹt và vòng lặp gỡ lỗi nhanh trong Tôi bị kẹt.
Trình cài đặt bị kẹt? Làm sao để nhận thêm phản hồi?
Chạy lại trình cài đặt với đầu ra chi tiết:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Cài đặt beta với đầu ra chi tiết:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Để cài đặt có thể chỉnh sửa (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Tương đương trên Windows (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
Tùy chọn thêm: Cờ trình cài đặt.
Cài đặt Windows báo không tìm thấy git hoặc không nhận diện được openclaw
Hai vấn đề Windows thường gặp:
1) lỗi npm spawn git / không tìm thấy git
- Cài đặt Git for Windows và bảo đảm
gitcó trong PATH của bạn. - Đóng và mở lại PowerShell, rồi chạy lại trình cài đặt.
2) openclaw không được nhận diện sau khi cài đặt
-
Thư mục bin toàn cục của npm không nằm trong PATH.
-
Kiểm tra đường dẫn:
npm config get prefix -
Thêm thư mục đó vào PATH người dùng của bạn (không cần hậu tố
\bintrên Windows; trên hầu hết hệ thống đó là%AppData%\npm). -
Đóng và mở lại PowerShell sau khi cập nhật PATH.
Nếu bạn muốn thiết lập Windows mượt nhất, hãy dùng WSL2 thay vì Windows native. Tài liệu: Windows.
Đầu ra exec trên Windows hiển thị chữ Trung Quốc bị lỗi - tôi nên làm gì?
Đây thường là lỗi không khớp code page console trên shell Windows native.
Triệu chứng:
- Đầu ra
system.run/exechiển thị tiếng Trung Quốc thành mojibake - Cùng lệnh đó hiển thị bình thường trong một hồ sơ terminal khác
Cách xử lý nhanh trong PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
Sau đó khởi động lại Gateway và thử lại lệnh của bạn:
openclaw gateway restart
Nếu bạn vẫn tái hiện được lỗi này trên OpenClaw mới nhất, hãy theo dõi/báo cáo tại:
Tài liệu không trả lời câu hỏi của tôi - làm sao để có câu trả lời tốt hơn?
Dùng cài đặt có thể chỉnh sửa (git) để bạn có đầy đủ mã nguồn và tài liệu cục bộ, rồi hỏi bot của bạn (hoặc Claude/Codex) từ thư mục đó để nó có thể đọc repo và trả lời chính xác.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Chi tiết thêm: Cài đặt và Cờ trình cài đặt.
Làm sao để cài đặt OpenClaw trên Linux?
Trả lời ngắn: làm theo hướng dẫn Linux, rồi chạy onboarding.
- Đường dẫn nhanh Linux + cài đặt service: Linux.
- Hướng dẫn đầy đủ: Bắt đầu.
- Trình cài đặt + cập nhật: Cài đặt & cập nhật.
Làm sao để cài đặt OpenClaw trên VPS?
Bất kỳ VPS Linux nào cũng dùng được. Cài đặt trên máy chủ, rồi dùng SSH/Tailscale để truy cập Gateway.
Hướng dẫn: exe.dev, Hetzner, Fly.io. Truy cập từ xa: Gateway từ xa.
Các hướng dẫn cài đặt cloud/VPS ở đâu?
Chúng tôi duy trì một trung tâm hosting với các nhà cung cấp phổ biến. Chọn một nhà cung cấp và làm theo hướng dẫn:
- Hosting VPS (tất cả nhà cung cấp ở một nơi)
- Fly.io
- Hetzner
- exe.dev
Cách hoạt động trên cloud: Gateway chạy trên máy chủ, và bạn truy cập nó từ laptop/điện thoại qua Control UI (hoặc Tailscale/SSH). Trạng thái + workspace của bạn nằm trên máy chủ, vì vậy hãy xem host là nguồn sự thật và sao lưu nó.
Bạn có thể ghép nối node (Mac/iOS/Android/headless) với Gateway cloud đó để truy cập màn hình/camera/canvas cục bộ hoặc chạy lệnh trên laptop trong khi giữ Gateway trên cloud.
Trung tâm: Nền tảng. Truy cập từ xa: Gateway từ xa. Node: Node, CLI Node.
Tôi có thể yêu cầu OpenClaw tự cập nhật không?
Trả lời ngắn: có thể, không khuyến nghị. Luồng cập nhật có thể khởi động lại Gateway (làm rớt phiên đang hoạt động), có thể cần một git checkout sạch, và có thể hỏi xác nhận. An toàn hơn: chạy cập nhật từ shell với vai trò operator.
Dùng CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Nếu bắt buộc phải tự động hóa từ agent:
openclaw update --yes --no-restart
openclaw gateway restart
Tài liệu: Cập nhật, Đang cập nhật.
Onboarding thực sự làm gì?
openclaw onboard là đường dẫn thiết lập được khuyến nghị. Trong chế độ cục bộ, nó hướng dẫn bạn qua:
- Thiết lập mô hình/xác thực (OAuth nhà cung cấp, khóa API, Anthropic setup-token, cùng các tùy chọn mô hình cục bộ như LM Studio)
- Vị trí Workspace + các tệp bootstrap
- Cài đặt Gateway (bind/port/auth/tailscale)
- Kênh (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, cùng các Plugin kênh đóng gói như QQ Bot)
- Cài đặt daemon (LaunchAgent trên macOS; systemd user unit trên Linux/WSL2)
- Kiểm tra sức khỏe và lựa chọn Skills
Nó cũng cảnh báo nếu mô hình bạn cấu hình không xác định hoặc thiếu xác thực.
Tôi có cần đăng ký Claude hoặc OpenAI để chạy thứ này không?
Không. Bạn có thể chạy OpenClaw bằng khóa API (Anthropic/OpenAI/nhà cung cấp khác) hoặc bằng mô hình chỉ cục bộ để dữ liệu của bạn ở lại trên thiết bị. Gói đăng ký (Claude Pro/Max hoặc OpenAI Codex) là các cách tùy chọn để xác thực các nhà cung cấp đó.
Với Anthropic trong OpenClaw, cách phân chia thực tế là:
- Khóa API Anthropic: tính phí API Anthropic thông thường
- Xác thực Claude CLI / đăng ký Claude trong OpenClaw: nhân viên Anthropic
cho chúng tôi biết cách sử dụng này đã được phép trở lại, và OpenClaw đang xem việc dùng
claude -plà được chấp thuận cho tích hợp này trừ khi Anthropic công bố một chính sách mới
Với các host gateway chạy lâu dài, khóa API Anthropic vẫn là thiết lập dễ dự đoán hơn. OpenAI Codex OAuth được hỗ trợ rõ ràng cho các công cụ bên ngoài như OpenClaw.
OpenClaw cũng hỗ trợ các tùy chọn kiểu đăng ký hosted khác, bao gồm Qwen Cloud Coding Plan, MiniMax Coding Plan, và Z.AI / GLM Coding Plan.
Tài liệu: Anthropic, OpenAI, Qwen Cloud, MiniMax, GLM Models, Mô hình cục bộ, Mô hình.
Tôi có thể dùng đăng ký Claude Max mà không cần khóa API không?
Có.
Nhân viên Anthropic cho chúng tôi biết cách sử dụng Claude CLI kiểu OpenClaw đã được phép trở lại, vì vậy
OpenClaw xem xác thực đăng ký Claude và việc dùng claude -p là được chấp thuận
cho tích hợp này trừ khi Anthropic công bố chính sách mới. Nếu bạn muốn
thiết lập phía máy chủ dễ dự đoán nhất, hãy dùng khóa API Anthropic thay thế.
Bạn có hỗ trợ xác thực đăng ký Claude (Claude Pro hoặc Max) không?
Có.
Nhân viên Anthropic cho chúng tôi biết cách sử dụng này đã được phép trở lại, vì vậy OpenClaw xem
việc tái sử dụng Claude CLI và dùng claude -p là được chấp thuận cho tích hợp này
trừ khi Anthropic công bố chính sách mới.
Anthropic setup-token vẫn có sẵn như một đường dẫn token OpenClaw được hỗ trợ, nhưng OpenClaw hiện ưu tiên tái sử dụng Claude CLI và claude -p khi có.
Với workload production hoặc nhiều người dùng, xác thực bằng khóa API Anthropic vẫn là
lựa chọn an toàn hơn, dễ dự đoán hơn. Nếu bạn muốn các tùy chọn hosted
kiểu đăng ký khác trong OpenClaw, hãy xem OpenAI, Qwen / Model
Cloud, MiniMax, và GLM
Models.
Tại sao tôi thấy HTTP 429 rate_limit_error từ Anthropic?
Điều đó nghĩa là hạn mức/quota Anthropic của bạn đã cạn trong khung thời gian hiện tại. Nếu bạn dùng Claude CLI, hãy chờ khung thời gian đặt lại hoặc nâng cấp gói của bạn. Nếu bạn dùng khóa API Anthropic, hãy kiểm tra Anthropic Console để xem mức sử dụng/thanh toán và tăng giới hạn khi cần.
Nếu thông báo cụ thể là:
Extra usage is required for long context requests, yêu cầu đang cố sử dụng
beta ngữ cảnh 1M của Anthropic (context1m: true). Tính năng đó chỉ hoạt động khi
thông tin xác thực của bạn đủ điều kiện thanh toán ngữ cảnh dài (thanh toán bằng khóa API hoặc
đường dẫn đăng nhập Claude của OpenClaw với Extra Usage được bật).
Mẹo: đặt một mô hình dự phòng để OpenClaw có thể tiếp tục phản hồi khi một nhà cung cấp bị giới hạn tốc độ. Xem Mô hình, OAuth, và /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
AWS Bedrock có được hỗ trợ không?
Có. OpenClaw có một nhà cung cấp Amazon Bedrock (Converse) được tích hợp sẵn. Khi có các dấu hiệu env AWS, OpenClaw có thể tự động phát hiện danh mục Bedrock streaming/text và hợp nhất nó dưới dạng nhà cung cấp amazon-bedrock ngầm định; nếu không, bạn có thể bật rõ ràng plugins.entries.amazon-bedrock.config.discovery.enabled hoặc thêm một mục nhà cung cấp thủ công. Xem Amazon Bedrock và Nhà cung cấp mô hình. Nếu bạn muốn luồng khóa được quản lý, một proxy tương thích OpenAI đặt trước Bedrock vẫn là một tùy chọn hợp lệ.
Xác thực Codex hoạt động như thế nào?
OpenClaw hỗ trợ OpenAI Code (Codex) qua OAuth (đăng nhập ChatGPT). Dùng
openai/gpt-5.5 với agentRuntime.id: "codex" cho thiết lập phổ biến:
xác thực đăng ký ChatGPT/Codex cộng với thực thi máy chủ ứng dụng Codex gốc. Dùng
openai-codex/gpt-5.5 chỉ khi bạn muốn Codex OAuth thông qua runtime
Codex mặc định. Truy cập trực tiếp bằng khóa API OpenAI vẫn khả dụng cho các bề mặt
OpenAI API không phải agent và cho các mô hình agent thông qua một hồ sơ khóa API
openai-codex có thứ tự.
Xem Nhà cung cấp mô hình và Onboarding (CLI).
Tại sao OpenClaw vẫn nhắc đến openai-codex?
openai-codex là id nhà cung cấp và hồ sơ xác thực cho ChatGPT/Codex OAuth.
Các cấu hình cũ hơn cũng dùng nó làm tiền tố mô hình:
openai/gpt-5.5= xác thực đăng ký ChatGPT/Codex với runtime Codex gốc cho các lượt agentopenai-codex/gpt-5.5= tuyến mô hình cũ đượcopenclaw doctor --fixsửaopenai/gpt-5.5cộng với một hồ sơ khóa APIopenai-codexcó thứ tự = xác thực khóa API cho một mô hình agent OpenAIopenai-codex:...= id hồ sơ xác thực, không phải tham chiếu mô hình
Nếu bạn muốn đường dẫn thanh toán/giới hạn trực tiếp của OpenAI Platform, hãy đặt
OPENAI_API_KEY. Nếu bạn muốn xác thực đăng ký ChatGPT/Codex, hãy đăng nhập bằng
openclaw models auth login --provider openai-codex. Giữ tham chiếu mô hình là
openai/gpt-5.5; các tham chiếu mô hình openai-codex/* là cấu hình cũ mà
openclaw doctor --fix sẽ viết lại.
Tại sao giới hạn Codex OAuth có thể khác ChatGPT web?
Codex OAuth dùng các cửa sổ hạn mức do OpenAI quản lý và phụ thuộc vào gói. Trên thực tế, các giới hạn đó có thể khác trải nghiệm trên website/ứng dụng ChatGPT, ngay cả khi cả hai đều gắn với cùng một tài khoản.
OpenClaw có thể hiển thị các cửa sổ sử dụng/hạn mức nhà cung cấp hiện thấy trong
openclaw models status, nhưng nó không tự tạo hoặc chuẩn hóa quyền lợi ChatGPT-web
thành quyền truy cập API trực tiếp. Nếu bạn muốn đường dẫn thanh toán/giới hạn trực tiếp của OpenAI Platform,
hãy dùng openai/* với khóa API.
Bạn có hỗ trợ xác thực đăng ký OpenAI (Codex OAuth) không?
Có. OpenClaw hỗ trợ đầy đủ OpenAI Code (Codex) subscription OAuth. OpenAI cho phép rõ ràng việc sử dụng subscription OAuth trong các công cụ/quy trình bên ngoài như OpenClaw. Onboarding có thể chạy luồng OAuth cho bạn.
Xem OAuth, Nhà cung cấp mô hình, và Onboarding (CLI).
Tôi thiết lập Gemini CLI OAuth như thế nào?
Gemini CLI dùng một luồng xác thực plugin, không phải client id hay secret trong openclaw.json.
Các bước:
- Cài Gemini CLI cục bộ để
geminicó trongPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Bật plugin:
openclaw plugins enable google - Đăng nhập:
openclaw models auth login --provider google-gemini-cli --set-default - Mô hình mặc định sau khi đăng nhập:
google-gemini-cli/gemini-3-flash-preview - Nếu yêu cầu thất bại, đặt
GOOGLE_CLOUD_PROJECThoặcGOOGLE_CLOUD_PROJECT_IDtrên máy chủ gateway
Thao tác này lưu token OAuth trong các hồ sơ xác thực trên máy chủ gateway. Chi tiết: Nhà cung cấp mô hình.
Mô hình cục bộ có ổn cho trò chuyện thông thường không?
Thường là không. OpenClaw cần ngữ cảnh lớn + độ an toàn cao; các mô hình nhỏ sẽ cắt cụt và rò rỉ. Nếu bắt buộc, hãy chạy bản dựng mô hình lớn nhất bạn có thể chạy cục bộ (LM Studio) và xem /gateway/local-models. Mô hình nhỏ hơn/lượng tử hóa làm tăng rủi ro prompt injection - xem Bảo mật.
Làm sao để giữ lưu lượng mô hình được lưu trữ trong một khu vực cụ thể?
Chọn các endpoint cố định theo khu vực. OpenRouter cung cấp các tùy chọn được lưu trữ tại Mỹ cho MiniMax, Kimi, và GLM; chọn biến thể được lưu trữ tại Mỹ để giữ dữ liệu trong khu vực. Bạn vẫn có thể liệt kê Anthropic/OpenAI cùng với các tùy chọn này bằng cách dùng models.mode: "merge" để các phương án dự phòng vẫn khả dụng trong khi vẫn tôn trọng nhà cung cấp theo khu vực mà bạn chọn.
Tôi có phải mua Mac Mini để cài đặt cái này không?
Không. OpenClaw chạy trên macOS hoặc Linux (Windows qua WSL2). Mac mini là tùy chọn - một số người mua nó làm máy chủ luôn bật, nhưng một VPS nhỏ, máy chủ tại nhà, hoặc máy loại Raspberry Pi cũng hoạt động.
Bạn chỉ cần Mac cho các công cụ chỉ có trên macOS. Với iMessage, dùng BlueBubbles (khuyến nghị) - máy chủ BlueBubbles chạy trên bất kỳ Mac nào, và Gateway có thể chạy trên Linux hoặc nơi khác. Nếu bạn muốn các công cụ khác chỉ có trên macOS, hãy chạy Gateway trên Mac hoặc ghép nối một node macOS.
Tài liệu: BlueBubbles, Node, Chế độ Mac từ xa.
Tôi có cần Mac mini để hỗ trợ iMessage không?
Bạn cần một thiết bị macOS nào đó đã đăng nhập vào Messages. Thiết bị đó không bắt buộc phải là Mac mini - bất kỳ Mac nào cũng được. Dùng BlueBubbles (khuyến nghị) cho iMessage - máy chủ BlueBubbles chạy trên macOS, trong khi Gateway có thể chạy trên Linux hoặc nơi khác.
Các thiết lập phổ biến:
- Chạy Gateway trên Linux/VPS, và chạy máy chủ BlueBubbles trên bất kỳ Mac nào đã đăng nhập vào Messages.
- Chạy mọi thứ trên Mac nếu bạn muốn thiết lập một máy đơn giản nhất.
Tài liệu: BlueBubbles, Node, Chế độ Mac từ xa.
Nếu tôi mua Mac mini để chạy OpenClaw, tôi có thể kết nối nó với MacBook Pro của mình không?
Có. Mac mini có thể chạy Gateway, và MacBook Pro của bạn có thể kết nối dưới dạng
node (thiết bị đồng hành). Node không chạy Gateway - chúng cung cấp các
khả năng bổ sung như màn hình/camera/canvas và system.run trên thiết bị đó.
Mẫu phổ biến:
- Gateway trên Mac mini (luôn bật).
- MacBook Pro chạy ứng dụng macOS hoặc máy chủ node và ghép nối với Gateway.
- Dùng
openclaw nodes status/openclaw nodes listđể xem nó.
Tôi có thể dùng Bun không?
Bun không được khuyến nghị. Chúng tôi thấy lỗi runtime, đặc biệt với WhatsApp và Telegram. Dùng Node cho các gateway ổn định.
Nếu bạn vẫn muốn thử nghiệm với Bun, hãy làm trên một gateway không dùng cho production không có WhatsApp/Telegram.
Telegram: đặt gì trong allowFrom?
channels.telegram.allowFrom là ID người dùng Telegram của người gửi (dạng số). Nó không phải tên người dùng bot.
Thiết lập chỉ yêu cầu ID người dùng dạng số. Nếu bạn đã có các mục @username cũ trong cấu hình, openclaw doctor --fix có thể cố gắng phân giải chúng.
An toàn hơn (không dùng bot bên thứ ba):
- DM bot của bạn, rồi chạy
openclaw logs --followvà đọcfrom.id.
Bot API chính thức:
- DM bot của bạn, rồi gọi
https://api.telegram.org/bot<bot_token>/getUpdatesvà đọcmessage.from.id.
Bên thứ ba (ít riêng tư hơn):
- DM
@userinfobothoặc@getidsbot.
Xem /channels/telegram.
Nhiều người có thể dùng một số WhatsApp với các phiên bản OpenClaw khác nhau không?
Có, thông qua định tuyến đa agent. Gắn mỗi DM WhatsApp của người gửi (peer kind: "direct", sender E.164 như +15551234567) với một agentId khác nhau, để mỗi người có workspace và kho phiên riêng. Phản hồi vẫn đến từ cùng một tài khoản WhatsApp, và kiểm soát truy cập DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) là toàn cục cho mỗi tài khoản WhatsApp. Xem Định tuyến đa agent và WhatsApp.
Tôi có thể chạy một agent "trò chuyện nhanh" và một agent "Opus để lập trình" không?
Có. Dùng định tuyến đa agent: cấp cho mỗi agent mô hình mặc định riêng, rồi gắn các tuyến đến (tài khoản nhà cung cấp hoặc peer cụ thể) với từng agent. Cấu hình ví dụ nằm trong Định tuyến đa agent. Xem thêm Mô hình và Cấu hình.
Homebrew có hoạt động trên Linux không?
Có. Homebrew hỗ trợ Linux (Linuxbrew). Thiết lập nhanh:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
Nếu bạn chạy OpenClaw qua systemd, hãy đảm bảo PATH của dịch vụ bao gồm /home/linuxbrew/.linuxbrew/bin (hoặc tiền tố brew của bạn) để các công cụ cài bằng brew được phân giải trong shell không đăng nhập.
Các bản dựng gần đây cũng thêm trước các thư mục bin người dùng phổ biến trên dịch vụ Linux systemd (ví dụ ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) và tôn trọng PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR, và FNM_DIR khi được đặt.
Khác biệt giữa cài đặt git có thể chỉnh sửa và cài đặt npm
- Cài đặt có thể chỉnh sửa (git): checkout toàn bộ mã nguồn, có thể chỉnh sửa, phù hợp nhất cho người đóng góp. Bạn chạy build cục bộ và có thể vá mã/tài liệu.
- Cài đặt npm: cài CLI toàn cục, không có repo, phù hợp nhất để "chỉ chạy thôi." Cập nhật đến từ các dist-tag npm.
Sau này tôi có thể chuyển giữa cài đặt npm và git không?
Có. Dùng openclaw update --channel ... khi OpenClaw đã được cài đặt.
Thao tác này không xóa dữ liệu của bạn - nó chỉ thay đổi bản cài mã OpenClaw.
Trạng thái (~/.openclaw) và workspace (~/.openclaw/workspace) của bạn vẫn giữ nguyên.
Từ npm sang git:
openclaw update --channel dev
Từ git sang npm:
openclaw update --channel stable
Thêm --dry-run để xem trước việc chuyển chế độ dự kiến. Trình cập nhật chạy
các bước theo sau của Doctor, làm mới nguồn plugin cho kênh đích, và
khởi động lại gateway trừ khi bạn truyền --no-restart.
Trình cài đặt cũng có thể ép dùng một trong hai chế độ:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
Mẹo sao lưu: xem Chiến lược sao lưu.
Tôi nên chạy Gateway trên laptop hay VPS?
Câu trả lời ngắn: nếu bạn muốn độ tin cậy 24/7, hãy dùng VPS. Nếu bạn muốn ít rào cản nhất và chấp nhận sleep/khởi động lại, hãy chạy cục bộ.
Máy tính xách tay (Gateway cục bộ)
- Ưu điểm: không tốn chi phí máy chủ, truy cập trực tiếp vào tệp cục bộ, cửa sổ trình duyệt trực tiếp.
- Nhược điểm: máy ngủ/mạng rớt = mất kết nối, cập nhật/khởi động lại hệ điều hành gây gián đoạn, phải luôn bật máy.
Ghi chú riêng cho OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord đều hoạt động tốt từ VPS. Đánh đổi thực sự duy nhất là trình duyệt headless so với cửa sổ hiển thị. Xem Trình duyệt.
Mặc định được khuyến nghị: VPS nếu trước đây Gateway của bạn từng bị mất kết nối. Cục bộ rất phù hợp khi bạn đang chủ động dùng Mac và muốn truy cập tệp cục bộ hoặc tự động hóa UI bằng trình duyệt hiển thị.
Việc chạy OpenClaw trên một máy chuyên dụng quan trọng đến mức nào?
Không bắt buộc, nhưng được khuyến nghị để tăng độ tin cậy và khả năng cô lập.
- Máy chủ chuyên dụng (VPS/Mac mini/Pi): luôn bật, ít bị gián đoạn do ngủ/khởi động lại hơn, quyền gọn sạch hơn, dễ duy trì hoạt động hơn.
- Máy tính xách tay/máy tính để bàn dùng chung: hoàn toàn ổn để thử nghiệm và sử dụng chủ động, nhưng hãy dự kiến sẽ có tạm dừng khi máy ngủ hoặc cập nhật.
Nếu bạn muốn có lợi thế của cả hai, hãy giữ Gateway trên một máy chủ chuyên dụng và ghép nối máy tính xách tay của bạn dưới dạng node cho các công cụ màn hình/camera/exec cục bộ. Xem Nodes. Để xem hướng dẫn bảo mật, hãy đọc Bảo mật.
Yêu cầu VPS tối thiểu và hệ điều hành được khuyến nghị là gì?
OpenClaw rất nhẹ. Với một Gateway cơ bản + một kênh chat:
- Tối thiểu tuyệt đối: 1 vCPU, 1GB RAM, ~500MB ổ đĩa.
- Khuyến nghị: 1-2 vCPU, 2GB RAM trở lên để có dư địa (nhật ký, phương tiện, nhiều kênh). Công cụ Node và tự động hóa trình duyệt có thể tiêu tốn nhiều tài nguyên.
Hệ điều hành: dùng Ubuntu LTS (hoặc bất kỳ Debian/Ubuntu hiện đại nào). Lộ trình cài đặt Linux được kiểm thử tốt nhất ở đó.
Tài liệu: Linux, Lưu trữ VPS.
Tôi có thể chạy OpenClaw trong VM không và yêu cầu là gì?
Có. Hãy xem VM giống như VPS: nó cần luôn bật, có thể truy cập được và có đủ RAM cho Gateway cùng mọi kênh bạn bật.
Hướng dẫn cơ bản:
- Tối thiểu tuyệt đối: 1 vCPU, 1GB RAM.
- Khuyến nghị: 2GB RAM trở lên nếu bạn chạy nhiều kênh, tự động hóa trình duyệt hoặc công cụ phương tiện.
- Hệ điều hành: Ubuntu LTS hoặc một Debian/Ubuntu hiện đại khác.
Nếu bạn đang dùng Windows, WSL2 là kiểu thiết lập VM dễ nhất và có khả năng tương thích công cụ tốt nhất. Xem Windows, Lưu trữ VPS. Nếu bạn đang chạy macOS trong VM, xem VM macOS.
Liên quan
- FAQ — FAQ chính (mô hình, phiên, gateway, bảo mật, v.v.)
- Tổng quan cài đặt
- Bắt đầu
- Khắc phục sự cố