快速开始

常见问题:首次运行设置

快速开始和首次运行问答。日常操作、模型、凭证、会话和故障排除请参阅主 常见问题

快速开始和首次运行设置

我卡住了,最快的解决问题方式

使用一个可以看到你的机器的本地 AI 智能体。这比在 Discord 里提问有效得多,因为大多数“我卡住了”的情况都是本地配置或环境问题,远程协助者无法检查。

这些工具可以读取仓库、运行命令、检查日志,并帮助修复你的机器级设置(PATH、服务、权限、凭证文件)。通过可修改的(git)安装方式,把完整源码检出交给它们:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

这会从 git 检出安装 OpenClaw,因此智能体可以读取代码和文档,并基于你正在运行的确切版本进行推理。之后你始终可以通过不带 --install-method git 重新运行安装器,切回稳定版。

提示:让智能体规划并监督修复(逐步进行),然后只执行必要命令。这样变更更小,也更容易审计。

如果你发现了真实 bug 或修复,请提交 GitHub issue 或发送 PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls

从这些命令开始(寻求帮助时分享输出):

openclaw status
openclaw models status
openclaw doctor

它们的作用:

  • openclaw status:Gateway 网关/智能体健康状态和基础配置的快速快照。
  • openclaw models status:检查提供商凭证和模型可用性。
  • openclaw doctor:验证并修复常见配置/状态问题。

其他有用的 CLI 检查:openclaw status --allopenclaw logs --followopenclaw gateway statusopenclaw health --verbose

快速调试循环:如果有东西坏了,最初的六十秒。 安装文档:安装安装器标志更新

Heartbeat 一直跳过。跳过原因是什么意思?

常见的 heartbeat 跳过原因:

  • quiet-hours:处于已配置的活动时段窗口之外
  • empty-heartbeat-fileHEARTBEAT.md 存在,但只包含空白/仅标题的脚手架
  • no-tasks-dueHEARTBEAT.md 任务模式已启用,但还没有任何任务间隔到期
  • alerts-disabled:所有 heartbeat 可见性都已禁用(showOkshowAlertsuseIndicator 全部关闭)

在任务模式下,到期时间戳只会在一次真实 heartbeat 运行完成后推进。被跳过的运行不会把任务标记为已完成。

文档:Heartbeat自动化和任务

推荐的 OpenClaw 安装和设置方式

仓库推荐从源码运行并使用新手引导:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon

向导也可以自动构建 UI 资源。完成新手引导后,你通常会在端口 18789 上运行 Gateway 网关。

从源码安装(贡献者/开发):

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard

如果你还没有全局安装,请通过 pnpm openclaw onboard 运行它。

完成新手引导后如何打开仪表盘?

向导会在新手引导完成后立即用干净的(非令牌化)仪表盘 URL 打开你的浏览器,并在摘要中打印链接。保持该标签页打开;如果它没有启动,请在同一台机器上复制/粘贴打印出的 URL。

如何在 localhost 和远程环境中为仪表盘认证?

Localhost(同一台机器):

  • 打开 http://127.0.0.1:18789/
  • 如果它要求共享密钥凭证,请把已配置的令牌或密码粘贴到 Control UI 设置中。
  • 令牌来源:gateway.auth.token(或 OPENCLAW_GATEWAY_TOKEN)。
  • 密码来源:gateway.auth.password(或 OPENCLAW_GATEWAY_PASSWORD)。
  • 如果还没有配置共享密钥,请用 openclaw doctor --generate-gateway-token 生成令牌。

不在 localhost 上:

  • Tailscale Serve(推荐):保持绑定到 local loopback,运行 openclaw gateway --tailscale serve,打开 https://<magicdns>/。如果 gateway.auth.allowTailscaletrue,身份标头会满足 Control UI/WebSocket 凭证要求(无需粘贴共享密钥,前提是假设 Gateway 网关主机可信);除非你有意使用 private-ingress none 或 trusted-proxy HTTP 凭证,否则 HTTP API 仍然需要共享密钥凭证。 同一客户端的并发错误 Serve 凭证尝试会先被串行化,然后失败凭证限流器才会记录它们,因此第二次错误重试可能已经显示 retry later
  • Tailnet 绑定:运行 openclaw gateway --bind tailnet --token "<token>"(或配置密码凭证),打开 http://<tailscale-ip>:18789/,然后在仪表盘设置中粘贴匹配的共享密钥。
  • 身份感知反向代理:把 Gateway 网关放在受信任代理后面,配置 gateway.auth.mode: "trusted-proxy",然后打开代理 URL。同主机 loopback 代理需要显式设置 gateway.auth.trustedProxy.allowLoopback = true
  • SSH 隧道ssh -N -L 18789:127.0.0.1:18789 user@host,然后打开 http://127.0.0.1:18789/。共享密钥凭证在隧道中仍然适用;如果提示,请粘贴已配置的令牌或密码。

请参阅仪表盘Web 表面了解绑定模式和凭证详情。

为什么聊天审批有两个 exec 审批配置?

它们控制不同层级:

  • approvals.exec:把审批提示转发到聊天目标
  • channels.<channel>.execApprovals:让该渠道作为 exec 审批的原生审批客户端

主机 exec 策略仍然是真正的审批关口。聊天配置只控制审批提示出现在哪里,以及人们如何回复它们。

在大多数设置中,你需要两者都配置:

  • 如果聊天已经支持命令和回复,同一聊天中的 /approve 会通过共享路径工作。
  • 如果受支持的原生渠道可以安全推断审批者,OpenClaw 现在会在 channels.<channel>.execApprovals.enabled 未设置或为 "auto" 时,自动启用私信优先的原生审批。
  • 当原生审批卡片/按钮可用时,该原生 UI 是主要路径;只有当工具结果表明聊天审批不可用,或手动审批是唯一路径时,智能体才应包含手动 /approve 命令。
  • 只有当提示也必须转发到其他聊天或显式运维房间时,才使用 approvals.exec
  • 只有当你明确希望审批提示发回原始房间/话题时,才使用 channels.<channel>.execApprovals.target: "channel""both"
  • 插件审批又是单独的:默认使用同一聊天中的 /approve,可选 approvals.plugin 转发,并且只有部分原生渠道会在此基础上保留 plugin-approval-native 处理。

简短版本:转发用于路由,原生客户端配置用于更丰富的渠道特定 UX。 请参阅 Exec 审批

我需要什么运行时?

需要 Node >= 22。推荐使用 pnpm不推荐将 Bun 用于 Gateway 网关。

它能在 Raspberry Pi 上运行吗?

可以。Gateway 网关很轻量,文档列出的个人使用足够配置是 512MB-1GB RAM1 个核心,以及约 500MB 磁盘,并说明 Raspberry Pi 4 可以运行它

如果你想要额外余量(日志、媒体、其他服务),推荐 2GB,但这不是硬性最低要求。

提示:小型 Pi/VPS 可以托管 Gateway 网关,你还可以把笔记本/手机上的节点配对进来,用于本地屏幕/摄像头/canvas 或命令执行。请参阅节点

Raspberry Pi 安装有什么建议?

简短版本:它可以运行,但可能会有一些不顺手之处。

  • 使用 64-bit OS,并保持 Node >= 22。
  • 优先使用可修改的(git)安装,这样你可以查看日志并快速更新。
  • 先不要启用渠道/Skills,然后逐个添加。
  • 如果遇到奇怪的二进制问题,通常是 ARM 兼容性问题。

文档:Linux安装

它卡在 wake up my friend / 新手引导无法孵化。现在怎么办?

该屏幕依赖 Gateway 网关可达且已认证。TUI 还会在首次 hatch 时自动发送 "Wake up, my friend!"。如果你看到这一行但没有回复,且令牌保持为 0,说明智能体从未运行。

  1. 重启 Gateway 网关:
openclaw gateway restart
  1. 检查 Status 和凭证:
openclaw status
openclaw models status
openclaw logs --follow
  1. 如果仍然卡住,运行:
openclaw doctor

如果 Gateway 网关是远程的,请确保隧道/Tailscale 连接已启动,并且 UI 指向正确的 Gateway 网关。请参阅远程访问

我能把设置迁移到新机器(Mac mini)而不用重新做新手引导吗?

可以。复制状态目录工作区,然后运行一次 Doctor。只要复制两个位置,这就会让你的 bot 保持“完全相同”(记忆、会话历史、凭证和渠道状态):

  1. 在新机器上安装 OpenClaw。
  2. 从旧机器复制 $OPENCLAW_STATE_DIR(默认:~/.openclaw)。
  3. 复制你的工作区(默认:~/.openclaw/workspace)。
  4. 运行 openclaw doctor 并重启 Gateway 网关服务。

这会保留配置、凭证配置文件、WhatsApp 凭据、会话和记忆。如果你处于远程模式,请记住 Gateway 网关主机拥有会话存储和工作区。

重要:如果你只把工作区 commit/push 到 GitHub,你备份的是记忆 + 引导文件,但不是会话历史或凭证。它们位于 ~/.openclaw/ 下(例如 ~/.openclaw/agents/<agentId>/sessions/)。

相关:迁移磁盘上的存放位置Agent 工作区Doctor远程模式

在哪里查看最新版本的新内容?

查看 GitHub 变更日志: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

最新条目在顶部。如果顶部章节标记为 Unreleased,下一个带日期的章节就是最新已发布版本。条目按 HighlightsChangesFixes 分组(需要时还会有文档/其他章节)。

无法访问 docs.openclaw.ai(SSL 错误)

某些 Comcast/Xfinity 连接会通过 Xfinity Advanced Security 错误地阻止 docs.openclaw.ai。请禁用它或将 docs.openclaw.ai 加入允许列表,然后重试。 请在这里报告,帮助我们解除阻止:https://spa.xfinity.com/check_url_status

如果你仍然无法访问该站点,文档也镜像在 GitHub 上: https://github.com/openclaw/openclaw/tree/main/docs

稳定版和 beta 版的区别

稳定版beta 版npm dist-tags,不是独立的代码线:

  • latest = 稳定版
  • beta = 用于测试的早期构建

通常,稳定版发布会先进入 beta,然后通过一个明确的 提升步骤将同一个版本移动到 latest。维护者也可以在需要时 直接发布到 latest。这就是为什么提升后 beta 版和稳定版可能 指向同一个版本

查看变更内容: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

有关安装一行命令以及 beta 和 dev 的区别,请参阅下面的折叠项。

如何安装 beta 版本,它和 dev 有什么区别?

Beta 是 npm dist-tag beta(提升后可能与 latest 相同)。 Devmain 的移动头部(git);发布时会使用 npm dist-tag dev

一行命令(macOS/Linux):

curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git

Windows 安装器(PowerShell): https://openclaw.ai/install.ps1

更多细节:开发渠道安装器标志

如何试用最新内容?

两个选项:

  1. Dev 渠道(git checkout):
openclaw update --channel dev

这会切换到 main 分支,并从源码更新。

  1. 可修改安装(来自安装器站点):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

这会给你一个可编辑的本地仓库,然后可以通过 git 更新。

如果你更喜欢手动进行干净克隆,请使用:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build

文档:更新开发渠道安装

安装和新手引导通常需要多长时间?

粗略参考:

  • 安装: 2-5 分钟
  • 新手引导: 5-15 分钟,取决于你配置的渠道/模型数量

如果卡住,请使用安装器卡住 以及我卡住了中的快速调试循环。

安装器卡住?如何获取更多反馈?

使用详细输出重新运行安装器:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose

带详细输出安装 beta:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose

对于可修改(git)安装:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose

Windows(PowerShell)等效方式:

# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0

更多选项:安装器标志

Windows 安装提示未找到 git 或无法识别 openclaw

两个常见的 Windows 问题:

1) npm error spawn git / 未找到 git

  • 安装 Git for Windows,并确保 git 在你的 PATH 中。
  • 关闭并重新打开 PowerShell,然后重新运行安装器。

2) 安装后无法识别 openclaw

  • 你的 npm 全局 bin 文件夹不在 PATH 中。

  • 检查路径:

    npm config get prefix
    
  • 将该目录添加到你的用户 PATH(Windows 上不需要 \bin 后缀;在大多数系统上它是 %AppData%\npm)。

  • 更新 PATH 后,关闭并重新打开 PowerShell。

如果你想获得最顺畅的 Windows 设置体验,请使用 WSL2 而不是原生 Windows。 文档:Windows

Windows exec 输出显示中文乱码 - 我该怎么办?

这通常是原生 Windows shell 上的控制台代码页不匹配。

症状:

  • system.run/exec 输出将中文渲染为乱码
  • 同一个命令在另一个终端配置文件中显示正常

PowerShell 中的快速临时解决方法:

chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)

然后重启 Gateway 网关并重试你的命令:

openclaw gateway restart

如果你仍能在最新版 OpenClaw 上复现,请在这里跟踪/报告:

文档没有回答我的问题 - 如何获得更好的答案?

使用可修改(git)安装,这样你就可以在本地拥有完整源码和文档,然后 从该文件夹内询问你的 bot(或 Claude/Codex),以便它读取仓库并精确回答。

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

更多细节:安装安装器标志

如何在 Linux 上安装 OpenClaw?

简短答案:按照 Linux 指南操作,然后运行新手引导。

如何在 VPS 上安装 OpenClaw?

任何 Linux VPS 都可以。在服务器上安装,然后使用 SSH/Tailscale 访问 Gateway 网关。

指南:exe.devHetznerFly.io。 远程访问:Gateway 网关远程访问

云/VPS 安装指南在哪里?

我们维护了一个包含常见提供商的托管中心。选择一个并按照指南操作:

它在云端的工作方式:Gateway 网关在服务器上运行,你通过 Control UI(或 Tailscale/SSH) 从笔记本电脑/手机访问它。你的状态 + 工作区 位于服务器上,因此请将主机视为事实来源并进行备份。

你可以将节点(Mac/iOS/Android/headless)配对到该云端 Gateway 网关,以访问 本地屏幕/摄像头/canvas,或在笔记本电脑上运行命令,同时将 Gateway 网关保留在云端。

中心:平台。远程访问:Gateway 网关远程访问。 节点:节点节点 CLI

我可以让 OpenClaw 自己更新自己吗?

简短答案:可以,但不推荐。更新流程可能会重启 Gateway 网关(这会中断活动会话),可能需要干净的 git checkout, 并且可能提示确认。更安全的方式:由操作员在 shell 中运行更新。

使用 CLI:

openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart

如果必须从智能体自动化执行:

openclaw update --yes --no-restart
openclaw gateway restart

文档:更新正在更新

新手引导实际会做什么?

openclaw onboard 是推荐的设置路径。在本地模式中,它会引导你完成:

  • 模型/身份验证设置(提供商 OAuth、API key、Anthropic setup-token,以及 LM Studio 等本地模型选项)
  • 工作区位置 + 引导文件
  • Gateway 网关设置(bind/port/auth/tailscale)
  • 渠道(WhatsApp、Telegram、Discord、Mattermost、Signal、iMessage,以及 QQ Bot 等内置渠道插件)
  • 守护进程安装(macOS 上的 LaunchAgent;Linux/WSL2 上的 systemd 用户单元)
  • 健康检查skills 选择

如果你配置的模型未知或缺少身份验证,它也会发出警告。

运行这个需要 Claude 或 OpenAI 订阅吗?

不需要。你可以使用 API keys(Anthropic/OpenAI/其他)运行 OpenClaw,或使用 仅本地模型,这样你的数据会留在你的设备上。订阅(Claude Pro/Max 或 OpenAI Codex)是这些提供商的可选身份验证方式。

对于 OpenClaw 中的 Anthropic,实际区别是:

  • Anthropic API key:普通 Anthropic API 计费
  • OpenClaw 中的 Claude CLI / Claude 订阅身份验证:Anthropic 工作人员 告诉我们这种用法再次被允许,除非 Anthropic 发布新的 政策,否则 OpenClaw 会将 claude -p 用法视为此集成的受认可方式

对于长期运行的 gateway 主机,Anthropic API keys 仍然是更 可预测的设置。OpenAI Codex OAuth 明确支持 OpenClaw 这类外部 工具。

OpenClaw 还支持其他托管订阅式选项,包括 Qwen Cloud Coding PlanMiniMax Coding PlanZ.AI / GLM Coding Plan

文档:AnthropicOpenAIQwen CloudMiniMaxGLM Models本地模型Models

没有 API key,可以使用 Claude Max 订阅吗?

可以。

Anthropic 工作人员告诉我们,OpenClaw 风格的 Claude CLI 用法再次被允许,因此 除非 Anthropic 发布新的政策,否则 OpenClaw 会将 Claude 订阅身份验证和 claude -p 用法视为此集成的受认可方式。如果你想要 最可预测的服务器端设置,请改用 Anthropic API key。

你们支持 Claude 订阅身份验证(Claude Pro 或 Max)吗?

支持。

Anthropic 工作人员告诉我们这种用法再次被允许,因此除非 Anthropic 发布新的政策, 否则 OpenClaw 会将 Claude CLI 复用和 claude -p 用法视为此集成的受认可方式。

Anthropic setup-token 仍然是受支持的 OpenClaw token 路径,但 OpenClaw 现在会在可用时优先使用 Claude CLI 复用和 claude -p。 对于生产或多用户工作负载,Anthropic API key 身份验证仍然是 更安全、更可预测的选择。如果你想在 OpenClaw 中使用其他订阅式托管 选项,请参阅 OpenAIQwen / Model CloudMiniMaxGLM Models

为什么我会看到来自 Anthropic 的 HTTP 429 rate_limit_error?

这意味着你当前时间窗口的 Anthropic 配额/速率限制已经耗尽。如果你 使用 Claude CLI,请等待窗口重置或升级你的计划。如果你 使用 Anthropic API key,请在 Anthropic Console 中检查用量/账单,并按需提高限制。

如果消息明确是: Extra usage is required for long context requests,说明该请求正在尝试使用 Anthropic 的 1M 上下文 beta(context1m: true)。这只有在你的 凭证符合长上下文计费条件时才可用(API key 计费,或启用了 Extra Usage 的 OpenClaw Claude 登录路径)。

提示:设置一个回退模型,这样当某个提供商受到速率限制时,OpenClaw 仍可继续回复。 请参阅 ModelsOAuth/gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context

是否支持 AWS Bedrock?

支持。OpenClaw 内置了 Amazon Bedrock(Converse) 提供商。存在 AWS 环境标记时,OpenClaw 可以自动发现 Bedrock 流式/文本目录,并将其合并为一个隐式的 amazon-bedrock 提供商;否则你可以显式启用 plugins.entries.amazon-bedrock.config.discovery.enabled,或添加一个手动提供商条目。请参阅 Amazon Bedrock模型提供商。如果你更喜欢托管式密钥流程,在 Bedrock 前面放一个 OpenAI 兼容代理仍然是有效选项。

Codex 凭证如何工作?

OpenClaw 通过 OAuth(ChatGPT 登录)支持 OpenAI Code(Codex)。常见设置请使用 openai/gpt-5.5 搭配 agentRuntime.id: "codex": ChatGPT/Codex 订阅凭证加原生 Codex 应用服务器执行。仅当你想通过默认 Codex 运行时使用 Codex OAuth 时,才使用 openai-codex/gpt-5.5。直接的 OpenAI API key 访问仍可用于非智能体 OpenAI API 表面,也可通过有序的 openai-codex API key 配置文件用于智能体模型。 请参阅 模型提供商新手引导(CLI)

为什么 OpenClaw 仍会提到 openai-codex?

openai-codex 是 ChatGPT/Codex OAuth 的提供商和凭证配置文件 id。 较旧的配置也把它用作模型前缀:

  • openai/gpt-5.5 = 使用原生 Codex 运行时处理智能体轮次的 ChatGPT/Codex 订阅凭证
  • openai-codex/gpt-5.5 = 由 openclaw doctor --fix 修复的旧版模型路由
  • openai/gpt-5.5 加一个有序的 openai-codex API key 配置文件 = OpenAI 智能体模型的 API key 凭证
  • openai-codex:... = 凭证配置文件 id,不是模型引用

如果你想使用直接的 OpenAI Platform 计费/限制路径,请设置 OPENAI_API_KEY。如果你想使用 ChatGPT/Codex 订阅凭证,请通过 openclaw models auth login --provider openai-codex 登录。保持模型引用为 openai/gpt-5.5openai-codex/* 模型引用是旧版配置, openclaw doctor --fix 会重写它们。

为什么 Codex OAuth 限制可能不同于 ChatGPT 网页端?

Codex OAuth 使用 OpenAI 管理的、依赖套餐的配额窗口。实际使用中, 即使二者绑定到同一个账号,这些限制也可能不同于 ChatGPT 网站/应用体验。

OpenClaw 可以在 openclaw models status 中显示当前可见的提供商用量/配额窗口,但它不会臆造或归一化 ChatGPT 网页端 权益为直接 API 访问。如果你想使用直接的 OpenAI Platform 计费/限制路径,请使用带 API key 的 openai/*

是否支持 OpenAI 订阅凭证(Codex OAuth)?

支持。OpenClaw 完全支持 OpenAI Code(Codex)订阅 OAuth。 OpenAI 明确允许在 OpenClaw 这类外部工具/工作流中使用订阅 OAuth。 新手引导可以为你运行 OAuth 流程。

请参阅 OAuth模型提供商新手引导(CLI)

如何设置 Gemini CLI OAuth?

Gemini CLI 使用插件凭证流程,不是 openclaw.json 中的客户端 id 或 secret。

步骤:

  1. 在本地安装 Gemini CLI,确保 gemini 位于 PATH
    • Homebrew:brew install gemini-cli
    • npm:npm install -g @google/gemini-cli
  2. 启用插件:openclaw plugins enable google
  3. 登录:openclaw models auth login --provider google-gemini-cli --set-default
  4. 登录后的默认模型:google-gemini-cli/gemini-3-flash-preview
  5. 如果请求失败,请在 Gateway 网关主机上设置 GOOGLE_CLOUD_PROJECTGOOGLE_CLOUD_PROJECT_ID

这会将 OAuth 令牌存储在 Gateway 网关主机上的凭证配置文件中。详情:模型提供商

本地模型适合 casual chat 吗?

通常不适合。OpenClaw 需要大上下文和强安全性;小卡会截断并泄漏。如果必须使用,请在本地运行你能运行的最大模型构建(LM Studio),并查看 /gateway/local-models。更小/量化的模型会增加提示注入风险 - 参见 Security

如何将托管模型流量保持在特定区域?

选择区域固定的端点。OpenRouter 为 MiniMax、Kimi 和 GLM 提供美国托管选项;选择美国托管变体即可让数据留在区域内。你仍可通过使用 models.mode: "merge" 同时列出 Anthropic/OpenAI,这样在遵守你选择的区域提供商时,回退仍可用。

我必须买一台 Mac Mini 才能安装它吗?

不需要。OpenClaw 可在 macOS 或 Linux 上运行(Windows 通过 WSL2)。Mac mini 是可选的 - 有些人 会买一台作为常开主机,但小型 VPS、家用服务器或 Raspberry Pi 级别的盒子也可以。

只有使用 macOS 专用工具时才需要 Mac。对于 iMessage,请使用 BlueBubbles(推荐)- BlueBubbles 服务器可在任意 Mac 上运行,而 Gateway 网关可以在 Linux 或其他地方运行。如果你想使用其他 macOS 专用工具,请在 Mac 上运行 Gateway 网关,或配对一个 macOS 节点。

文档:BlueBubblesNodesMac remote mode

iMessage 支持需要 Mac mini 吗?

你需要某台 macOS 设备登录 Messages。它不必是 Mac mini - 任意 Mac 都可以。对于 iMessage,使用 BlueBubbles(推荐)- BlueBubbles 服务器在 macOS 上运行,而 Gateway 网关可以在 Linux 或其他地方运行。

常见设置:

  • 在 Linux/VPS 上运行 Gateway 网关,并在任意已登录 Messages 的 Mac 上运行 BlueBubbles 服务器。
  • 如果想要最简单的单机设置,就在 Mac 上运行所有内容。

文档:BlueBubblesNodesMac remote mode

如果我买一台 Mac mini 来运行 OpenClaw,可以把它连接到我的 MacBook Pro 吗?

可以。Mac mini 可以运行 Gateway 网关,你的 MacBook Pro 可以作为 节点(配套设备)连接。节点不运行 Gateway 网关 - 它们会提供额外 能力,例如屏幕/相机/canvas,以及该设备上的 system.run

常见模式:

  • Gateway 网关运行在 Mac mini 上(常开)。
  • MacBook Pro 运行 macOS 应用或节点主机,并配对到 Gateway 网关。
  • 使用 openclaw nodes status / openclaw nodes list 查看它。

文档:NodesNodes CLI

可以使用 Bun 吗?

不推荐使用 Bun。我们发现了运行时错误,尤其是在 WhatsApp 和 Telegram 中。 请使用 Node 来运行稳定的 Gateway 网关。

如果你仍想试验 Bun,请在非生产 Gateway 网关上进行, 且不要使用 WhatsApp/Telegram。

Telegram:allowFrom 中应填写什么?

channels.telegram.allowFrom人类发送者的 Telegram 用户 ID(数字)。它不是 bot 用户名。

设置流程只要求数字用户 ID。如果你的配置中已有旧版 @username 条目,openclaw doctor --fix 可以尝试解析它们。

更安全(无第三方 bot):

  • 给你的 bot 发私信,然后运行 openclaw logs --follow 并读取 from.id

官方 Bot API:

  • 给你的 bot 发私信,然后调用 https://api.telegram.org/bot<bot_token>/getUpdates 并读取 message.from.id

第三方(隐私性较低):

  • @userinfobot@getidsbot 发私信。

请参阅 /channels/telegram

多个人可以用同一个 WhatsApp 号码连接不同的 OpenClaw 实例吗?

可以,通过多智能体路由实现。将每个发送者的 WhatsApp 私信(peer kind: "direct",发送者 E.164 号码如 +15551234567)绑定到不同的 agentId,这样每个人都有自己的工作区和会话存储。回复仍来自同一个 WhatsApp 账号,且私信访问控制(channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom)在每个 WhatsApp 账号内是全局的。请参阅 Multi-Agent RoutingWhatsApp

可以同时运行一个“fast chat”智能体和一个“Opus for coding”智能体吗?

可以。使用多智能体路由:为每个智能体指定自己的默认模型,然后将入站路由(提供商账号或特定 peer)绑定到每个智能体。示例配置位于 Multi-Agent Routing。另请参阅 ModelsConfiguration

Homebrew 能在 Linux 上使用吗?

可以。Homebrew 支持 Linux(Linuxbrew)。快速设置:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>

如果你通过 systemd 运行 OpenClaw,请确保服务 PATH 包含 /home/linuxbrew/.linuxbrew/bin(或你的 brew 前缀),这样 brew 安装的工具才能在非登录 shell 中解析。 近期构建还会在 Linux systemd 服务中前置常见用户 bin 目录(例如 ~/.local/bin~/.npm-global/bin~/.local/share/pnpm~/.bun/bin),并在设置时识别 PNPM_HOMENPM_CONFIG_PREFIXBUN_INSTALLVOLTA_HOMEASDF_DATA_DIRNVM_DIRFNM_DIR

可修改的 git 安装和 npm 安装有什么区别
  • **可修改(git)安装:**完整源码 checkout,可编辑,最适合贡献者。 你会在本地运行构建,并可以修补代码/文档。
  • **npm 安装:**全局 CLI 安装,无仓库,最适合“只想运行它”的情况。 更新来自 npm dist-tags。

文档:入门指南Updating

以后可以在 npm 和 git 安装之间切换吗?

可以。当 OpenClaw 已安装时,使用 openclaw update --channel ...。 这不会删除你的数据 - 它只会更改 OpenClaw 代码安装。 你的状态(~/.openclaw)和工作区(~/.openclaw/workspace)保持不变。

从 npm 切换到 git:

openclaw update --channel dev

从 git 切换到 npm:

openclaw update --channel stable

添加 --dry-run 可先预览计划中的模式切换。更新器会运行 Doctor 后续处理,刷新目标渠道的插件来源,并 重启 Gateway 网关,除非你传入 --no-restart

安装器也可以强制使用任一模式:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm

备份提示:请参阅 Backup strategy

我应该在笔记本电脑上还是 VPS 上运行 Gateway 网关?

简短回答:如果你想要 24/7 可靠性,请使用 VPS。如果你想要 最低摩擦,并且能接受睡眠/重启,就在本地运行。

笔记本电脑(本地 Gateway 网关)

  • 优点: 无服务器成本,可直接访问本地文件,有实时浏览器窗口。
  • 缺点: 睡眠/网络中断 = 断开连接,操作系统更新/重启会中断,必须保持唤醒。

VPS / 云端

  • 优点: 始终在线,网络稳定,没有笔记本电脑睡眠问题,更容易保持运行。
  • 缺点: 通常以无头方式运行(使用截图),只能访问远程文件,更新时必须使用 SSH。

OpenClaw 特定说明: WhatsApp/Telegram/Slack/Mattermost/Discord 都可以在 VPS 上正常工作。唯一真正的权衡是无头浏览器与可见窗口。参见浏览器

推荐默认方式: 如果你之前遇到过 Gateway 网关断开连接,请使用 VPS。如果你正在主动使用 Mac,并且需要本地文件访问或带可见浏览器的 UI 自动化,本地运行很适合。

在专用机器上运行 OpenClaw 有多重要?

不是必需的,但建议这样做以提高可靠性和隔离性

  • 专用主机(VPS/Mac mini/Pi): 始终在线,睡眠/重启中断更少,权限更清晰,更容易保持运行。
  • 共享笔记本电脑/台式机: 完全适合测试和主动使用,但机器睡眠或更新时会出现暂停。

如果你想兼顾两者的优点,可以将 Gateway 网关放在专用主机上,并将你的笔记本电脑配对为一个节点,用于本地屏幕/摄像头/执行工具。参见节点。 安全指南请阅读安全

最低 VPS 要求和推荐操作系统是什么?

OpenClaw 很轻量。对于一个基础 Gateway 网关 + 一个聊天渠道:

  • 绝对最低要求: 1 个 vCPU、1GB RAM、约 500MB 磁盘。
  • 推荐: 1-2 个 vCPU,2GB RAM 或更多以留出余量(日志、媒体、多个渠道)。节点工具和浏览器自动化可能比较消耗资源。

操作系统:使用 Ubuntu LTS(或任何现代 Debian/Ubuntu)。Linux 安装路径在那里测试最充分。

文档:LinuxVPS 托管

我可以在 VM 中运行 OpenClaw 吗?要求是什么?

可以。把 VM 当作 VPS 一样对待:它需要始终开启、可访问,并且有足够的 RAM 供 Gateway 网关和你启用的任何渠道使用。

基准指南:

  • 绝对最低要求: 1 个 vCPU、1GB RAM。
  • 推荐: 如果运行多个渠道、浏览器自动化或媒体工具,建议 2GB RAM 或更多。
  • 操作系统: Ubuntu LTS 或其他现代 Debian/Ubuntu。

如果你使用 Windows,WSL2 是最简单的 VM 风格设置,并且具有最佳工具 兼容性。参见 WindowsVPS 托管。 如果你在 VM 中运行 macOS,请参见 macOS VM

相关内容