消息与投递

消息

OpenClaw 通过会话解析、排队、流式传输、工具执行和推理可见性的流水线处理入站消息。本页说明从入站消息到回复的路径。

消息流(高层)

Inbound message
  -> routing/bindings -> session key
  -> queue (if a run is active)
  -> agent run (streaming + tools)
  -> outbound replies (channel limits + chunking)

关键调节点位于配置中:

  • messages.* 用于前缀、排队和群组行为。
  • agents.defaults.* 用于分块流式传输和分块默认值。
  • 渠道覆盖项(channels.whatsapp.*channels.telegram.* 等)用于上限和流式传输开关。

完整架构见配置

入站去重

渠道可能在重连后重新投递同一条消息。OpenClaw 会保留一个短期缓存,以渠道/账号/对端/会话/消息 ID 为键,避免重复投递触发另一次智能体运行。

入站防抖

来自同一发送者的快速连续消息可以通过 messages.inbound 批处理为单个智能体轮次。防抖按渠道 + 对话限定作用域,并使用最新消息作为回复串联/ID。

配置(全局默认值 + 按渠道覆盖):

{
  messages: {
    inbound: {
      debounceMs: 2000,
      byChannel: {
        whatsapp: 5000,
        slack: 1500,
        discord: 1500,
      },
    },
  },
}

注意:

  • 防抖适用于纯文本消息;媒体/附件会立即刷新。
  • 控制命令会绕过防抖,因此保持独立存在 —— 除非某个渠道明确选择加入同一发送者私信合并(例如 BlueBubbles coalesceSameSenderDms),此时私信命令会在防抖窗口内等待,以便拆分发送的载荷可以并入同一个智能体轮次。

会话和设备

会话由 Gateway 网关拥有,而不是由客户端拥有。

  • 直接聊天会折叠进智能体主会话键。
  • 群组/频道拥有自己的会话键。
  • 会话存储和转录记录位于 Gateway 网关主机上。

多个设备/渠道可以映射到同一个会话,但历史记录不会完全同步回每个客户端。建议:长对话使用一个主设备,以避免上下文分歧。Control UI 和 TUI 始终显示由 Gateway 网关支持的会话转录记录,因此它们是真实来源。

详情:会话管理

工具结果元数据

工具结果 content 是模型可见的结果。工具结果 details 是用于 UI 渲染、诊断、媒体投递和插件的运行时元数据。

OpenClaw 会显式保持这条边界:

  • toolResult.details 会在提供商重放和压缩输入前被剥离。
  • 持久化的会话转录记录只保留有界的 details;过大的元数据会被替换为紧凑摘要,并标记为 persistedDetailsTruncated: true
  • 插件和工具应将模型必须读取的文本放入 content,而不是只放在 details 中。

入站正文和历史上下文

OpenClaw 将提示正文命令正文分开:

  • BodyForAgent:当前消息中面向主模型的文本。渠道插件应让它聚焦于发送者当前承载提示的文本。
  • Body:旧版提示回退。这可能包含渠道信封和可选历史包装器,但当 BodyForAgent 可用时,当前渠道不应依赖它作为主模型输入。
  • CommandBody:用于指令/命令解析的原始用户文本。
  • RawBodyCommandBody 的旧版别名(为兼容性保留)。

当某个渠道提供历史记录时,它会使用共享包装器:

  • [Chat messages since your last reply - for context]
  • [Current message - respond to this]

对于非直接聊天(群组/频道/房间),当前消息正文会带上发送者标签前缀(与历史条目使用相同样式)。这会让智能体提示中的实时消息与排队/历史消息保持一致。

历史缓冲区是仅待处理的:它们包含没有触发运行的群组消息(例如受提及门控的消息),并且排除已经在会话转录记录中的消息。

指令剥离只适用于当前消息部分,因此历史记录会保持完整。包装历史记录的渠道应将 CommandBody(或 RawBody)设置为原始消息文本,并将 Body 保持为组合后的提示。结构化历史、回复、转发和渠道元数据会在提示组装期间渲染为用户角色的不可信上下文块。历史缓冲区可通过 messages.groupChat.historyLimit(全局默认值)以及按渠道覆盖项配置,例如 channels.slack.historyLimitchannels.telegram.accounts.<id>.historyLimit(设置为 0 可禁用)。

排队和跟进

如果某次运行已经处于活动状态,入站消息可以排队、Steer 到当前运行,或被收集用于后续轮次。

  • 通过 messages.queue(以及 messages.queue.byChannel)配置。
  • 默认模式是 steer,当 Steering 回退到排队跟进投递时,会有 500ms 跟进防抖。
  • 模式:steerfollowupcollectsteer-backloginterrupt,以及旧版一次一个的 queue 模式。

详情:命令队列Steering queue

渠道运行所有权

渠道插件可以在消息进入会话队列前保留顺序、对输入进行防抖并施加传输背压。它们不应围绕智能体轮次本身施加单独的超时。一旦消息被路由到某个会话,长时间运行的工作就由会话、工具和运行时生命周期管理,从而让所有渠道以一致方式报告并从慢轮次中恢复。

流式传输、分块和批处理

分块流式传输会在模型生成文本块时发送部分回复。分块会遵守渠道文本限制,并避免拆分围栏代码。

关键设置:

  • agents.defaults.blockStreamingDefaulton|off,默认关闭)
  • agents.defaults.blockStreamingBreaktext_end|message_end
  • agents.defaults.blockStreamingChunkminChars|maxChars|breakPreference
  • agents.defaults.blockStreamingCoalesce(基于空闲的批处理)
  • agents.defaults.humanDelay(分块回复之间的类人停顿)
  • 渠道覆盖项:*.blockStreaming*.blockStreamingCoalesce(非 Telegram 渠道需要显式设置 *.blockStreaming: true

详情:流式传输 + 分块

推理可见性和 token

OpenClaw 可以公开或隐藏模型推理:

  • /reasoning on|off|stream 控制可见性。
  • 当模型生成推理内容时,它仍会计入 token 使用量。
  • Telegram 支持将推理流式传输到临时草稿气泡中,并在最终投递后删除;使用 /reasoning on 可获得持久推理输出。

详情:思考 + 推理指令Token 使用量

前缀、串联和回复

出站消息格式集中在 messages 中:

  • messages.responsePrefixchannels.<channel>.responsePrefixchannels.<channel>.accounts.<id>.responsePrefix(出站前缀级联),以及 channels.whatsapp.messagePrefix(WhatsApp 入站前缀)
  • 通过 replyToMode 和按渠道默认值实现回复串联

详情:配置和渠道文档。

静默回复

精确的静默 token NO_REPLY / no_reply 表示“不要投递用户可见回复”。当某个轮次还有待处理的工具媒体(例如生成的 TTS 音频)时,OpenClaw 会剥离静默文本,但仍会投递媒体附件。OpenClaw 会按对话类型解析该行为:

  • 直接对话默认不允许静默,并将裸静默回复重写为简短的可见回退。
  • 群组/频道默认允许静默。
  • 内部编排默认允许静默。

对于发生在非直接聊天中任何助手回复之前的内部运行器失败,OpenClaw 也会使用静默回复,因此群组/频道不会看到 Gateway 网关错误样板。直接聊天默认显示紧凑失败文案;只有当 /verboseonfull 时,才会显示原始运行器详情。

默认值位于 agents.defaults.silentReplyagents.defaults.silentReplyRewrite 下;surfaces.<id>.silentReplysurfaces.<id>.silentReplyRewrite 可以按表面覆盖它们。

当父会话有一个或多个待处理的已生成子智能体运行时,裸静默回复会在所有表面上被丢弃而不是被重写,因此父会话会保持安静,直到子完成事件投递真正的回复。

相关