快速开始
Honcho 记忆
Honcho 为 OpenClaw 添加 AI 原生记忆。它会将对话持久化到专用服务,并随着时间推移构建用户和智能体模型,从而为你的智能体提供跨会话上下文,这种上下文能力超越了工作区 Markdown 文件。
它提供了什么
- 跨会话记忆 -- 每轮对话后都会持久化保存,因此上下文可以跨越会话重置、压缩和渠道切换继续保留。
- 用户建模 -- Honcho 会为每个用户维护个人档案(偏好、事实、沟通风格),同时也为智能体维护档案(个性、习得行为)。
- 语义搜索 -- 可搜索过去对话中的观察结果,而不仅限于当前会话。
- 多智能体感知 -- 父智能体会自动跟踪已生成的子智能体,并将父智能体添加为子会话中的观察者。
可用工具
Honcho 会注册智能体可在对话期间使用的工具:
数据检索(快速,无需 LLM 调用):
| 工具 | 作用 |
|---|---|
honcho_context |
跨会话的完整用户表示 |
honcho_search_conclusions |
对已存储结论进行语义搜索 |
honcho_search_messages |
跨会话查找消息(按发送者、日期过滤) |
honcho_session |
当前会话历史和摘要 |
问答(由 LLM 驱动):
| 工具 | 作用 |
|---|---|
honcho_ask |
向 Honcho 询问有关用户的问题。depth='quick' 用于事实,'thorough' 用于综合分析 |
入门指南
安装插件并运行设置:
openclaw plugins install @honcho-ai/openclaw-honcho
openclaw honcho setup
openclaw gateway --force
设置命令会提示你输入 API 凭证、写入配置,并可选择迁移现有工作区记忆文件。
配置
设置位于 plugins.entries["openclaw-honcho"].config 下:
{
plugins: {
entries: {
"openclaw-honcho": {
config: {
apiKey: "your-api-key", // 自托管时省略
workspaceId: "openclaw", // 记忆隔离
baseUrl: "https://api.honcho.dev",
},
},
},
},
}
对于自托管实例,将 baseUrl 指向你的本地服务器(例如
http://localhost:8000),并省略 API 密钥。
迁移现有记忆
如果你已有现有的工作区记忆文件(USER.md、MEMORY.md、
IDENTITY.md、memory/、canvas/),openclaw honcho setup 会检测到它们并提供迁移选项。
工作原理
每次 AI 轮次结束后,对话都会持久化到 Honcho。用户和智能体消息都会被观察,从而使 Honcho 能随着时间推移构建并完善其模型。
在对话期间,Honcho 工具会在 before_prompt_build
阶段查询该服务,并在模型看到提示词之前注入相关上下文。这可以确保轮次边界准确,并实现相关回忆。
Honcho 与内置记忆的对比
| 内置 / QMD | Honcho | |
|---|---|---|
| 存储 | 工作区 Markdown 文件 | 专用服务(本地或托管) |
| 跨会话 | 通过记忆文件 | 自动,内置 |
| 用户建模 | 手动(写入 MEMORY.md) |
自动档案 |
| 搜索 | 向量 + 关键词(混合) | 基于观察结果的语义搜索 |
| 多智能体 | 不跟踪 | 父 / 子感知 |
| 依赖 | 无(内置)或 QMD 二进制文件 | 安装插件 |
Honcho 与内置记忆系统可以协同工作。配置 QMD 后,会额外提供工具,用于在 Honcho 的跨会话记忆之外搜索本地 Markdown 文件。
CLI 命令
openclaw honcho setup # 配置 API 密钥并迁移文件
openclaw honcho status # 检查连接状态
openclaw honcho ask <question> # 向 Honcho 询问有关用户的问题
openclaw honcho search <query> [-k N] [-d D] # 对记忆进行语义搜索
延伸阅读
- 插件源代码
- Honcho 文档
- Honcho OpenClaw 集成指南
- 记忆 -- OpenClaw 记忆概览
- 上下文引擎 -- 插件上下文引擎的工作方式