网关

OpenAI 聊天补全

OpenClaw 的 Gateway 网关可以提供一个小型的 OpenAI 兼容 Chat Completions 端点。

此端点默认禁用。请先在配置中启用它。

  • POST /v1/chat/completions
  • 与 Gateway 网关相同的端口(WS + HTTP 多路复用):http://<gateway-host>:<port>/v1/chat/completions

启用 Gateway 网关的 OpenAI 兼容 HTTP 界面后,它还会提供:

  • GET /v1/models
  • GET /v1/models/{id}
  • POST /v1/embeddings
  • POST /v1/responses

在底层,请求会作为普通 Gateway 网关智能体运行来执行(与 openclaw agent 相同的代码路径),因此路由、权限和配置会与你的 Gateway 网关匹配。

身份验证

使用 Gateway 网关身份验证配置。

常见 HTTP 身份验证路径:

  • 共享密钥身份验证(gateway.auth.mode="token""password"): Authorization: Bearer <token-or-password>
  • 携带可信身份的 HTTP 身份验证(gateway.auth.mode="trusted-proxy"): 通过已配置的身份感知代理路由,并让它注入 必需的身份标头
  • 私有入口开放身份验证(gateway.auth.mode="none"): 不需要身份验证标头

注意:

  • gateway.auth.mode="token" 时,使用 gateway.auth.token(或 OPENCLAW_GATEWAY_TOKEN)。
  • gateway.auth.mode="password" 时,使用 gateway.auth.password(或 OPENCLAW_GATEWAY_PASSWORD)。
  • gateway.auth.mode="trusted-proxy" 时,HTTP 请求必须来自 已配置的可信代理来源;同主机 loopback 代理需要显式设置 gateway.auth.trustedProxy.allowLoopback = true
  • 如果已配置 gateway.auth.rateLimit 且身份验证失败次数过多,端点会返回带有 Retry-After429

安全边界(重要)

将此端点视为此 Gateway 网关实例的完整操作员访问界面。

  • 此处的 HTTP bearer 身份验证不是狭义的按用户作用域模型。
  • 此端点的有效 Gateway 网关令牌/密码应被视为所有者/操作员凭据。
  • 请求会通过与可信操作员操作相同的控制平面智能体路径运行。
  • 此端点没有单独的非所有者/按用户工具边界;一旦调用方在此处通过 Gateway 网关身份验证,OpenClaw 就会将该调用方视为此 Gateway 网关的可信操作员。
  • 对于共享密钥身份验证模式(tokenpassword),即使调用方发送更窄的 x-openclaw-scopes 标头,此端点也会恢复正常的完整操作员默认值。
  • 携带可信身份的 HTTP 模式(例如可信代理身份验证或 gateway.auth.mode="none")在存在 x-openclaw-scopes 时会遵循它,否则回退到正常的操作员默认作用域集合。
  • 如果目标智能体策略允许敏感工具,此端点可以使用它们。
  • 只将此端点保留在 loopback/tailnet/私有入口上;不要将它直接暴露到公共互联网。

身份验证矩阵:

  • gateway.auth.mode="token""password" + Authorization: Bearer ...
    • 证明持有共享 Gateway 网关操作员密钥
    • 忽略更窄的 x-openclaw-scopes
    • 恢复完整的默认操作员作用域集合: operator.adminoperator.approvalsoperator.pairingoperator.readoperator.talk.secretsoperator.write
    • 将此端点上的聊天轮次视为所有者发送者轮次
  • 携带可信身份的 HTTP 模式(例如可信代理身份验证,或私有入口上的 gateway.auth.mode="none"
    • 验证某个外部可信身份或部署边界
    • 当标头存在时遵循 x-openclaw-scopes
    • 当标头缺失时回退到正常的操作员默认作用域集合
    • 仅当调用方显式缩窄作用域并省略 operator.admin 时才失去所有者语义

参见安全远程访问

智能体优先模型契约

OpenClaw 将 OpenAI model 字段视为智能体目标,而不是原始提供商模型 ID。

  • model: "openclaw" 路由到已配置的默认智能体。
  • model: "openclaw/default" 也路由到已配置的默认智能体。
  • model: "openclaw/<agentId>" 路由到特定智能体。

可选请求标头:

  • x-openclaw-model: <provider/model-or-bare-id> 会为所选智能体覆盖后端模型。
  • x-openclaw-agent-id: <agentId> 仍作为兼容性覆盖受支持。
  • x-openclaw-session-key: <sessionKey> 完全控制会话路由。
  • x-openclaw-message-channel: <channel> 为渠道感知提示和策略设置合成入口渠道上下文。

仍接受的兼容别名:

  • model: "openclaw:<agentId>"
  • model: "agent:<agentId>"

启用端点

gateway.http.endpoints.chatCompletions.enabled 设置为 true

{
  gateway: {
    http: {
      endpoints: {
        chatCompletions: { enabled: true },
      },
    },
  },
}

禁用端点

gateway.http.endpoints.chatCompletions.enabled 设置为 false

{
  gateway: {
    http: {
      endpoints: {
        chatCompletions: { enabled: false },
      },
    },
  },
}

会话行为

默认情况下,此端点每次请求都是无状态的(每次调用都会生成新的会话键)。

如果请求包含 OpenAI user 字符串,Gateway 网关会从中派生稳定的会话键,因此重复调用可以共享一个智能体会话。

为什么此界面很重要

这是面向自托管前端和工具的最高价值兼容性集合:

  • 大多数 Open WebUI、LobeChat 和 LibreChat 设置都期望 /v1/models
  • 许多 RAG 系统期望 /v1/embeddings
  • 现有 OpenAI 聊天客户端通常可以从 /v1/chat/completions 开始。
  • 更多智能体原生客户端越来越偏好 /v1/responses

模型列表和智能体路由

`/v1/models` 返回什么?

OpenClaw 智能体目标列表。

返回的 ID 是 openclawopenclaw/defaultopenclaw/<agentId> 条目。 可直接将它们用作 OpenAI model 值。

`/v1/models` 会列出智能体还是子智能体?

它列出顶层智能体目标,而不是后端提供商模型,也不是子智能体。

子智能体仍是内部执行拓扑。它们不会作为伪模型出现。

为什么包含 `openclaw/default`?

openclaw/default 是已配置默认智能体的稳定别名。

这意味着即使真实的默认智能体 ID 在不同环境之间发生变化,客户端也可以继续使用一个可预测的 ID。

如何覆盖后端模型?

使用 x-openclaw-model

示例: x-openclaw-model: openai/gpt-5.4 x-openclaw-model: gpt-5.5

如果省略它,所选智能体会使用其正常配置的模型选择运行。

嵌入如何适配此契约?

/v1/embeddings 使用相同的智能体目标 model ID。

使用 model: "openclaw/default"model: "openclaw/<agentId>"。 当你需要特定嵌入模型时,在 x-openclaw-model 中发送它。 如果没有该标头,请求会传递给所选智能体的正常嵌入设置。

流式传输(SSE)

设置 stream: true 以接收 Server-Sent Events(SSE):

  • Content-Type: text/event-stream
  • 每个事件行是 data: <json>
  • 流以 data: [DONE] 结束

Open WebUI 快速设置

对于基础 Open WebUI 连接:

  • 基础 URL:http://127.0.0.1:18789/v1
  • macOS 上 Docker 的基础 URL:http://host.docker.internal:18789/v1
  • API key:你的 Gateway 网关 bearer 令牌
  • 模型:openclaw/default

预期行为:

  • GET /v1/models 应列出 openclaw/default
  • Open WebUI 应使用 openclaw/default 作为聊天模型 ID
  • 如果你想为该智能体使用特定后端提供商/模型,请设置该智能体的正常默认模型,或发送 x-openclaw-model

快速冒烟测试:

curl -sS http://127.0.0.1:18789/v1/models \
  -H 'Authorization: Bearer YOUR_TOKEN'

如果它返回 openclaw/default,大多数 Open WebUI 设置都可以使用相同的基础 URL 和令牌连接。

示例

非流式传输:

curl -sS http://127.0.0.1:18789/v1/chat/completions \
  -H 'Authorization: Bearer YOUR_TOKEN' \
  -H 'Content-Type: application/json' \
  -d '{
    "model": "openclaw/default",
    "messages": [{"role":"user","content":"hi"}]
  }'

流式传输:

curl -N http://127.0.0.1:18789/v1/chat/completions \
  -H 'Authorization: Bearer YOUR_TOKEN' \
  -H 'Content-Type: application/json' \
  -H 'x-openclaw-model: openai/gpt-5.4' \
  -d '{
    "model": "openclaw/research",
    "stream": true,
    "messages": [{"role":"user","content":"hi"}]
  }'

列出模型:

curl -sS http://127.0.0.1:18789/v1/models \
  -H 'Authorization: Bearer YOUR_TOKEN'

获取一个模型:

curl -sS http://127.0.0.1:18789/v1/models/openclaw%2Fdefault \
  -H 'Authorization: Bearer YOUR_TOKEN'

创建嵌入:

curl -sS http://127.0.0.1:18789/v1/embeddings \
  -H 'Authorization: Bearer YOUR_TOKEN' \
  -H 'Content-Type: application/json' \
  -H 'x-openclaw-model: openai/text-embedding-3-small' \
  -d '{
    "model": "openclaw/default",
    "input": ["alpha", "beta"]
  }'

注意:

  • /v1/models 返回 OpenClaw 智能体目标,而不是原始提供商目录。
  • openclaw/default 始终存在,因此一个稳定 ID 可跨环境工作。
  • 后端提供商/模型覆盖应放在 x-openclaw-model 中,而不是 OpenAI model 字段中。
  • /v1/embeddings 支持将 input 作为字符串或字符串数组。

相关