提供商
OpenAI
OpenAI 为 GPT 模型提供开发者 API,而 Codex 也可通过 OpenAI 的 Codex 客户端作为 ChatGPT 方案中的编码智能体使用。OpenClaw 将这些功能面保持分离,以便配置保持可预测。
OpenClaw 使用 openai/* 作为规范 OpenAI 模型路由。OpenAI 模型上的嵌入式智能体轮次默认通过原生 Codex app-server 运行时运行;直接 OpenAI API key 凭证仍可用于图片、嵌入、语音和实时等非智能体 OpenAI 功能面。
- 智能体模型 - 通过 Codex 运行时使用
openai/*模型;若使用 ChatGPT/Codex 订阅,请用openai-codex凭证登录,或者在你有意使用 API key 凭证时配置openai-codexAPI key 配置文件。 - 非智能体 OpenAI API - 通过
OPENAI_API_KEY或 OpenAI API key 新手引导直接访问 OpenAI Platform,并按用量计费。 - 旧版配置 -
openai-codex/*模型引用会由openclaw doctor --fix修复为openai/*加 Codex 运行时。
OpenAI 明确支持在 OpenClaw 等外部工具和工作流中使用订阅 OAuth。
提供商、模型、运行时和渠道是分离的层。如果这些标签被混在一起,请先阅读 Agent Runtimes,再更改配置。
快速选择
| 目标 | 使用 | 备注 |
|---|---|---|
| 使用原生 Codex 运行时的 ChatGPT/Codex 订阅 | openai/gpt-5.5 |
默认 OpenAI 智能体设置。使用 openai-codex 凭证登录。 |
| 智能体模型的直接 API key 计费 | openai/gpt-5.5 加一个 openai-codex API key 配置文件 |
使用 auth.order.openai-codex 优先选择该配置文件。 |
| 通过显式 PI 直接按 API key 计费 | openai/gpt-5.5 加 agentRuntime.id: "pi" |
选择普通的 openai API key 配置文件。 |
| 最新 ChatGPT Instant API 别名 | openai/chat-latest |
仅直接 API key。用于实验的移动别名,不是默认值。 |
| 通过显式 PI 使用 ChatGPT/Codex 订阅凭证 | openai/gpt-5.5 加 agentRuntime.id: "pi" |
为兼容路由选择一个 openai-codex 凭证配置文件。 |
| 图片生成或编辑 | openai/gpt-image-2 |
可与 OPENAI_API_KEY 或 OpenAI Codex OAuth 一起使用。 |
| 透明背景图片 | openai/gpt-image-1.5 |
使用 outputFormat=png 或 webp,并设置 openai.background=transparent。 |
命名映射
这些名称相似,但不能互换:
| 你看到的名称 | 层 | 含义 |
|---|---|---|
openai |
提供商前缀 | 规范 OpenAI 模型路由;智能体轮次使用 Codex 运行时。 |
openai-codex |
凭证/配置文件前缀 | OpenAI Codex OAuth/订阅凭证配置文件提供商。 |
codex 插件 |
插件 | 内置 OpenClaw 插件,提供原生 Codex app-server 运行时和 /codex 聊天控制。 |
agentRuntime.id: codex |
智能体运行时 | 为嵌入式轮次强制使用原生 Codex app-server harness。 |
/codex ... |
聊天命令集 | 从对话中绑定/控制 Codex app-server 线程。 |
runtime: "acp", agentId: "codex" |
ACP 会话路由 | 通过 ACP/acpx 运行 Codex 的显式回退路径。 |
这意味着配置可以有意同时包含 openai/* 模型引用和 openai-codex 凭证配置文件。openclaw doctor --fix 会将旧版 openai-codex/* 模型引用重写为规范 OpenAI 模型路由。
OpenClaw 功能覆盖
| OpenAI 能力 | OpenClaw 功能面 | Status |
|---|---|---|
| 聊天 / Responses | openai/<model> 模型提供商 |
是 |
| Codex 订阅模型 | 使用 openai-codex OAuth 的 openai/<model> |
是 |
| 旧版 Codex 模型引用 | openai-codex/<model> |
由 Doctor 修复为 openai/<model> |
| Codex app-server harness | 省略运行时或使用 agentRuntime.id: codex 的 openai/<model> |
是 |
| 服务器端 web 搜索 | 原生 OpenAI Responses 工具 | 是,启用 web 搜索且没有固定提供商时 |
| 图片 | image_generate |
是 |
| 视频 | video_generate |
是 |
| 文本转语音 | messages.tts.provider: "openai" / tts |
是 |
| 批量语音转文本 | tools.media.audio / 媒体理解 |
是 |
| 流式语音转文本 | 语音通话 streaming.provider: "openai" |
是 |
| 实时语音 | 语音通话 realtime.provider: "openai" / 控制 UI Talk |
是 |
| 嵌入 | 记忆嵌入提供商 | 是 |
记忆嵌入
OpenClaw 可以使用 OpenAI 或兼容 OpenAI 的嵌入端点,为 memory_search 索引和查询嵌入提供支持:
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
},
},
},
}
对于需要非对称嵌入标签的兼容 OpenAI 端点,请在 memorySearch 下设置 queryInputType 和 documentInputType。OpenClaw 会将它们作为提供商特定的 input_type 请求字段转发:查询嵌入使用 queryInputType;已索引的记忆块和批量索引使用 documentInputType。完整示例见记忆配置参考。
入门指南
选择你偏好的凭证方式并按照设置步骤操作。
API key(OpenAI Platform)
最适合: 直接 API 访问和按用量计费。
获取你的 API key
从 OpenAI Platform 仪表板创建或复制 API key。
运行新手引导
openclaw onboard --auth-choice openai-api-key
或直接传入 key:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
验证模型可用
openclaw models list --provider openai
路由摘要
| 模型引用 | 运行时配置 | 路由 | 凭证 |
|---|---|---|---|
openai/gpt-5.5 |
省略 / agentRuntime.id: "codex" |
Codex app-server harness | openai-codex 配置文件 |
openai/gpt-5.4-mini |
省略 / agentRuntime.id: "codex" |
Codex app-server harness | openai-codex 配置文件 |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
PI 嵌入式运行时 | openai 配置文件或选定的 openai-codex 配置文件 |
配置示例
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
若要从 OpenAI API 试用 ChatGPT 当前的 Instant 模型,请将模型设置为 openai/chat-latest:
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/chat-latest" } } },
}
chat-latest 是一个移动别名。OpenAI 文档将其描述为 ChatGPT 中使用的最新 Instant 模型,并建议在生产 API 使用中采用 gpt-5.5,因此除非你明确想要该别名行为,否则请将 openai/gpt-5.5 保持为稳定默认值。该别名当前只接受 medium 文本详细程度,因此 OpenClaw 会为此模型规范化不兼容的 OpenAI 文本详细程度覆盖项。
Codex 订阅
最适合: 使用你的 ChatGPT/Codex 订阅进行原生 Codex app-server 执行,而不是使用单独的 API key。Codex cloud 需要 ChatGPT 登录。
运行 Codex OAuth
openclaw onboard --auth-choice openai-codex
或直接运行 OAuth:
openclaw models auth login --provider openai-codex
对于无头环境或不适合回调的设置,请添加 --device-code,以使用 ChatGPT 设备码流程登录,而不是 localhost 浏览器回调:
openclaw models auth login --provider openai-codex --device-code
使用规范 OpenAI 模型路由
openclaw config set agents.defaults.model.primary openai/gpt-5.5
默认路径不需要运行时配置。OpenAI 智能体轮次会自动选择原生 Codex app-server 运行时,并且在选择此路由时,OpenClaw 会安装或修复内置的 Codex 插件。
验证 Codex 凭证是否可用
openclaw models list --provider openai-codex
Gateway 网关运行后,在聊天中发送 /codex status 或 /codex models,以验证原生 app-server 运行时。
路由摘要
| 模型引用 | 运行时配置 | 路由 | 凭证 |
|---|---|---|---|
openai/gpt-5.5 |
省略 / agentRuntime.id: "codex" |
原生 Codex app-server harness | Codex 登录或所选的 openai-codex profile |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
PI 嵌入式运行时,使用内部 Codex 凭证传输 | 所选的 openai-codex profile |
openai-codex/gpt-5.5 |
由 Doctor 修复 | 旧版路由重写为 openai/gpt-5.5 |
现有 openai-codex profile |
配置示例
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
检查并恢复 Codex OAuth 路由
使用这些命令查看你的默认智能体正在使用哪个模型、运行时和凭证路由:
openclaw models status
openclaw models auth list --provider openai-codex
openclaw config get agents.defaults.model --json
openclaw config get agents.defaults.agentRuntime --json
对于特定智能体,添加 --agent <id>:
openclaw models status --agent <id>
openclaw models auth list --agent <id> --provider openai-codex
如果旧配置仍包含 openai-codex/gpt-*,或者没有显式运行时配置却存在过期的 OpenAI PI 会话固定项,请修复它:
openclaw doctor --fix
openclaw config validate
如果 models auth list --provider openai-codex 没有显示可用的 profile,请重新登录:
openclaw models auth login --provider openai-codex
openclaw models status --probe --probe-provider openai-codex
openai-codex 仍然是凭证/profile provider id。openai/* 是通过 Codex 进行 OpenAI 智能体轮次的模型路由。
状态指示器
聊天中的 /status 会显示当前会话激活了哪个模型运行时。对于 OpenAI 智能体模型轮次,内置的 Codex app-server harness 显示为 Runtime: OpenAI Codex。过期的 PI 会话固定项会被修复为 Codex,除非配置显式固定 PI。
Doctor 警告
如果配置或会话状态中仍保留 openai-codex/* 路由或过期的 OpenAI PI 固定项,openclaw doctor --fix 会将它们重写为使用 Codex 运行时的 openai/*,除非显式配置了 PI。
上下文窗口上限
OpenClaw 将模型元数据和运行时上下文上限视为独立的值。
对于通过 Codex OAuth 目录使用的 openai/gpt-5.5:
- 原生
contextWindow:1000000 - 默认运行时
contextTokens上限:272000
实践中,较小的默认上限具有更好的延迟和质量特性。使用 contextTokens 覆盖它:
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
目录恢复
当存在 gpt-5.5 时,OpenClaw 会使用上游 Codex 目录元数据。如果实时 Codex 发现遗漏了 gpt-5.5 行,而账户已通过身份验证,OpenClaw 会合成该 OAuth 模型行,使 cron、子智能体和已配置的默认模型运行不会因 Unknown model 而失败。
原生 Codex app-server 凭证
原生 Codex app-server harness 使用 openai/* 模型引用加省略的运行时配置,或使用 agentRuntime.id: "codex",但其凭证仍基于账户。OpenClaw 按以下顺序选择凭证:
- 绑定到智能体的显式 OpenClaw
openai-codex凭证 profile。 - app-server 的现有账户,例如本地 Codex CLI ChatGPT 登录。
- 仅对于本地 stdio app-server 启动,当 app-server 报告没有账户且仍需要 OpenAI 凭证时,使用
CODEX_API_KEY,然后使用OPENAI_API_KEY。
这意味着,仅仅因为 Gateway 网关进程也有用于直接 OpenAI 模型或嵌入的 OPENAI_API_KEY,本地 ChatGPT/Codex 订阅登录不会被替换。环境变量 API key 回退仅适用于本地 stdio 无账户路径;它不会被发送到 WebSocket app-server 连接。当选择订阅式 Codex profile 时,OpenClaw 还会将 CODEX_API_KEY 和 OPENAI_API_KEY 排除在派生的 stdio app-server 子进程之外,并通过 app-server 登录 RPC 发送所选凭据。
图像生成
内置 openai 插件通过 image_generate 工具注册图像生成。
它通过同一个 openai/gpt-image-2 模型引用,同时支持 OpenAI API key 图像生成和 Codex OAuth 图像生成。
| 能力 | OpenAI API key | Codex OAuth |
|---|---|---|
| 模型引用 | openai/gpt-image-2 |
openai/gpt-image-2 |
| 凭证 | OPENAI_API_KEY |
OpenAI Codex OAuth 登录 |
| 传输 | OpenAI Images API | Codex Responses backend |
| 每次请求的最大图像数 | 4 | 4 |
| 编辑模式 | 已启用(最多 5 张参考图像) | 已启用(最多 5 张参考图像) |
| 尺寸覆盖 | 支持,包括 2K/4K 尺寸 | 支持,包括 2K/4K 尺寸 |
| 宽高比 / 分辨率 | 不转发到 OpenAI Images API | 安全时映射到受支持的尺寸 |
{
agents: {
defaults: {
imageGenerationModel: { primary: "openai/gpt-image-2" },
},
},
}
gpt-image-2 是 OpenAI 文本生成图像和图像编辑的默认值。gpt-image-1.5、gpt-image-1 和 gpt-image-1-mini 仍可作为显式模型覆盖使用。使用 openai/gpt-image-1.5 生成透明背景的 PNG/WebP 输出;当前的 gpt-image-2 API 会拒绝 background: "transparent"。
对于透明背景请求,智能体应调用 image_generate,并传入
model: "openai/gpt-image-1.5"、outputFormat: "png" 或 "webp",以及
background: "transparent";较旧的 openai.background 提供商选项仍被接受。OpenClaw 还会通过将默认 openai/gpt-image-2 透明请求重写为 gpt-image-1.5,保护公开 OpenAI 和 OpenAI Codex OAuth 路由;Azure 和自定义 OpenAI 兼容端点会保留其配置的部署/模型名称。
同一设置也暴露给无头 CLI 运行:
openclaw infer image generate \
--model openai/gpt-image-1.5 \
--output-format png \
--background transparent \
--prompt "A simple red circle sticker on a transparent background" \
--json
从输入文件开始时,请对 openclaw infer image edit 使用相同的 --output-format 和 --background 标志。
--openai-background 仍可作为 OpenAI 专用别名使用。
对于 Codex OAuth 安装,保持同一个 openai/gpt-image-2 引用。当配置了 openai-codex OAuth profile 时,OpenClaw 会解析该存储的 OAuth 访问令牌,并通过 Codex Responses backend 发送图像请求。对于该请求,它不会先尝试 OPENAI_API_KEY,也不会静默回退到 API key。如果你想使用直接 OpenAI Images API 路由,请显式配置 models.providers.openai,并设置 API key、自定义 base URL 或 Azure 端点。
如果该自定义图像端点位于受信任的局域网/私有地址,还需设置
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非存在此选择启用项,否则 OpenClaw 会继续阻止私有/内部 OpenAI 兼容图像端点。
生成:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
生成透明 PNG:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
编辑:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
视频生成
内置 openai 插件通过 video_generate 工具注册视频生成。
| 能力 | 值 |
|---|---|
| 默认模型 | openai/sora-2 |
| 模式 | 文本生成视频、图像生成视频、单视频编辑 |
| 参考输入 | 1 张图像或 1 个视频 |
| 尺寸覆盖 | 支持 |
| 其他覆盖 | aspectRatio、resolution、audio、watermark 会被忽略,并显示工具警告 |
{
agents: {
defaults: {
videoGenerationModel: { primary: "openai/sora-2" },
},
},
}
GPT-5 提示词贡献
OpenClaw 为跨提供商的 GPT-5 系列运行添加共享 GPT-5 提示词贡献。它按模型 id 应用,因此 openai/gpt-5.5、旧版预修复引用(例如 openai-codex/gpt-5.5)、openrouter/openai/gpt-5.5、opencode/gpt-5.5 以及其他兼容的 GPT-5 引用都会收到相同的覆盖层。旧的 GPT-4.x 模型不会。
内置的原生 Codex harness 通过 Codex app-server 开发者指令使用相同的 GPT-5 行为和 Heartbeat 覆盖层,因此通过 agentRuntime.id: "codex" 强制使用的 openai/gpt-5.x 会话,即使 Codex 拥有其余 harness 提示词,也会保持相同的跟进和主动 Heartbeat 指导。
GPT-5 贡献添加了带标签的行为契约,涵盖人格持久性、执行安全、工具纪律、输出形态、完成检查和验证。特定渠道的回复和静默消息行为保留在共享的 OpenClaw 系统提示和出站投递策略中。GPT-5 指引始终会为匹配的模型启用。友好的交互风格层是独立且可配置的。
| 值 | 效果 |
|---|---|
"friendly"(默认) |
启用友好的交互风格层 |
"on" |
"friendly" 的别名 |
"off" |
仅禁用友好风格层 |
Config
{
agents: {
defaults: {
promptOverlays: {
gpt5: { personality: "friendly" },
},
},
},
}
CLI
openclaw config set agents.defaults.promptOverlays.gpt5.personality off
语音和语音识别
Speech synthesis (TTS)
内置的 openai 插件会为 messages.tts 表面注册语音合成。
| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | messages.tts.providers.openai.model |
gpt-4o-mini-tts |
| 声音 | messages.tts.providers.openai.voice |
coral |
| 速度 | messages.tts.providers.openai.speed |
(未设置) |
| 指令 | messages.tts.providers.openai.instructions |
(未设置,仅限 gpt-4o-mini-tts) |
| 格式 | messages.tts.providers.openai.responseFormat |
语音便笺使用 opus,文件使用 mp3 |
| API key | messages.tts.providers.openai.apiKey |
回退到 OPENAI_API_KEY |
| 基础 URL | messages.tts.providers.openai.baseUrl |
https://api.openai.com/v1 |
| 额外正文 | messages.tts.providers.openai.extraBody / extra_body |
(未设置) |
可用模型:gpt-4o-mini-tts、tts-1、tts-1-hd。可用声音:alloy、ash、ballad、cedar、coral、echo、fable、juniper、marin、onyx、nova、sage、shimmer、verse。
extraBody 会在 OpenClaw 生成的字段之后合并到 /audio/speech 请求 JSON 中,因此可将它用于需要额外键(例如 lang)的 OpenAI 兼容端点。原型键会被忽略。
{
messages: {
tts: {
providers: {
openai: { model: "gpt-4o-mini-tts", voice: "coral" },
},
},
},
}
Speech-to-text
内置的 openai 插件通过 OpenClaw 的媒体理解转录表面注册批量语音转文本。
- 默认模型:
gpt-4o-transcribe - 端点:OpenAI REST
/v1/audio/transcriptions - 输入路径:多部分音频文件上传
- OpenClaw 在入站音频转录使用
tools.media.audio的任何位置都支持它,包括 Discord 语音频道片段和渠道音频附件
若要强制入站音频转录使用 OpenAI:
{
tools: {
media: {
audio: {
models: [
{
type: "provider",
provider: "openai",
model: "gpt-4o-transcribe",
},
],
},
},
},
}
当共享音频媒体配置或按调用转录请求提供语言和提示提示时,它们会转发给 OpenAI。
Realtime transcription
内置的 openai 插件会为 Voice Call 插件注册实时转录。
| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.streaming.providers.openai.model |
gpt-4o-transcribe |
| 语言 | ...openai.language |
(未设置) |
| 提示 | ...openai.prompt |
(未设置) |
| 静音时长 | ...openai.silenceDurationMs |
800 |
| VAD 阈值 | ...openai.vadThreshold |
0.5 |
| API key | ...openai.apiKey |
回退到 OPENAI_API_KEY |
Realtime voice
内置的 openai 插件会为 Voice Call 插件注册实时语音。
| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.realtime.providers.openai.model |
gpt-realtime-1.5 |
| 声音 | ...openai.voice |
alloy |
| 温度 | ...openai.temperature |
0.8 |
| VAD 阈值 | ...openai.vadThreshold |
0.5 |
| 静音时长 | ...openai.silenceDurationMs |
500 |
| API key | ...openai.apiKey |
回退到 OPENAI_API_KEY |
Azure OpenAI 端点
内置的 openai 提供商可通过覆盖基础 URL,将图像生成目标指向 Azure OpenAI 资源。在图像生成路径上,OpenClaw 会检测 models.providers.openai.baseUrl 上的 Azure 主机名,并自动切换到 Azure 的请求形态。
在以下情况下使用 Azure OpenAI:
- 你已经有 Azure OpenAI 订阅、配额或企业协议
- 你需要 Azure 提供的区域数据驻留或合规控制
- 你希望将流量保留在现有 Azure 租户内
配置
若要通过内置的 openai 提供商进行 Azure 图像生成,请将 models.providers.openai.baseUrl 指向你的 Azure 资源,并将 apiKey 设置为 Azure OpenAI key(而不是 OpenAI Platform key):
{
models: {
providers: {
openai: {
baseUrl: "https://<your-resource>.openai.azure.com",
apiKey: "<azure-openai-api-key>",
},
},
},
}
OpenClaw 会为 Azure 图像生成路由识别以下 Azure 主机后缀:
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
对于已识别 Azure 主机上的图像生成请求,OpenClaw 会:
- 发送
api-key标头,而不是Authorization: Bearer - 使用部署作用域路径(
/openai/deployments/{deployment}/...) - 向每个请求追加
?api-version=... - 对 Azure 图像生成调用使用 600 秒默认请求超时。按调用设置的
timeoutMs值仍会覆盖此默认值。
其他基础 URL(公共 OpenAI、OpenAI 兼容代理)会保留标准 OpenAI 图像请求形态。
API 版本
设置 AZURE_OPENAI_API_VERSION 可为 Azure 图像生成路径固定特定的 Azure 预览版或 GA 版本:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
未设置该变量时,默认值为 2024-12-01-preview。
模型名称就是部署名称
Azure OpenAI 会将模型绑定到部署。对于通过内置 openai 提供商路由的 Azure 图像生成请求,OpenClaw 中的 model 字段必须是你在 Azure 门户中配置的 Azure 部署名称,而不是公共 OpenAI 模型 ID。
如果你创建了一个名为 gpt-image-2-prod、用于提供 gpt-image-2 的部署:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
同样的部署名称规则也适用于通过内置 openai 提供商路由的图像生成调用。
区域可用性
Azure 图像生成目前仅在部分区域可用(例如 eastus2、swedencentral、polandcentral、westus3、uaenorth)。创建部署前,请查看 Microsoft 当前的区域列表,并确认你的区域提供特定模型。
参数差异
Azure OpenAI 和公共 OpenAI 并不总是接受相同的图像参数。Azure 可能会拒绝公共 OpenAI 允许的选项(例如 gpt-image-2 上的某些 background 值),或仅在特定模型版本上暴露这些选项。这些差异来自 Azure 和底层模型,而不是 OpenClaw。如果 Azure 请求因验证错误而失败,请在 Azure 门户中检查你的具体部署和 API 版本支持的参数集。
高级配置
Transport (WebSocket vs SSE)
对于 openai/*,OpenClaw 优先使用 WebSocket,并以 SSE 作为回退("auto")。
在 "auto" 模式下,OpenClaw 会:
- 在回退到 SSE 前重试一次早期 WebSocket 失败
- 失败后,将 WebSocket 标记为降级约 60 秒,并在冷却期间使用 SSE
- 为重试和重连附加稳定的会话和轮次身份标头
- 在不同传输变体之间规范化用量计数器(
input_tokens/prompt_tokens)
| 值 | 行为 |
|---|---|
"auto"(默认) |
优先 WebSocket,SSE 回退 |
"sse" |
强制仅使用 SSE |
"websocket" |
强制仅使用 WebSocket |
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { transport: "auto" },
},
},
},
},
}
相关 OpenAI 文档:
WebSocket 预热
OpenClaw 默认为 openai/* 启用 WebSocket 预热,以降低首次轮次延迟。
// Disable warm-up
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { openaiWsWarmup: false },
},
},
},
},
}
快速模式
OpenClaw 为 openai/* 暴露了共享的快速模式开关:
- 聊天/UI:
/fast status|on|off - 配置:
agents.defaults.models["<provider>/<model>"].params.fastMode
启用后,OpenClaw 会将快速模式映射到 OpenAI 优先处理(service_tier = "priority")。现有的 service_tier 值会被保留,快速模式不会改写 reasoning 或 text.verbosity。
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { fastMode: true } },
},
},
},
}
优先处理(service_tier)
OpenAI 的 API 通过 service_tier 暴露优先处理。在 OpenClaw 中按模型设置:
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { serviceTier: "priority" } },
},
},
},
}
支持的值:auto、default、flex、priority。
服务器端压缩(Responses API)
对于直接 OpenAI Responses 模型(api.openai.com 上的 openai/*),OpenAI 插件的 Pi harness 流包装器会自动启用服务器端压缩:
- 强制
store: true(除非模型兼容性设置了supportsStore: false) - 注入
context_management: [{ type: "compaction", compact_threshold: ... }] - 默认
compact_threshold:contextWindow的 70%(不可用时为80000)
这适用于内置 Pi harness 路径,也适用于嵌入式运行使用的 OpenAI provider 钩子。原生 Codex 应用服务器 harness 通过 Codex 管理自己的上下文,并使用 agents.defaults.agentRuntime.id 单独配置。
显式启用
适用于 Azure OpenAI Responses 等兼容端点:
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.5": {
params: { responsesServerCompaction: true },
},
},
},
},
}
自定义阈值
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
禁用
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { responsesServerCompaction: false },
},
},
},
},
}
严格智能体式 GPT 模式
对于 openai/* 上的 GPT-5 系列运行,OpenClaw 可以使用更严格的嵌入式执行契约:
{
agents: {
defaults: {
embeddedPi: { executionContract: "strict-agentic" },
},
},
}
使用 strict-agentic 时,OpenClaw 会:
- 当工具操作可用时,不再将仅计划的轮次视为成功进展
- 使用立即行动 steer 重试该轮次
- 为实质性工作自动启用
update_plan - 如果模型持续计划但不行动,则呈现明确的受阻状态
原生路由与 OpenAI 兼容路由
OpenClaw 对直接 OpenAI、Codex 和 Azure OpenAI 端点的处理方式不同于通用 OpenAI 兼容 /v1 代理:
原生路由(openai/*、Azure OpenAI):
- 仅对支持 OpenAI
noneeffort 的模型保留reasoning: { effort: "none" } - 对会拒绝
reasoning.effort: "none"的模型或代理省略已禁用的推理 - 默认将工具 schema 设为严格模式
- 仅在已验证的原生主机上附加隐藏归因标头
- 保留仅 OpenAI 使用的请求塑形(
service_tier、store、推理兼容性、prompt-cache 提示)
代理/兼容路由:
- 使用更宽松的兼容行为
- 从非原生
openai-completions载荷中移除 Completionsstore - 接受用于 OpenAI 兼容 Completions 代理的高级
params.extra_body/params.extraBody透传 JSON - 接受用于 vLLM 等 OpenAI 兼容 Completions 代理的
params.chat_template_kwargs - 不强制严格工具 schema 或仅原生使用的标头
Azure OpenAI 使用原生传输和兼容行为,但不会收到隐藏归因标头。