提供商

OpenAI

OpenAI 为 GPT 模型提供开发者 API,而 Codex 也可通过 OpenAI 的 Codex 客户端作为 ChatGPT 方案中的编码智能体使用。OpenClaw 将这些功能面保持分离,以便配置保持可预测。

OpenClaw 使用 openai/* 作为规范 OpenAI 模型路由。OpenAI 模型上的嵌入式智能体轮次默认通过原生 Codex app-server 运行时运行;直接 OpenAI API key 凭证仍可用于图片、嵌入、语音和实时等非智能体 OpenAI 功能面。

  • 智能体模型 - 通过 Codex 运行时使用 openai/* 模型;若使用 ChatGPT/Codex 订阅,请用 openai-codex 凭证登录,或者在你有意使用 API key 凭证时配置 openai-codex API key 配置文件。
  • 非智能体 OpenAI API - 通过 OPENAI_API_KEY 或 OpenAI API key 新手引导直接访问 OpenAI Platform,并按用量计费。
  • 旧版配置 - openai-codex/* 模型引用会由 openclaw doctor --fix 修复为 openai/* 加 Codex 运行时。

OpenAI 明确支持在 OpenClaw 等外部工具和工作流中使用订阅 OAuth。

提供商、模型、运行时和渠道是分离的层。如果这些标签被混在一起,请先阅读 Agent Runtimes,再更改配置。

快速选择

目标 使用 备注
使用原生 Codex 运行时的 ChatGPT/Codex 订阅 openai/gpt-5.5 默认 OpenAI 智能体设置。使用 openai-codex 凭证登录。
智能体模型的直接 API key 计费 openai/gpt-5.5 加一个 openai-codex API key 配置文件 使用 auth.order.openai-codex 优先选择该配置文件。
通过显式 PI 直接按 API key 计费 openai/gpt-5.5agentRuntime.id: "pi" 选择普通的 openai API key 配置文件。
最新 ChatGPT Instant API 别名 openai/chat-latest 仅直接 API key。用于实验的移动别名,不是默认值。
通过显式 PI 使用 ChatGPT/Codex 订阅凭证 openai/gpt-5.5agentRuntime.id: "pi" 为兼容路由选择一个 openai-codex 凭证配置文件。
图片生成或编辑 openai/gpt-image-2 可与 OPENAI_API_KEY 或 OpenAI Codex OAuth 一起使用。
透明背景图片 openai/gpt-image-1.5 使用 outputFormat=pngwebp,并设置 openai.background=transparent

命名映射

这些名称相似,但不能互换:

你看到的名称 含义
openai 提供商前缀 规范 OpenAI 模型路由;智能体轮次使用 Codex 运行时。
openai-codex 凭证/配置文件前缀 OpenAI Codex OAuth/订阅凭证配置文件提供商。
codex 插件 插件 内置 OpenClaw 插件,提供原生 Codex app-server 运行时和 /codex 聊天控制。
agentRuntime.id: codex 智能体运行时 为嵌入式轮次强制使用原生 Codex app-server harness。
/codex ... 聊天命令集 从对话中绑定/控制 Codex app-server 线程。
runtime: "acp", agentId: "codex" ACP 会话路由 通过 ACP/acpx 运行 Codex 的显式回退路径。

这意味着配置可以有意同时包含 openai/* 模型引用和 openai-codex 凭证配置文件。openclaw doctor --fix 会将旧版 openai-codex/* 模型引用重写为规范 OpenAI 模型路由。

OpenClaw 功能覆盖

OpenAI 能力 OpenClaw 功能面 Status
聊天 / Responses openai/<model> 模型提供商
Codex 订阅模型 使用 openai-codex OAuth 的 openai/<model>
旧版 Codex 模型引用 openai-codex/<model> 由 Doctor 修复为 openai/<model>
Codex app-server harness 省略运行时或使用 agentRuntime.id: codexopenai/<model>
服务器端 web 搜索 原生 OpenAI Responses 工具 是,启用 web 搜索且没有固定提供商时
图片 image_generate
视频 video_generate
文本转语音 messages.tts.provider: "openai" / tts
批量语音转文本 tools.media.audio / 媒体理解
流式语音转文本 语音通话 streaming.provider: "openai"
实时语音 语音通话 realtime.provider: "openai" / 控制 UI Talk
嵌入 记忆嵌入提供商

记忆嵌入

OpenClaw 可以使用 OpenAI 或兼容 OpenAI 的嵌入端点,为 memory_search 索引和查询嵌入提供支持:

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}

对于需要非对称嵌入标签的兼容 OpenAI 端点,请在 memorySearch 下设置 queryInputTypedocumentInputType。OpenClaw 会将它们作为提供商特定的 input_type 请求字段转发:查询嵌入使用 queryInputType;已索引的记忆块和批量索引使用 documentInputType。完整示例见记忆配置参考

入门指南

选择你偏好的凭证方式并按照设置步骤操作。

API key(OpenAI Platform)

最适合: 直接 API 访问和按用量计费。

  • 获取你的 API key

    OpenAI Platform 仪表板创建或复制 API key。

  • 运行新手引导

    openclaw onboard --auth-choice openai-api-key
    

    或直接传入 key:

    openclaw onboard --openai-api-key "$OPENAI_API_KEY"
    
  • 验证模型可用

    openclaw models list --provider openai
    
  • 路由摘要

    模型引用 运行时配置 路由 凭证
    openai/gpt-5.5 省略 / agentRuntime.id: "codex" Codex app-server harness openai-codex 配置文件
    openai/gpt-5.4-mini 省略 / agentRuntime.id: "codex" Codex app-server harness openai-codex 配置文件
    openai/gpt-5.5 agentRuntime.id: "pi" PI 嵌入式运行时 openai 配置文件或选定的 openai-codex 配置文件

    配置示例

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
    }
    

    若要从 OpenAI API 试用 ChatGPT 当前的 Instant 模型,请将模型设置为 openai/chat-latest

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/chat-latest" } } },
    }
    

    chat-latest 是一个移动别名。OpenAI 文档将其描述为 ChatGPT 中使用的最新 Instant 模型,并建议在生产 API 使用中采用 gpt-5.5,因此除非你明确想要该别名行为,否则请将 openai/gpt-5.5 保持为稳定默认值。该别名当前只接受 medium 文本详细程度,因此 OpenClaw 会为此模型规范化不兼容的 OpenAI 文本详细程度覆盖项。

    Codex 订阅

    最适合: 使用你的 ChatGPT/Codex 订阅进行原生 Codex app-server 执行,而不是使用单独的 API key。Codex cloud 需要 ChatGPT 登录。

  • 运行 Codex OAuth

    openclaw onboard --auth-choice openai-codex
    

    或直接运行 OAuth:

    openclaw models auth login --provider openai-codex
    

    对于无头环境或不适合回调的设置,请添加 --device-code,以使用 ChatGPT 设备码流程登录,而不是 localhost 浏览器回调:

    openclaw models auth login --provider openai-codex --device-code
    
  • 使用规范 OpenAI 模型路由

    openclaw config set agents.defaults.model.primary openai/gpt-5.5
    

    默认路径不需要运行时配置。OpenAI 智能体轮次会自动选择原生 Codex app-server 运行时,并且在选择此路由时,OpenClaw 会安装或修复内置的 Codex 插件。

  • 验证 Codex 凭证是否可用

    openclaw models list --provider openai-codex
    

    Gateway 网关运行后,在聊天中发送 /codex status/codex models,以验证原生 app-server 运行时。

  • 路由摘要

    模型引用 运行时配置 路由 凭证
    openai/gpt-5.5 省略 / agentRuntime.id: "codex" 原生 Codex app-server harness Codex 登录或所选的 openai-codex profile
    openai/gpt-5.5 agentRuntime.id: "pi" PI 嵌入式运行时,使用内部 Codex 凭证传输 所选的 openai-codex profile
    openai-codex/gpt-5.5 由 Doctor 修复 旧版路由重写为 openai/gpt-5.5 现有 openai-codex profile

    配置示例

    {
      plugins: { entries: { codex: { enabled: true } } },
      agents: {
        defaults: {
          model: { primary: "openai/gpt-5.5" },
          agentRuntime: { id: "codex" },
        },
      },
    }
    

    检查并恢复 Codex OAuth 路由

    使用这些命令查看你的默认智能体正在使用哪个模型、运行时和凭证路由:

    openclaw models status
    openclaw models auth list --provider openai-codex
    openclaw config get agents.defaults.model --json
    openclaw config get agents.defaults.agentRuntime --json
    

    对于特定智能体,添加 --agent <id>

    openclaw models status --agent <id>
    openclaw models auth list --agent <id> --provider openai-codex
    

    如果旧配置仍包含 openai-codex/gpt-*,或者没有显式运行时配置却存在过期的 OpenAI PI 会话固定项,请修复它:

    openclaw doctor --fix
    openclaw config validate
    

    如果 models auth list --provider openai-codex 没有显示可用的 profile,请重新登录:

    openclaw models auth login --provider openai-codex
    openclaw models status --probe --probe-provider openai-codex
    

    openai-codex 仍然是凭证/profile provider id。openai/* 是通过 Codex 进行 OpenAI 智能体轮次的模型路由。

    状态指示器

    聊天中的 /status 会显示当前会话激活了哪个模型运行时。对于 OpenAI 智能体模型轮次,内置的 Codex app-server harness 显示为 Runtime: OpenAI Codex。过期的 PI 会话固定项会被修复为 Codex,除非配置显式固定 PI。

    Doctor 警告

    如果配置或会话状态中仍保留 openai-codex/* 路由或过期的 OpenAI PI 固定项,openclaw doctor --fix 会将它们重写为使用 Codex 运行时的 openai/*,除非显式配置了 PI。

    上下文窗口上限

    OpenClaw 将模型元数据和运行时上下文上限视为独立的值。

    对于通过 Codex OAuth 目录使用的 openai/gpt-5.5

    • 原生 contextWindow1000000
    • 默认运行时 contextTokens 上限:272000

    实践中,较小的默认上限具有更好的延迟和质量特性。使用 contextTokens 覆盖它:

    {
      models: {
        providers: {
          "openai-codex": {
            models: [{ id: "gpt-5.5", contextTokens: 160000 }],
          },
        },
      },
    }
    

    目录恢复

    当存在 gpt-5.5 时,OpenClaw 会使用上游 Codex 目录元数据。如果实时 Codex 发现遗漏了 gpt-5.5 行,而账户已通过身份验证,OpenClaw 会合成该 OAuth 模型行,使 cron、子智能体和已配置的默认模型运行不会因 Unknown model 而失败。

    原生 Codex app-server 凭证

    原生 Codex app-server harness 使用 openai/* 模型引用加省略的运行时配置,或使用 agentRuntime.id: "codex",但其凭证仍基于账户。OpenClaw 按以下顺序选择凭证:

    1. 绑定到智能体的显式 OpenClaw openai-codex 凭证 profile。
    2. app-server 的现有账户,例如本地 Codex CLI ChatGPT 登录。
    3. 仅对于本地 stdio app-server 启动,当 app-server 报告没有账户且仍需要 OpenAI 凭证时,使用 CODEX_API_KEY,然后使用 OPENAI_API_KEY

    这意味着,仅仅因为 Gateway 网关进程也有用于直接 OpenAI 模型或嵌入的 OPENAI_API_KEY,本地 ChatGPT/Codex 订阅登录不会被替换。环境变量 API key 回退仅适用于本地 stdio 无账户路径;它不会被发送到 WebSocket app-server 连接。当选择订阅式 Codex profile 时,OpenClaw 还会将 CODEX_API_KEYOPENAI_API_KEY 排除在派生的 stdio app-server 子进程之外,并通过 app-server 登录 RPC 发送所选凭据。

    图像生成

    内置 openai 插件通过 image_generate 工具注册图像生成。 它通过同一个 openai/gpt-image-2 模型引用,同时支持 OpenAI API key 图像生成和 Codex OAuth 图像生成。

    能力 OpenAI API key Codex OAuth
    模型引用 openai/gpt-image-2 openai/gpt-image-2
    凭证 OPENAI_API_KEY OpenAI Codex OAuth 登录
    传输 OpenAI Images API Codex Responses backend
    每次请求的最大图像数 4 4
    编辑模式 已启用(最多 5 张参考图像) 已启用(最多 5 张参考图像)
    尺寸覆盖 支持,包括 2K/4K 尺寸 支持,包括 2K/4K 尺寸
    宽高比 / 分辨率 不转发到 OpenAI Images API 安全时映射到受支持的尺寸
    {
      agents: {
        defaults: {
          imageGenerationModel: { primary: "openai/gpt-image-2" },
        },
      },
    }
    

    gpt-image-2 是 OpenAI 文本生成图像和图像编辑的默认值。gpt-image-1.5gpt-image-1gpt-image-1-mini 仍可作为显式模型覆盖使用。使用 openai/gpt-image-1.5 生成透明背景的 PNG/WebP 输出;当前的 gpt-image-2 API 会拒绝 background: "transparent"

    对于透明背景请求,智能体应调用 image_generate,并传入 model: "openai/gpt-image-1.5"outputFormat: "png""webp",以及 background: "transparent";较旧的 openai.background 提供商选项仍被接受。OpenClaw 还会通过将默认 openai/gpt-image-2 透明请求重写为 gpt-image-1.5,保护公开 OpenAI 和 OpenAI Codex OAuth 路由;Azure 和自定义 OpenAI 兼容端点会保留其配置的部署/模型名称。

    同一设置也暴露给无头 CLI 运行:

    openclaw infer image generate \
      --model openai/gpt-image-1.5 \
      --output-format png \
      --background transparent \
      --prompt "A simple red circle sticker on a transparent background" \
      --json
    

    从输入文件开始时,请对 openclaw infer image edit 使用相同的 --output-format--background 标志。 --openai-background 仍可作为 OpenAI 专用别名使用。

    对于 Codex OAuth 安装,保持同一个 openai/gpt-image-2 引用。当配置了 openai-codex OAuth profile 时,OpenClaw 会解析该存储的 OAuth 访问令牌,并通过 Codex Responses backend 发送图像请求。对于该请求,它不会先尝试 OPENAI_API_KEY,也不会静默回退到 API key。如果你想使用直接 OpenAI Images API 路由,请显式配置 models.providers.openai,并设置 API key、自定义 base URL 或 Azure 端点。 如果该自定义图像端点位于受信任的局域网/私有地址,还需设置 browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非存在此选择启用项,否则 OpenClaw 会继续阻止私有/内部 OpenAI 兼容图像端点。

    生成:

    /tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
    

    生成透明 PNG:

    /tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
    

    编辑:

    /tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
    

    视频生成

    内置 openai 插件通过 video_generate 工具注册视频生成。

    能力
    默认模型 openai/sora-2
    模式 文本生成视频、图像生成视频、单视频编辑
    参考输入 1 张图像或 1 个视频
    尺寸覆盖 支持
    其他覆盖 aspectRatioresolutionaudiowatermark 会被忽略,并显示工具警告
    {
      agents: {
        defaults: {
          videoGenerationModel: { primary: "openai/sora-2" },
        },
      },
    }
    

    GPT-5 提示词贡献

    OpenClaw 为跨提供商的 GPT-5 系列运行添加共享 GPT-5 提示词贡献。它按模型 id 应用,因此 openai/gpt-5.5、旧版预修复引用(例如 openai-codex/gpt-5.5)、openrouter/openai/gpt-5.5opencode/gpt-5.5 以及其他兼容的 GPT-5 引用都会收到相同的覆盖层。旧的 GPT-4.x 模型不会。

    内置的原生 Codex harness 通过 Codex app-server 开发者指令使用相同的 GPT-5 行为和 Heartbeat 覆盖层,因此通过 agentRuntime.id: "codex" 强制使用的 openai/gpt-5.x 会话,即使 Codex 拥有其余 harness 提示词,也会保持相同的跟进和主动 Heartbeat 指导。

    GPT-5 贡献添加了带标签的行为契约,涵盖人格持久性、执行安全、工具纪律、输出形态、完成检查和验证。特定渠道的回复和静默消息行为保留在共享的 OpenClaw 系统提示和出站投递策略中。GPT-5 指引始终会为匹配的模型启用。友好的交互风格层是独立且可配置的。

    效果
    "friendly"(默认) 启用友好的交互风格层
    "on" "friendly" 的别名
    "off" 仅禁用友好风格层

    Config

    {
      agents: {
        defaults: {
          promptOverlays: {
            gpt5: { personality: "friendly" },
          },
        },
      },
    }
    

    CLI

    openclaw config set agents.defaults.promptOverlays.gpt5.personality off
    

    语音和语音识别

    Speech synthesis (TTS)

    内置的 openai 插件会为 messages.tts 表面注册语音合成。

    设置 配置路径 默认值
    模型 messages.tts.providers.openai.model gpt-4o-mini-tts
    声音 messages.tts.providers.openai.voice coral
    速度 messages.tts.providers.openai.speed (未设置)
    指令 messages.tts.providers.openai.instructions (未设置,仅限 gpt-4o-mini-tts
    格式 messages.tts.providers.openai.responseFormat 语音便笺使用 opus,文件使用 mp3
    API key messages.tts.providers.openai.apiKey 回退到 OPENAI_API_KEY
    基础 URL messages.tts.providers.openai.baseUrl https://api.openai.com/v1
    额外正文 messages.tts.providers.openai.extraBody / extra_body (未设置)

    可用模型:gpt-4o-mini-ttstts-1tts-1-hd。可用声音:alloyashballadcedarcoralechofablejunipermarinonyxnovasageshimmerverse

    extraBody 会在 OpenClaw 生成的字段之后合并到 /audio/speech 请求 JSON 中,因此可将它用于需要额外键(例如 lang)的 OpenAI 兼容端点。原型键会被忽略。

    {
      messages: {
        tts: {
          providers: {
            openai: { model: "gpt-4o-mini-tts", voice: "coral" },
          },
        },
      },
    }
    
    Speech-to-text

    内置的 openai 插件通过 OpenClaw 的媒体理解转录表面注册批量语音转文本。

    • 默认模型:gpt-4o-transcribe
    • 端点:OpenAI REST /v1/audio/transcriptions
    • 输入路径:多部分音频文件上传
    • OpenClaw 在入站音频转录使用 tools.media.audio 的任何位置都支持它,包括 Discord 语音频道片段和渠道音频附件

    若要强制入站音频转录使用 OpenAI:

    {
      tools: {
        media: {
          audio: {
            models: [
              {
                type: "provider",
                provider: "openai",
                model: "gpt-4o-transcribe",
              },
            ],
          },
        },
      },
    }
    

    当共享音频媒体配置或按调用转录请求提供语言和提示提示时,它们会转发给 OpenAI。

    Realtime transcription

    内置的 openai 插件会为 Voice Call 插件注册实时转录。

    设置 配置路径 默认值
    模型 plugins.entries.voice-call.config.streaming.providers.openai.model gpt-4o-transcribe
    语言 ...openai.language (未设置)
    提示 ...openai.prompt (未设置)
    静音时长 ...openai.silenceDurationMs 800
    VAD 阈值 ...openai.vadThreshold 0.5
    API key ...openai.apiKey 回退到 OPENAI_API_KEY
    Realtime voice

    内置的 openai 插件会为 Voice Call 插件注册实时语音。

    设置 配置路径 默认值
    模型 plugins.entries.voice-call.config.realtime.providers.openai.model gpt-realtime-1.5
    声音 ...openai.voice alloy
    温度 ...openai.temperature 0.8
    VAD 阈值 ...openai.vadThreshold 0.5
    静音时长 ...openai.silenceDurationMs 500
    API key ...openai.apiKey 回退到 OPENAI_API_KEY

    Azure OpenAI 端点

    内置的 openai 提供商可通过覆盖基础 URL,将图像生成目标指向 Azure OpenAI 资源。在图像生成路径上,OpenClaw 会检测 models.providers.openai.baseUrl 上的 Azure 主机名,并自动切换到 Azure 的请求形态。

    在以下情况下使用 Azure OpenAI:

    • 你已经有 Azure OpenAI 订阅、配额或企业协议
    • 你需要 Azure 提供的区域数据驻留或合规控制
    • 你希望将流量保留在现有 Azure 租户内

    配置

    若要通过内置的 openai 提供商进行 Azure 图像生成,请将 models.providers.openai.baseUrl 指向你的 Azure 资源,并将 apiKey 设置为 Azure OpenAI key(而不是 OpenAI Platform key):

    {
      models: {
        providers: {
          openai: {
            baseUrl: "https://<your-resource>.openai.azure.com",
            apiKey: "<azure-openai-api-key>",
          },
        },
      },
    }
    

    OpenClaw 会为 Azure 图像生成路由识别以下 Azure 主机后缀:

    • *.openai.azure.com
    • *.services.ai.azure.com
    • *.cognitiveservices.azure.com

    对于已识别 Azure 主机上的图像生成请求,OpenClaw 会:

    • 发送 api-key 标头,而不是 Authorization: Bearer
    • 使用部署作用域路径(/openai/deployments/{deployment}/...
    • 向每个请求追加 ?api-version=...
    • 对 Azure 图像生成调用使用 600 秒默认请求超时。按调用设置的 timeoutMs 值仍会覆盖此默认值。

    其他基础 URL(公共 OpenAI、OpenAI 兼容代理)会保留标准 OpenAI 图像请求形态。

    API 版本

    设置 AZURE_OPENAI_API_VERSION 可为 Azure 图像生成路径固定特定的 Azure 预览版或 GA 版本:

    export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
    

    未设置该变量时,默认值为 2024-12-01-preview

    模型名称就是部署名称

    Azure OpenAI 会将模型绑定到部署。对于通过内置 openai 提供商路由的 Azure 图像生成请求,OpenClaw 中的 model 字段必须是你在 Azure 门户中配置的 Azure 部署名称,而不是公共 OpenAI 模型 ID。

    如果你创建了一个名为 gpt-image-2-prod、用于提供 gpt-image-2 的部署:

    /tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
    

    同样的部署名称规则也适用于通过内置 openai 提供商路由的图像生成调用。

    区域可用性

    Azure 图像生成目前仅在部分区域可用(例如 eastus2swedencentralpolandcentralwestus3uaenorth)。创建部署前,请查看 Microsoft 当前的区域列表,并确认你的区域提供特定模型。

    参数差异

    Azure OpenAI 和公共 OpenAI 并不总是接受相同的图像参数。Azure 可能会拒绝公共 OpenAI 允许的选项(例如 gpt-image-2 上的某些 background 值),或仅在特定模型版本上暴露这些选项。这些差异来自 Azure 和底层模型,而不是 OpenClaw。如果 Azure 请求因验证错误而失败,请在 Azure 门户中检查你的具体部署和 API 版本支持的参数集。

    高级配置

    Transport (WebSocket vs SSE)

    对于 openai/*,OpenClaw 优先使用 WebSocket,并以 SSE 作为回退("auto")。

    "auto" 模式下,OpenClaw 会:

    • 在回退到 SSE 前重试一次早期 WebSocket 失败
    • 失败后,将 WebSocket 标记为降级约 60 秒,并在冷却期间使用 SSE
    • 为重试和重连附加稳定的会话和轮次身份标头
    • 在不同传输变体之间规范化用量计数器(input_tokens / prompt_tokens
    行为
    "auto"(默认) 优先 WebSocket,SSE 回退
    "sse" 强制仅使用 SSE
    "websocket" 强制仅使用 WebSocket
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { transport: "auto" },
            },
          },
        },
      },
    }
    

    相关 OpenAI 文档:

    WebSocket 预热

    OpenClaw 默认为 openai/* 启用 WebSocket 预热,以降低首次轮次延迟。

    // Disable warm-up
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { openaiWsWarmup: false },
            },
          },
        },
      },
    }
    
    快速模式

    OpenClaw 为 openai/* 暴露了共享的快速模式开关:

    • 聊天/UI: /fast status|on|off
    • 配置: agents.defaults.models["<provider>/<model>"].params.fastMode

    启用后,OpenClaw 会将快速模式映射到 OpenAI 优先处理(service_tier = "priority")。现有的 service_tier 值会被保留,快速模式不会改写 reasoningtext.verbosity

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { fastMode: true } },
          },
        },
      },
    }
    
    优先处理(service_tier)

    OpenAI 的 API 通过 service_tier 暴露优先处理。在 OpenClaw 中按模型设置:

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { serviceTier: "priority" } },
          },
        },
      },
    }
    

    支持的值:autodefaultflexpriority

    服务器端压缩(Responses API)

    对于直接 OpenAI Responses 模型(api.openai.com 上的 openai/*),OpenAI 插件的 Pi harness 流包装器会自动启用服务器端压缩:

    • 强制 store: true(除非模型兼容性设置了 supportsStore: false
    • 注入 context_management: [{ type: "compaction", compact_threshold: ... }]
    • 默认 compact_thresholdcontextWindow 的 70%(不可用时为 80000

    这适用于内置 Pi harness 路径,也适用于嵌入式运行使用的 OpenAI provider 钩子。原生 Codex 应用服务器 harness 通过 Codex 管理自己的上下文,并使用 agents.defaults.agentRuntime.id 单独配置。

    显式启用

    适用于 Azure OpenAI Responses 等兼容端点:

    {
      agents: {
        defaults: {
          models: {
            "azure-openai-responses/gpt-5.5": {
              params: { responsesServerCompaction: true },
            },
          },
        },
      },
    }
    

    自定义阈值

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: {
                responsesServerCompaction: true,
                responsesCompactThreshold: 120000,
              },
            },
          },
        },
      },
    }
    

    禁用

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { responsesServerCompaction: false },
            },
          },
        },
      },
    }
    
    严格智能体式 GPT 模式

    对于 openai/* 上的 GPT-5 系列运行,OpenClaw 可以使用更严格的嵌入式执行契约:

    {
      agents: {
        defaults: {
          embeddedPi: { executionContract: "strict-agentic" },
        },
      },
    }
    

    使用 strict-agentic 时,OpenClaw 会:

    • 当工具操作可用时,不再将仅计划的轮次视为成功进展
    • 使用立即行动 steer 重试该轮次
    • 为实质性工作自动启用 update_plan
    • 如果模型持续计划但不行动,则呈现明确的受阻状态
    原生路由与 OpenAI 兼容路由

    OpenClaw 对直接 OpenAI、Codex 和 Azure OpenAI 端点的处理方式不同于通用 OpenAI 兼容 /v1 代理:

    原生路由openai/*、Azure OpenAI):

    • 仅对支持 OpenAI none effort 的模型保留 reasoning: { effort: "none" }
    • 对会拒绝 reasoning.effort: "none" 的模型或代理省略已禁用的推理
    • 默认将工具 schema 设为严格模式
    • 仅在已验证的原生主机上附加隐藏归因标头
    • 保留仅 OpenAI 使用的请求塑形(service_tierstore、推理兼容性、prompt-cache 提示)

    代理/兼容路由:

    • 使用更宽松的兼容行为
    • 从非原生 openai-completions 载荷中移除 Completions store
    • 接受用于 OpenAI 兼容 Completions 代理的高级 params.extra_body/params.extraBody 透传 JSON
    • 接受用于 vLLM 等 OpenAI 兼容 Completions 代理的 params.chat_template_kwargs
    • 不强制严格工具 schema 或仅原生使用的标头

    Azure OpenAI 使用原生传输和兼容行为,但不会收到隐藏归因标头。

    相关