Providers
OpenAI
OpenAI надає API для розробників для моделей GPT, а Codex також доступний як агент програмування з плану ChatGPT через клієнти Codex від OpenAI. OpenClaw тримає ці поверхні окремо, щоб конфігурація залишалася передбачуваною.
OpenClaw підтримує три маршрути родини OpenAI. Більшості передплатників ChatGPT/Codex, які хочуть поведінку Codex, слід використовувати нативне середовище виконання app-server Codex. Префікс моделі вибирає назву постачальника/моделі; окреме налаштування середовища виконання вибирає, хто виконує вбудований цикл агента:
- Ключ API - прямий доступ до OpenAI Platform із тарифікацією за використання (
openai/*моделі) - Передплата Codex із нативним середовищем виконання Codex - вхід через ChatGPT/Codex плюс виконання app-server Codex (
openai/*моделі плюсagents.defaults.agentRuntime.id: "codex") - Передплата Codex через PI - вхід через ChatGPT/Codex зі звичайним раннером OpenClaw PI (
openai-codex/*моделі)
OpenAI явно підтримує використання OAuth передплати у зовнішніх інструментах і робочих процесах, таких як OpenClaw.
Постачальник, модель, середовище виконання й канал є окремими шарами. Якщо ці мітки змішуються між собою, прочитайте Середовища виконання агентів, перш ніж змінювати конфігурацію.
Швидкий вибір
| Ціль | Використовуйте | Примітки |
|---|---|---|
| Передплата ChatGPT/Codex із нативним середовищем виконання Codex | openai/gpt-5.5 плюс agentRuntime.id: "codex" |
Рекомендоване налаштування Codex для більшості користувачів. Увійдіть з автентифікацією openai-codex. |
| Пряма тарифікація за ключем API | openai/gpt-5.5 |
Задайте OPENAI_API_KEY або запустіть онбординг ключа API OpenAI. |
| Автентифікація передплати ChatGPT/Codex через PI | openai-codex/gpt-5.5 |
Використовуйте лише тоді, коли навмисно хочете звичайний раннер PI. |
| Генерація або редагування зображень | openai/gpt-image-2 |
Працює або з OPENAI_API_KEY, або з OpenAI Codex OAuth. |
| Зображення з прозорим фоном | openai/gpt-image-1.5 |
Використовуйте outputFormat=png або webp і openai.background=transparent. |
Мапа назв
Назви схожі, але не взаємозамінні:
| Назва, яку ви бачите | Шар | Значення |
|---|---|---|
openai |
Префікс постачальника | Прямий маршрут API OpenAI Platform. |
openai-codex |
Префікс постачальника | Маршрут OpenAI Codex OAuth/передплати через звичайний раннер OpenClaw PI. |
codex plugin |
Plugin | Вбудований Plugin OpenClaw, який надає нативне середовище виконання app-server Codex і керування чатом /codex. |
agentRuntime.id: codex |
Середовище виконання агента | Примусово використовує нативну обгортку app-server Codex для вбудованих ходів. |
/codex ... |
Набір команд чату | Прив’язує/керує потоками app-server Codex із розмови. |
runtime: "acp", agentId: "codex" |
Маршрут сеансу ACP | Явний резервний шлях, який запускає Codex через ACP/acpx. |
Це означає, що конфігурація може навмисно містити і openai-codex/*, і
codex plugin. Це коректно, коли ви хочете Codex OAuth через PI і також хочете,
щоб були доступні нативні елементи керування чатом /codex. openclaw doctor попереджає про таке
поєднання, щоб ви могли підтвердити, що воно навмисне; він не переписує його.
Покриття можливостей OpenClaw
| Можливість OpenAI | Поверхня OpenClaw | Статус |
|---|---|---|
| Чат / Responses | постачальник моделі openai/<model> |
Так |
| Моделі передплати Codex | openai-codex/<model> з openai-codex OAuth |
Так |
| Обгортка app-server Codex | openai/<model> з agentRuntime.id: codex |
Так |
| Серверний вебпошук | Нативний інструмент OpenAI Responses | Так, коли вебпошук увімкнено і постачальника не закріплено |
| Зображення | image_generate |
Так |
| Відео | video_generate |
Так |
| Перетворення тексту на мовлення | messages.tts.provider: "openai" / tts |
Так |
| Пакетне перетворення мовлення на текст | tools.media.audio / розуміння медіа |
Так |
| Потокове перетворення мовлення на текст | Voice Call streaming.provider: "openai" |
Так |
| Голос у реальному часі | Voice Call realtime.provider: "openai" / Control UI Talk |
Так |
| Векторні подання | постачальник векторних подань пам’яті | Так |
Векторні подання пам’яті
OpenClaw може використовувати OpenAI або OpenAI-сумісну кінцеву точку векторних подань для
індексування memory_search і векторних подань запитів:
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
},
},
},
}
Для OpenAI-сумісних кінцевих точок, які потребують асиметричних міток векторних подань, задайте
queryInputType і documentInputType у memorySearch. OpenClaw передає
їх як специфічні для постачальника поля запиту input_type: векторні подання запитів використовують
queryInputType; індексовані фрагменти пам’яті й пакетне індексування використовують
documentInputType. Повний приклад див. у довіднику конфігурації пам’яті.
Початок роботи
Виберіть бажаний метод автентифікації та виконайте кроки налаштування.
Ключ API (OpenAI Platform)
Найкраще для: прямого доступу API і тарифікації за використання.
Отримайте свій ключ API
Створіть або скопіюйте ключ API з панелі OpenAI Platform.
Запустіть онбординг
openclaw onboard --auth-choice openai-api-key
Або передайте ключ безпосередньо:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
Перевірте, що модель доступна
openclaw models list --provider openai
Підсумок маршруту
| Посилання на модель | Конфігурація середовища виконання | Маршрут | Автентифікація |
|---|---|---|---|
openai/gpt-5.5 |
пропущено / agentRuntime.id: "pi" |
Прямий API OpenAI Platform | OPENAI_API_KEY |
openai/gpt-5.4-mini |
пропущено / agentRuntime.id: "pi" |
Прямий API OpenAI Platform | OPENAI_API_KEY |
openai/gpt-5.5 |
agentRuntime.id: "codex" |
Обгортка app-server Codex | app-server Codex |
Приклад конфігурації
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Передплата Codex
Найкраще для: використання вашої передплати ChatGPT/Codex із нативним виконанням app-server Codex замість окремого ключа API. Хмара Codex потребує входу через ChatGPT.
Запустіть Codex OAuth
openclaw onboard --auth-choice openai-codex
Або запустіть OAuth безпосередньо:
openclaw models auth login --provider openai-codex
Для headless або несприятливих до callback налаштувань додайте --device-code, щоб увійти через потік коду пристрою ChatGPT замість callback браузера localhost:
openclaw models auth login --provider openai-codex --device-code
Використайте нативне середовище виконання Codex
openclaw config set plugins.entries.codex '{"enabled":true}' --strict-json --merge
openclaw config set agents.defaults.model.primary openai/gpt-5.5
openclaw config set agents.defaults.agentRuntime '{"id":"codex"}' --strict-json
Перевірте, що автентифікація Codex доступна
openclaw models list --provider openai-codex
Після запуску gateway надішліть /codex status або /codex models
у чаті, щоб перевірити нативне середовище виконання app-server.
Підсумок маршруту
| Посилання на модель | Конфігурація середовища виконання | Маршрут | Автентифікація |
|---|---|---|---|
openai/gpt-5.5 |
agentRuntime.id: "codex" |
Нативна обгортка app-server Codex | Вхід Codex або вибраний профіль openai-codex |
openai-codex/gpt-5.5 |
пропущено / runtime: "pi" |
ChatGPT/Codex OAuth через PI | Вхід Codex |
openai-codex/gpt-5.4-mini |
пропущено / runtime: "pi" |
ChatGPT/Codex OAuth через PI | Вхід Codex |
openai-codex/gpt-5.5 |
runtime: "auto" |
Усе ще PI, якщо plugin явно не заявляє openai-codex |
Вхід Codex |
Приклад конфігурації
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
Щоб натомість залишити Codex OAuth на звичайному раннері PI, використовуйте
openai-codex/gpt-5.5 і опустіть перевизначення середовища виконання Codex.
Перевірка та відновлення маршрутизації Codex OAuth
Використовуйте ці команди, щоб побачити, яку модель, середовище виконання та маршрут автентифікації використовує ваш типовий агент:
openclaw models status
openclaw models auth list --provider openai-codex
openclaw config get agents.defaults.model --json
openclaw config get agents.defaults.agentRuntime --json
Для конкретного агента додайте --agent <id>:
openclaw models status --agent <id>
openclaw models auth list --agent <id> --provider openai-codex
Якщо запуск doctor --fix у версії 2026.5.5 змінив налаштування підписки GPT-5.5 з
openai-codex/gpt-5.5 на openai/gpt-5.5, перемкніть типового агента назад
на маршрут Codex OAuth PI:
openclaw models set openai-codex/gpt-5.5
openclaw config validate
Якщо models auth list --provider openai-codex не показує придатного профілю, увійдіть
знову:
openclaw models auth login --provider openai-codex
openclaw models status --probe --probe-provider openai-codex
openai-codex/* означає ChatGPT/Codex OAuth через PI. openai/* з
agentRuntime.id: "codex" означає нативне виконання сервера застосунку Codex.
Індикатор стану
Chat /status показує, яке середовище виконання моделі активне для поточного сеансу.
Типова обв’язка PI відображається як Runtime: OpenClaw Pi Default. Коли
вибрано вбудовану обв’язку сервера застосунку Codex, /status показує
Runtime: OpenAI Codex. Наявні сеанси зберігають записаний id обв’язки, тож використовуйте
/new або /reset після зміни agentRuntime, якщо хочете, щоб /status
відображав новий вибір PI/Codex.
Попередження Doctor
Якщо вбудований Plugin codex увімкнено, коли вибрано маршрут openai-codex/*,
openclaw doctor попереджає, що модель усе ще розв’язується через PI.
Залишайте конфігурацію без змін лише тоді, коли цей маршрут автентифікації підписки PI
є навмисним. Перемкніться на openai/<model> плюс agentRuntime.id: "codex", коли
потрібне нативне виконання сервера застосунку Codex.
Обмеження контекстного вікна
OpenClaw розглядає метадані моделі та обмеження контексту середовища виконання як окремі значення.
Для openai-codex/gpt-5.5 через Codex OAuth:
- Нативне
contextWindow:1000000 - Типове обмеження середовища виконання
contextTokens:272000
Менше типове обмеження на практиці має кращі характеристики затримки та якості. Перевизначте його за допомогою contextTokens:
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Відновлення каталогу
OpenClaw використовує метадані каталогу upstream Codex для gpt-5.5, коли вони
наявні. Якщо live-виявлення Codex пропускає рядок openai-codex/gpt-5.5, тоді як
обліковий запис автентифіковано, OpenClaw синтезує цей рядок моделі OAuth, щоб
cron, підлеглий агент і запуски з налаштованою типовою моделлю не завершувалися помилкою
Unknown model.
Нативна автентифікація сервера застосунку Codex
Нативна обв’язка сервера застосунку Codex використовує посилання на моделі openai/* плюс
agentRuntime.id: "codex", але її автентифікація все одно базується на обліковому записі. OpenClaw
вибирає автентифікацію в такому порядку:
- Явний профіль автентифікації OpenClaw
openai-codex, прив’язаний до агента. - Наявний обліковий запис сервера застосунку, наприклад локальний вхід Codex CLI ChatGPT.
- Лише для локальних запусків stdio сервера застосунку:
CODEX_API_KEY, потімOPENAI_API_KEY, коли сервер застосунку повідомляє, що облікового запису немає, але все ще потребує автентифікації OpenAI.
Це означає, що локальний вхід за підпискою ChatGPT/Codex не замінюється лише
тому, що процес Gateway також має OPENAI_API_KEY для прямих моделей OpenAI
або embeddings. Резервний варіант API-ключа з env використовується лише для локального шляху stdio без облікового запису; його
не надсилають до WebSocket-з’єднань сервера застосунку. Коли вибрано профіль Codex
у стилі підписки, OpenClaw також не передає CODEX_API_KEY і OPENAI_API_KEY
у породжений дочірній stdio-процес сервера застосунку та надсилає вибрані облікові дані
через RPC входу сервера застосунку.
Генерація зображень
Вбудований Plugin openai реєструє генерацію зображень через інструмент image_generate.
Він підтримує як генерацію зображень за API-ключем OpenAI, так і генерацію зображень через Codex OAuth
через те саме посилання на модель openai/gpt-image-2.
| Можливість | API-ключ OpenAI | Codex OAuth |
|---|---|---|
| Посилання на модель | openai/gpt-image-2 |
openai/gpt-image-2 |
| Автентифікація | OPENAI_API_KEY |
Вхід OpenAI Codex OAuth |
| Транспорт | OpenAI Images API | Бекенд Codex Responses |
| Макс. зображень на запит | 4 | 4 |
| Режим редагування | Увімкнено (до 5 референсних зображень) | Увімкнено (до 5 референсних зображень) |
| Перевизначення розміру | Підтримується, включно з розмірами 2K/4K | Підтримується, включно з розмірами 2K/4K |
| Співвідношення сторін / роздільність | Не передається до OpenAI Images API | Зіставляється з підтримуваним розміром, коли це безпечно |
{
agents: {
defaults: {
imageGenerationModel: { primary: "openai/gpt-image-2" },
},
},
}
gpt-image-2 є типовим для генерації зображень з тексту OpenAI і
редагування зображень. gpt-image-1.5, gpt-image-1 і gpt-image-1-mini залишаються доступними як
явні перевизначення моделі. Використовуйте openai/gpt-image-1.5 для виводу
PNG/WebP із прозорим тлом; поточний API gpt-image-2 відхиляє
background: "transparent".
Для запиту з прозорим тлом агенти мають викликати image_generate з
model: "openai/gpt-image-1.5", outputFormat: "png" або "webp" і
background: "transparent"; старіший параметр провайдера openai.background
також досі приймається. OpenClaw також захищає публічні маршрути OpenAI та
OpenAI Codex OAuth, переписуючи типові прозорі запити openai/gpt-image-2
на gpt-image-1.5; Azure і власні OpenAI-сумісні endpoint зберігають
налаштовані імена розгортань/моделей.
Те саме налаштування доступне для headless-запусків CLI:
openclaw infer image generate \
--model openai/gpt-image-1.5 \
--output-format png \
--background transparent \
--prompt "A simple red circle sticker on a transparent background" \
--json
Використовуйте ті самі прапорці --output-format і --background з
openclaw infer image edit, коли починаєте з вхідного файла.
--openai-background залишається доступним як OpenAI-специфічний псевдонім.
Для встановлень Codex OAuth залишайте те саме посилання openai/gpt-image-2. Коли
налаштовано OAuth-профіль openai-codex, OpenClaw розв’язує цей збережений OAuth
access token і надсилає запити зображень через бекенд Codex Responses. Він
не намагається спершу використати OPENAI_API_KEY і не перемикається непомітно на API-ключ для цього
запиту. Налаштуйте models.providers.openai явно з API-ключем,
власною базовою URL-адресою або endpoint Azure, коли потрібен прямий маршрут OpenAI Images API
.
Якщо цей власний endpoint зображень розташований у довіреній LAN/приватній адресі, також задайте
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true; OpenClaw залишає
приватні/внутрішні OpenAI-сумісні endpoint зображень заблокованими, якщо цього opt-in
немає.
Згенерувати:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
Згенерувати прозорий PNG:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
Редагувати:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
Генерація відео
Вбудований Plugin openai реєструє генерацію відео через інструмент video_generate.
| Можливість | Значення |
|---|---|
| Типова модель | openai/sora-2 |
| Режими | Текст-у-відео, зображення-у-відео, редагування одного відео |
| Референсні входи | 1 зображення або 1 відео |
| Перевизначення розміру | Підтримується |
| Інші перевизначення | aspectRatio, resolution, audio, watermark ігноруються з попередженням інструмента |
{
agents: {
defaults: {
videoGenerationModel: { primary: "openai/sora-2" },
},
},
}
Внесок підказки GPT-5
OpenClaw додає спільний внесок підказки GPT-5 для запусків сімейства GPT-5 у різних провайдерів. Він застосовується за id моделі, тож openai-codex/gpt-5.5, openai/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 та інші сумісні посилання GPT-5 отримують те саме накладання. Старіші моделі GPT-4.x його не отримують.
Вбудована нативна обв’язка Codex використовує ту саму поведінку GPT-5 і накладання Heartbeat через developer instructions сервера застосунку Codex, тож сеанси openai/gpt-5.x, примусово проведені через agentRuntime.id: "codex", зберігають ті самі настанови щодо доведення справ до кінця та проактивного Heartbeat, навіть якщо Codex володіє рештою підказки обв’язки.
Внесок GPT-5 додає тегований поведінковий контракт для сталості персони, безпеки виконання, дисципліни інструментів, форми виводу, перевірок завершення та верифікації. Поведінка відповідей для конкретних каналів і тихих повідомлень залишається у спільній системній підказці OpenClaw та політиці вихідної доставки. Настанови GPT-5 завжди ввімкнені для відповідних моделей. Дружній шар стилю взаємодії є окремим і налаштовуваним.
| Значення | Ефект |
|---|---|
"friendly" (типово) |
Увімкнути дружній шар стилю взаємодії |
"on" |
Псевдонім для "friendly" |
"off" |
Вимкнути лише дружній шар стилю |
Конфігурація
{
agents: {
defaults: {
promptOverlays: {
gpt5: { personality: "friendly" },
},
},
},
}
CLI
openclaw config set agents.defaults.promptOverlays.gpt5.personality off
Голос і мовлення
Синтез мовлення (TTS)
Вбудований plugin openai реєструє синтез мовлення для поверхні messages.tts.
| Параметр | Шлях конфігурації | Типове значення |
|---|---|---|
| Модель | messages.tts.providers.openai.model |
gpt-4o-mini-tts |
| Голос | messages.tts.providers.openai.voice |
coral |
| Швидкість | messages.tts.providers.openai.speed |
(не задано) |
| Інструкції | messages.tts.providers.openai.instructions |
(не задано, лише gpt-4o-mini-tts) |
| Формат | messages.tts.providers.openai.responseFormat |
opus для голосових нотаток, mp3 для файлів |
| Ключ API | messages.tts.providers.openai.apiKey |
Повертається до OPENAI_API_KEY |
| Базова URL-адреса | messages.tts.providers.openai.baseUrl |
https://api.openai.com/v1 |
| Додаткове тіло | messages.tts.providers.openai.extraBody / extra_body |
(не задано) |
Доступні моделі: gpt-4o-mini-tts, tts-1, tts-1-hd. Доступні голоси: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
extraBody об'єднується з JSON запиту /audio/speech після згенерованих OpenClaw полів, тож використовуйте його для сумісних з OpenAI кінцевих точок, які потребують додаткових ключів, як-от lang. Ключі прототипів ігноруються.
{
messages: {
tts: {
providers: {
openai: { model: "gpt-4o-mini-tts", voice: "coral" },
},
},
},
}
Перетворення мовлення на текст
Вбудований plugin openai реєструє пакетне перетворення мовлення на текст через
поверхню транскрибування для розуміння медіа в OpenClaw.
- Типова модель:
gpt-4o-transcribe - Кінцева точка: OpenAI REST
/v1/audio/transcriptions - Шлях введення: завантаження аудіофайлу multipart
- Підтримується OpenClaw всюди, де транскрибування вхідного аудіо використовує
tools.media.audio, зокрема сегменти голосових каналів Discord і аудіовкладення каналів
Щоб примусово використовувати OpenAI для транскрибування вхідного аудіо:
{
tools: {
media: {
audio: {
models: [
{
type: "provider",
provider: "openai",
model: "gpt-4o-transcribe",
},
],
},
},
},
}
Підказки щодо мови та prompt передаються до OpenAI, коли їх надано через спільну конфігурацію аудіомедіа або запит транскрибування для окремого виклику.
Транскрибування в реальному часі
Вбудований plugin openai реєструє транскрибування в реальному часі для Voice Call plugin.
| Параметр | Шлях конфігурації | Типове значення |
|---|---|---|
| Модель | plugins.entries.voice-call.config.streaming.providers.openai.model |
gpt-4o-transcribe |
| Мова | ...openai.language |
(не задано) |
| Prompt | ...openai.prompt |
(не задано) |
| Тривалість тиші | ...openai.silenceDurationMs |
800 |
| Поріг VAD | ...openai.vadThreshold |
0.5 |
| Ключ API | ...openai.apiKey |
Повертається до OPENAI_API_KEY |
Голос у реальному часі
Вбудований plugin openai реєструє голос у реальному часі для Voice Call plugin.
| Параметр | Шлях конфігурації | Типове значення |
|---|---|---|
| Модель | plugins.entries.voice-call.config.realtime.providers.openai.model |
gpt-realtime-1.5 |
| Голос | ...openai.voice |
alloy |
| Температура | ...openai.temperature |
0.8 |
| Поріг VAD | ...openai.vadThreshold |
0.5 |
| Тривалість тиші | ...openai.silenceDurationMs |
500 |
| Ключ API | ...openai.apiKey |
Повертається до OPENAI_API_KEY |
Кінцеві точки Azure OpenAI
Вбудований провайдер openai може націлюватися на ресурс Azure OpenAI для генерації
зображень через перевизначення базової URL-адреси. На шляху генерації зображень OpenClaw
виявляє імена хостів Azure у models.providers.openai.baseUrl і автоматично перемикається на
форму запиту Azure.
Використовуйте Azure OpenAI, коли:
- У вас уже є підписка Azure OpenAI, квота або корпоративна угода
- Вам потрібні регіональне зберігання даних або засоби контролю відповідності, які надає Azure
- Ви хочете тримати трафік усередині наявного середовища Azure
Конфігурація
Для генерації зображень Azure через вбудований провайдер openai спрямуйте
models.providers.openai.baseUrl на ваш ресурс Azure і встановіть apiKey на
ключ Azure OpenAI (не ключ OpenAI Platform):
{
models: {
providers: {
openai: {
baseUrl: "https://<your-resource>.openai.azure.com",
apiKey: "<azure-openai-api-key>",
},
},
},
}
OpenClaw розпізнає ці суфікси хостів Azure для маршруту генерації зображень Azure:
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
Для запитів генерації зображень на розпізнаному хості Azure OpenClaw:
- Надсилає заголовок
api-keyзамістьAuthorization: Bearer - Використовує шляхи в межах deployment (
/openai/deployments/{deployment}/...) - Додає
?api-version=...до кожного запиту - Використовує типовий тайм-аут запиту 600 с для викликів генерації зображень Azure.
Значення
timeoutMsдля окремого виклику все ще перевизначають це типове значення.
Інші базові URL-адреси (публічний OpenAI, сумісні з OpenAI проксі) зберігають стандартну форму запиту зображення OpenAI.
Версія API
Задайте AZURE_OPENAI_API_VERSION, щоб зафіксувати певну preview- або GA-версію Azure
для шляху генерації зображень Azure:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
Типове значення — 2024-12-01-preview, коли змінну не задано.
Назви моделей є назвами deployment
Azure OpenAI прив'язує моделі до deployments. Для запитів генерації зображень Azure,
маршрутизованих через вбудований провайдер openai, поле model в OpenClaw
має бути назвою Azure deployment, яку ви налаштували на порталі Azure, а не
публічним ідентифікатором моделі OpenAI.
Якщо ви створюєте deployment з назвою gpt-image-2-prod, який обслуговує gpt-image-2:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
Те саме правило назви deployment застосовується до викликів генерації зображень, маршрутизованих через
вбудований провайдер openai.
Регіональна доступність
Генерація зображень Azure наразі доступна лише в підмножині регіонів
(наприклад, eastus2, swedencentral, polandcentral, westus3,
uaenorth). Перевірте поточний список регіонів Microsoft перед створенням
deployment і підтвердьте, що конкретна модель пропонується у вашому регіоні.
Відмінності параметрів
Azure OpenAI і публічний OpenAI не завжди приймають однакові параметри зображень.
Azure може відхиляти параметри, які дозволяє публічний OpenAI (наприклад, певні
значення background для gpt-image-2), або надавати їх лише для конкретних
версій моделей. Ці відмінності походять від Azure і базової моделі, а не від
OpenClaw. Якщо запит Azure завершується помилкою валідації, перевірте
набір параметрів, який підтримується вашим конкретним deployment і версією API на
порталі Azure.
Розширена конфігурація
Транспорт (WebSocket проти SSE)
OpenClaw використовує підхід WebSocket-first з резервним SSE ("auto") для openai/* і openai-codex/*.
У режимі "auto" OpenClaw:
- Повторює одну ранню помилку WebSocket перед переходом на SSE
- Після помилки позначає WebSocket як деградований приблизно на 60 секунд і використовує SSE під час охолодження
- Додає стабільні заголовки ідентичності сесії та ходу для повторних спроб і повторних підключень
- Нормалізує лічильники використання (
input_tokens/prompt_tokens) між варіантами транспорту
| Значення | Поведінка |
|---|---|
"auto" (типово) |
Спочатку WebSocket, резервний SSE |
"sse" |
Примусово лише SSE |
"websocket" |
Примусово лише WebSocket |
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { transport: "auto" },
},
"openai-codex/gpt-5.5": {
params: { transport: "auto" },
},
},
},
},
}
Пов'язані документи OpenAI:
Прогрів WebSocket
OpenClaw типово вмикає прогрів WebSocket для openai/* і openai-codex/*, щоб зменшити затримку першого ходу.
// Disable warm-up
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { openaiWsWarmup: false },
},
},
},
},
}
Швидкий режим
OpenClaw надає спільний перемикач швидкого режиму для openai/* і openai-codex/*:
- Чат/UI:
/fast status|on|off - Конфігурація:
agents.defaults.models["<provider>/<model>"].params.fastMode
Коли ввімкнено, OpenClaw зіставляє швидкий режим із пріоритетною обробкою OpenAI (service_tier = "priority"). Наявні значення service_tier зберігаються, а швидкий режим не переписує reasoning або text.verbosity.
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { fastMode: true } },
},
},
},
}
Пріоритетна обробка (service_tier)
API OpenAI надає пріоритетну обробку через service_tier. Установіть її для кожної моделі в OpenClaw:
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { serviceTier: "priority" } },
},
},
},
}
Підтримувані значення: auto, default, flex, priority.
Серверна Compaction (Responses API)
Для прямих моделей OpenAI Responses (openai/* на api.openai.com) потокова обгортка Pi-harness Plugin OpenAI автоматично вмикає серверну Compaction:
- Примусово встановлює
store: true(якщо сумісність моделі не встановлюєsupportsStore: false) - Додає
context_management: [{ type: "compaction", compact_threshold: ... }] - Типове значення
compact_threshold: 70% відcontextWindow(або80000, коли воно недоступне)
Це застосовується до вбудованого шляху Pi harness і до хуків провайдера OpenAI, які використовуються вбудованими запусками. Нативний app-server harness Codex керує власним контекстом через Codex і налаштовується окремо за допомогою agents.defaults.agentRuntime.id.
Увімкнути явно
Корисно для сумісних кінцевих точок, як-от Azure OpenAI Responses:
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.5": {
params: { responsesServerCompaction: true },
},
},
},
},
}
Власний поріг
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
Вимкнути
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { responsesServerCompaction: false },
},
},
},
},
}
Суворий агентний режим GPT
Для запусків сімейства GPT-5 на openai/* OpenClaw може використовувати суворіший вбудований контракт виконання:
{
agents: {
defaults: {
embeddedPi: { executionContract: "strict-agentic" },
},
},
}
З strict-agentic OpenClaw:
- Більше не вважає хід лише з планом успішним поступом, коли доступна дія інструмента
- Повторює хід зі спрямуванням діяти зараз
- Автоматично вмикає
update_planдля суттєвої роботи - Показує явний заблокований стан, якщо модель продовжує планувати без дії
Нативні маршрути порівняно з OpenAI-сумісними
OpenClaw обробляє прямі кінцеві точки OpenAI, Codex і Azure OpenAI інакше, ніж загальні OpenAI-сумісні проксі /v1:
Нативні маршрути (openai/*, Azure OpenAI):
- Зберігають
reasoning: { effort: "none" }лише для моделей, які підтримують зусилля OpenAInone - Пропускають вимкнене reasoning для моделей або проксі, які відхиляють
reasoning.effort: "none" - Типово встановлюють схеми інструментів у суворий режим
- Додають приховані заголовки атрибуції лише на перевірених нативних хостах
- Зберігають формування запитів лише для OpenAI (
service_tier,store, сумісність reasoning, підказки prompt-cache)
Проксі/сумісні маршрути:
- Використовують вільнішу поведінку сумісності
- Вилучають Completions
storeз ненативних payloadopenai-completions - Приймають передавання наскрізного JSON
params.extra_body/params.extraBodyдля OpenAI-сумісних проксі Completions - Приймають
params.chat_template_kwargsдля OpenAI-сумісних проксі Completions, як-от vLLM - Не примушують суворі схеми інструментів або нативні-only заголовки
Azure OpenAI використовує нативний транспорт і поведінку сумісності, але не отримує прихованих заголовків атрибуції.
Пов’язане
Вибір провайдерів, посилань на моделі та поведінки failover.
Спільні параметри інструмента зображень і вибір провайдера.
Спільні параметри інструмента відео та вибір провайдера.
Подробиці автентифікації та правила повторного використання облікових даних.