Providers
OpenAI
OpenAI は GPT モデル向けの開発者 API を提供しており、Codex も OpenAI の Codex クライアントを通じて ChatGPT プランのコーディングエージェントとして利用できます。OpenClaw は、設定を予測可能に保つためにこれらのサーフェスを分離しています。
OpenClaw は正規の OpenAI モデルルートとして openai/* を使用します。OpenAI モデル上の埋め込みエージェントターンは、デフォルトではネイティブ Codex app-server runtime を通じて実行されます。直接の OpenAI API キー認証は、画像、埋め込み、音声、realtime など、エージェント以外の OpenAI サーフェスで引き続き利用できます。
- エージェントモデル - Codex runtime 経由の
openai/*モデル。ChatGPT/Codex サブスクリプション利用ではopenai-codex認証でサインインします。意図的に API キー認証を使う場合は、openai-codexAPI キープロファイルを設定します。 - エージェント以外の OpenAI API -
OPENAI_API_KEYまたは OpenAI API キーのオンボーディングを通じた、使用量ベース課金の直接 OpenAI Platform アクセス。 - レガシー設定 -
openai-codex/*モデル参照は、openclaw doctor --fixにより、Codex runtime を伴うopenai/*へ修復されます。
OpenAI は、OpenClaw のような外部ツールやワークフローでのサブスクリプション OAuth 利用を明示的にサポートしています。
プロバイダー、モデル、runtime、チャネルは別々のレイヤーです。これらのラベルが混同されている場合は、設定を変更する前に エージェント runtime を読んでください。
クイック選択
| 目的 | 使用するもの | 注記 |
|---|---|---|
| ネイティブ Codex runtime での ChatGPT/Codex サブスクリプション | openai/gpt-5.5 |
デフォルトの OpenAI エージェント設定。openai-codex 認証でサインインします。 |
| エージェントモデルの直接 API キー課金 | openai/gpt-5.5 と openai-codex API キープロファイル |
そのプロファイルを優先するには auth.order.openai-codex を使用します。 |
| 明示的な PI 経由の直接 API キー課金 | openai/gpt-5.5 と agentRuntime.id: "pi" |
通常の openai API キープロファイルを選択します。 |
| 最新の ChatGPT Instant API エイリアス | openai/chat-latest |
直接 API キーのみ。実験用の移動エイリアスであり、デフォルトではありません。 |
| 明示的な PI 経由の ChatGPT/Codex サブスクリプション認証 | openai/gpt-5.5 と agentRuntime.id: "pi" |
互換性ルート用に openai-codex 認証プロファイルを選択します。 |
| 画像生成または編集 | openai/gpt-image-2 |
OPENAI_API_KEY または OpenAI Codex OAuth のどちらでも動作します。 |
| 透明背景画像 | openai/gpt-image-1.5 |
outputFormat=png または webp と openai.background=transparent を使用します。 |
名前の対応表
名前は似ていますが、互換ではありません。
| 表示される名前 | レイヤー | 意味 |
|---|---|---|
openai |
プロバイダー接頭辞 | 正規の OpenAI モデルルート。エージェントターンは Codex runtime を使用します。 |
openai-codex |
認証/プロファイル接頭辞 | OpenAI Codex OAuth/サブスクリプション認証プロファイルプロバイダー。 |
codex plugin |
Plugin | ネイティブ Codex app-server runtime と /codex チャット制御を提供する、OpenClaw に同梱された plugin。 |
agentRuntime.id: codex |
エージェント runtime | 埋め込みターンにネイティブ Codex app-server ハーネスを強制します。 |
/codex ... |
チャットコマンドセット | 会話から Codex app-server スレッドをバインド/制御します。 |
runtime: "acp", agentId: "codex" |
ACP セッションルート | ACP/acpx 経由で Codex を実行する明示的なフォールバックパス。 |
これは、設定に openai/* モデル参照と openai-codex 認証プロファイルの両方を意図的に含められることを意味します。openclaw doctor --fix は、レガシーな openai-codex/* モデル参照を正規の OpenAI モデルルートへ書き換えます。
OpenClaw の機能カバレッジ
| OpenAI の機能 | OpenClaw サーフェス | 状態 |
|---|---|---|
| Chat / Responses | openai/<model> モデルプロバイダー |
はい |
| Codex サブスクリプションモデル | openai/<model> と openai-codex OAuth |
はい |
| レガシー Codex モデル参照 | openai-codex/<model> |
doctor により openai/<model> へ修復 |
| Codex app-server ハーネス | runtime 省略または agentRuntime.id: codex を伴う openai/<model> |
はい |
| サーバー側 Web 検索 | ネイティブ OpenAI Responses ツール | Web 検索が有効で、プロバイダーが固定されていない場合ははい |
| 画像 | image_generate |
はい |
| 動画 | video_generate |
はい |
| テキスト読み上げ | messages.tts.provider: "openai" / tts |
はい |
| バッチ音声テキスト化 | tools.media.audio / メディア理解 |
はい |
| ストリーミング音声テキスト化 | Voice Call streaming.provider: "openai" |
はい |
| Realtime 音声 | Voice Call realtime.provider: "openai" / Control UI Talk |
はい |
| 埋め込み | メモリ埋め込みプロバイダー | はい |
メモリ埋め込み
OpenClaw は、memory_search のインデックス作成とクエリ埋め込みに、OpenAI または OpenAI 互換の埋め込みエンドポイントを使用できます。
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
},
},
},
}
非対称の埋め込みラベルが必要な OpenAI 互換エンドポイントでは、memorySearch 配下に queryInputType と documentInputType を設定します。OpenClaw は、それらをプロバイダー固有の input_type リクエストフィールドとして転送します。クエリ埋め込みには queryInputType、インデックス済みメモリチャンクとバッチインデックス作成には documentInputType が使用されます。完全な例については、メモリ設定リファレンス を参照してください。
はじめに
希望する認証方法を選び、設定手順に従ってください。
API キー (OpenAI Platform)
最適な用途: 直接 API アクセスと使用量ベース課金。
API キーを取得する
OpenAI Platform ダッシュボード から API キーを作成またはコピーします。
オンボーディングを実行する
openclaw onboard --auth-choice openai-api-key
またはキーを直接渡します。
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
モデルが利用可能であることを確認する
openclaw models list --provider openai
ルート概要
| モデル参照 | Runtime 設定 | ルート | 認証 |
|---|---|---|---|
openai/gpt-5.5 |
省略 / agentRuntime.id: "codex" |
Codex app-server ハーネス | openai-codex プロファイル |
openai/gpt-5.4-mini |
省略 / agentRuntime.id: "codex" |
Codex app-server ハーネス | openai-codex プロファイル |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
PI 埋め込み runtime | openai プロファイルまたは選択した openai-codex プロファイル |
設定例
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
OpenAI API から ChatGPT の現在の Instant モデルを試すには、モデルを openai/chat-latest に設定します。
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/chat-latest" } } },
}
chat-latest は移動エイリアスです。OpenAI はこれを ChatGPT で使用される最新の Instant モデルとして文書化しており、本番 API 利用には gpt-5.5 を推奨しています。そのため、このエイリアスの挙動を明示的に必要としない限り、安定したデフォルトとして openai/gpt-5.5 を維持してください。このエイリアスは現在 medium のテキスト詳細度のみを受け付けるため、OpenClaw はこのモデルについて互換性のない OpenAI テキスト詳細度オーバーライドを正規化します。
Codex サブスクリプション
最適な用途: 別の API キーではなく、ChatGPT/Codex サブスクリプションをネイティブ Codex app-server 実行で使用する場合。Codex クラウドには ChatGPT サインインが必要です。
Codex OAuth を実行する
openclaw onboard --auth-choice openai-codex
または OAuth を直接実行します。
openclaw models auth login --provider openai-codex
ヘッドレス環境やコールバックを扱いにくい設定では、localhost ブラウザーコールバックの代わりに ChatGPT device-code フローでサインインするため、--device-code を追加します。
openclaw models auth login --provider openai-codex --device-code
正規の OpenAI モデルルートを使用する
openclaw config set agents.defaults.model.primary openai/gpt-5.5
既定のパスではランタイム設定は不要です。OpenAI エージェントターンは ネイティブ Codex アプリサーバーランタイムを自動的に選択し、OpenClaw は このルートが選ばれたときに、バンドルされた Codex Plugin をインストールまたは修復します。
Codex 認証が利用可能であることを確認する
openclaw models list --provider openai-codex
Gateway の実行後、チャットで /codex status または /codex models を送信して、
ネイティブアプリサーバーランタイムを確認します。
ルート概要
| モデル参照 | ランタイム設定 | ルート | 認証 |
|---|---|---|---|
openai/gpt-5.5 |
省略 / agentRuntime.id: "codex" |
ネイティブ Codex アプリサーバーハーネス | Codex サインインまたは選択済みの openai-codex プロファイル |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
内部 Codex 認証トランスポートを備えた PI 埋め込みランタイム | 選択済みの openai-codex プロファイル |
openai-codex/gpt-5.5 |
doctor によって修復 | openai/gpt-5.5 に書き換えられるレガシールート |
既存の openai-codex プロファイル |
設定例
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
Codex OAuth ルーティングの確認と復旧
次のコマンドを使用して、既定のエージェントが使用しているモデル、ランタイム、認証ルートを確認します。
openclaw models status
openclaw models auth list --provider openai-codex
openclaw config get agents.defaults.model --json
openclaw config get agents.defaults.agentRuntime --json
特定のエージェントの場合は、--agent <id> を追加します。
openclaw models status --agent <id>
openclaw models auth list --agent <id> --provider openai-codex
古い設定にまだ openai-codex/gpt-* がある場合、または明示的なランタイム設定なしに古い OpenAI PI
セッションピンが残っている場合は、修復します。
openclaw doctor --fix
openclaw config validate
models auth list --provider openai-codex で使用可能なプロファイルが表示されない場合は、
再度サインインします。
openclaw models auth login --provider openai-codex
openclaw models status --probe --probe-provider openai-codex
openai-codex は認証/プロファイルプロバイダー ID のままです。openai/* は
Codex 経由の OpenAI エージェントターン用モデルルートです。
ステータスインジケーター
チャットの /status は、現在のセッションでどのモデルランタイムがアクティブかを表示します。
バンドルされた Codex アプリサーバーハーネスは、OpenAI エージェントモデルターンでは
Runtime: OpenAI Codex として表示されます。古い PI セッションピンは、設定で PI が明示的に固定されていない限り Codex に修復されます。
Doctor 警告
openai-codex/* ルートまたは古い OpenAI PI ピンが設定やセッション状態に残っている場合、
openclaw doctor --fix は、PI が明示的に設定されていない限り、それらを Codex ランタイム付きの openai/* に書き換えます。
コンテキストウィンドウ上限
OpenClaw はモデルメタデータとランタイムコンテキスト上限を別々の値として扱います。
Codex OAuth カタログ経由の openai/gpt-5.5 の場合:
- ネイティブ
contextWindow:1000000 - 既定のランタイム
contextTokens上限:272000
小さい既定の上限は、実用上、レイテンシと品質の特性が優れています。contextTokens で上書きします。
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
カタログ復旧
OpenClaw は、gpt-5.5 が存在する場合、その upstream Codex カタログメタデータを使用します。
アカウントが認証済みであるにもかかわらず、ライブ Codex 検出で gpt-5.5 行が省略される場合、
OpenClaw はその OAuth モデル行を合成し、cron、サブエージェント、設定済みの既定モデル実行が
Unknown model で失敗しないようにします。
ネイティブ Codex アプリサーバー認証
ネイティブ Codex アプリサーバーハーネスは、openai/* モデル参照と省略された
ランタイム設定、または agentRuntime.id: "codex" を使用しますが、その認証は引き続き
アカウントベースです。OpenClaw は
次の順序で認証を選択します。
- エージェントに紐付けられた明示的な OpenClaw
openai-codex認証プロファイル。 - ローカル Codex CLI ChatGPT サインインなど、アプリサーバーの既存アカウント。
- ローカル stdio アプリサーバー起動の場合のみ、アプリサーバーがアカウントなしと報告し、なお OpenAI 認証を必要とするときに、
CODEX_API_KEY、次にOPENAI_API_KEY。
つまり、Gateway プロセスに直接 OpenAI モデルや埋め込み用の OPENAI_API_KEY もあるという理由だけで、
ローカル ChatGPT/Codex サブスクリプションのサインインが置き換えられることはありません。
環境変数 API キーのフォールバックは、ローカル stdio のアカウントなしパスに限られます。
WebSocket アプリサーバー接続には送信されません。サブスクリプション形式の Codex
プロファイルが選択されている場合、OpenClaw は生成された stdio アプリサーバー子プロセスからも CODEX_API_KEY と OPENAI_API_KEY
を除外し、選択された認証情報をアプリサーバーログイン RPC 経由で送信します。
画像生成
バンドルされた openai Plugin は、image_generate ツール経由で画像生成を登録します。
同じ openai/gpt-image-2 モデル参照を通じて、OpenAI API キー画像生成と Codex OAuth 画像生成の両方をサポートします。
| 機能 | OpenAI API キー | Codex OAuth |
|---|---|---|
| モデル参照 | openai/gpt-image-2 |
openai/gpt-image-2 |
| 認証 | OPENAI_API_KEY |
OpenAI Codex OAuth サインイン |
| トランスポート | OpenAI Images API | Codex Responses バックエンド |
| リクエストあたりの最大画像数 | 4 | 4 |
| 編集モード | 有効 (最大 5 枚の参照画像) | 有効 (最大 5 枚の参照画像) |
| サイズ上書き | 対応、2K/4K サイズを含む | 対応、2K/4K サイズを含む |
| アスペクト比 / 解像度 | OpenAI Images API に転送されません | 安全な場合、対応サイズにマッピングされます |
{
agents: {
defaults: {
imageGenerationModel: { primary: "openai/gpt-image-2" },
},
},
}
gpt-image-2 は、OpenAI のテキストから画像生成と画像編集の両方の既定です。
gpt-image-1.5、gpt-image-1、gpt-image-1-mini は、明示的なモデル上書きとして引き続き使用できます。
透明背景の PNG/WebP 出力には openai/gpt-image-1.5 を使用してください。現在の gpt-image-2 API は
background: "transparent" を拒否します。
透明背景リクエストでは、エージェントは
model: "openai/gpt-image-1.5"、outputFormat: "png" または "webp"、および
background: "transparent" を指定して image_generate を呼び出す必要があります。古い openai.background プロバイダーオプションも
引き続き受け入れられます。OpenClaw は、既定の openai/gpt-image-2 透明リクエストを
gpt-image-1.5 に書き換えることで、公開 OpenAI ルートと OpenAI Codex OAuth ルートも保護します。Azure とカスタム OpenAI 互換エンドポイントは、
設定されたデプロイメント/モデル名を維持します。
同じ設定はヘッドレス CLI 実行でも公開されています。
openclaw infer image generate \
--model openai/gpt-image-1.5 \
--output-format png \
--background transparent \
--prompt "A simple red circle sticker on a transparent background" \
--json
入力ファイルから開始する場合は、openclaw infer image edit で同じ --output-format と --background
フラグを使用します。
--openai-background は OpenAI 固有のエイリアスとして引き続き利用できます。
Codex OAuth インストールでは、同じ openai/gpt-image-2 参照を維持してください。
openai-codex OAuth プロファイルが設定されている場合、OpenClaw は保存された OAuth
アクセストークンを解決し、Codex Responses バックエンド経由で画像リクエストを送信します。
そのリクエストで最初に OPENAI_API_KEY を試したり、API キーへ暗黙にフォールバックしたりすることはありません。
代わりに直接 OpenAI Images API ルートを使用したい場合は、
API キー、カスタムベース URL、または Azure エンドポイントを使用して models.providers.openai を明示的に設定してください。
そのカスタム画像エンドポイントが信頼済み LAN/プライベートアドレス上にある場合は、
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true も設定してください。OpenClaw は、このオプトインがない限り、
プライベート/内部 OpenAI 互換画像エンドポイントをブロックしたままにします。
生成:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
透明 PNG を生成:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
編集:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
動画生成
バンドルされた openai Plugin は、video_generate ツール経由で動画生成を登録します。
| 機能 | 値 |
|---|---|
| 既定モデル | openai/sora-2 |
| モード | テキストから動画、画像から動画、単一動画編集 |
| 参照入力 | 1 枚の画像または 1 本の動画 |
| サイズ上書き | 対応 |
| その他の上書き | aspectRatio、resolution、audio、watermark はツール警告付きで無視されます |
{
agents: {
defaults: {
videoGenerationModel: { primary: "openai/sora-2" },
},
},
}
GPT-5 プロンプト寄与
OpenClaw は、プロバイダーをまたぐ GPT-5 ファミリー実行に共有 GPT-5 プロンプト寄与を追加します。これはモデル ID によって適用されるため、openai/gpt-5.5、openai-codex/gpt-5.5 などのレガシーの修復前参照、openrouter/openai/gpt-5.5、opencode/gpt-5.5、その他の互換 GPT-5 参照は同じオーバーレイを受け取ります。古い GPT-4.x モデルには適用されません。
バンドルされたネイティブ Codex ハーネスは、Codex アプリサーバー開発者指示を通じて同じ GPT-5 動作と Heartbeat オーバーレイを使用するため、agentRuntime.id: "codex" 経由に強制された openai/gpt-5.x セッションは、ハーネスプロンプトの残りを Codex が所有していても、同じフォロースルーとプロアクティブな Heartbeat ガイダンスを維持します。
GPT-5 のコントリビューションは、ペルソナの永続化、実行の安全性、ツール規律、出力形式、完了チェック、検証のためのタグ付き動作契約を追加します。チャンネル固有の返信とサイレントメッセージの動作は、共有 OpenClaw システムプロンプトと送信配信ポリシーに残ります。GPT-5 ガイダンスは、一致するモデルでは常に有効です。親しみやすいインタラクションスタイル層は別個で、設定可能です。
| 値 | 効果 |
|---|---|
"friendly" (デフォルト) |
親しみやすいインタラクションスタイル層を有効化 |
"on" |
"friendly" のエイリアス |
"off" |
親しみやすいスタイル層のみを無効化 |
Config
{
agents: {
defaults: {
promptOverlays: {
gpt5: { personality: "friendly" },
},
},
},
}
CLI
openclaw config set agents.defaults.promptOverlays.gpt5.personality off
音声と発話
Speech synthesis (TTS)
バンドルされた openai plugin は、messages.tts サーフェス向けに音声合成を登録します。
| 設定 | 設定パス | デフォルト |
|---|---|---|
| モデル | messages.tts.providers.openai.model |
gpt-4o-mini-tts |
| 音声 | messages.tts.providers.openai.voice |
coral |
| 速度 | messages.tts.providers.openai.speed |
(未設定) |
| 指示 | messages.tts.providers.openai.instructions |
(未設定、gpt-4o-mini-tts のみ) |
| 形式 | messages.tts.providers.openai.responseFormat |
ボイスメモは opus、ファイルは mp3 |
| API キー | messages.tts.providers.openai.apiKey |
OPENAI_API_KEY にフォールバック |
| ベース URL | messages.tts.providers.openai.baseUrl |
https://api.openai.com/v1 |
| 追加ボディ | messages.tts.providers.openai.extraBody / extra_body |
(未設定) |
利用可能なモデル: gpt-4o-mini-tts, tts-1, tts-1-hd。利用可能な音声: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse。
extraBody は、OpenClaw が生成したフィールドの後に /audio/speech リクエスト JSON へマージされるため、lang などの追加キーを必要とする OpenAI 互換エンドポイントに使用してください。プロトタイプキーは無視されます。
{
messages: {
tts: {
providers: {
openai: { model: "gpt-4o-mini-tts", voice: "coral" },
},
},
},
}
Speech-to-text
バンドルされた openai plugin は、OpenClaw のメディア理解文字起こしサーフェスを通じて
バッチ音声テキスト変換を登録します。
- デフォルトモデル:
gpt-4o-transcribe - エンドポイント: OpenAI REST
/v1/audio/transcriptions - 入力パス: multipart 音声ファイルアップロード
- Discord ボイスチャンネルセグメントやチャンネル音声添付を含め、
inbound 音声文字起こしが
tools.media.audioを使用する OpenClaw のすべての場所でサポート
inbound 音声文字起こしで OpenAI を強制するには:
{
tools: {
media: {
audio: {
models: [
{
type: "provider",
provider: "openai",
model: "gpt-4o-transcribe",
},
],
},
},
},
}
共有音声メディア設定または呼び出しごとの文字起こしリクエストで指定された場合、 言語とプロンプトのヒントは OpenAI に転送されます。
Realtime transcription
バンドルされた openai plugin は、Voice Call plugin 向けにリアルタイム文字起こしを登録します。
| 設定 | 設定パス | デフォルト |
|---|---|---|
| モデル | plugins.entries.voice-call.config.streaming.providers.openai.model |
gpt-4o-transcribe |
| 言語 | ...openai.language |
(未設定) |
| プロンプト | ...openai.prompt |
(未設定) |
| 無音継続時間 | ...openai.silenceDurationMs |
800 |
| VAD しきい値 | ...openai.vadThreshold |
0.5 |
| API キー | ...openai.apiKey |
OPENAI_API_KEY にフォールバック |
Realtime voice
バンドルされた openai plugin は、Voice Call plugin 向けにリアルタイム音声を登録します。
| 設定 | 設定パス | デフォルト |
|---|---|---|
| モデル | plugins.entries.voice-call.config.realtime.providers.openai.model |
gpt-realtime-1.5 |
| 音声 | ...openai.voice |
alloy |
| 温度 | ...openai.temperature |
0.8 |
| VAD しきい値 | ...openai.vadThreshold |
0.5 |
| 無音継続時間 | ...openai.silenceDurationMs |
500 |
| API キー | ...openai.apiKey |
OPENAI_API_KEY にフォールバック |
Azure OpenAI エンドポイント
バンドルされた openai プロバイダーは、ベース URL を上書きすることで、画像生成の対象を Azure OpenAI リソースにできます。画像生成パスでは、OpenClaw は models.providers.openai.baseUrl 上の Azure ホスト名を検出し、Azure のリクエスト形式に自動的に切り替えます。
Azure OpenAI を使用する場合:
- Azure OpenAI サブスクリプション、クォータ、またはエンタープライズ契約をすでに持っている
- Azure が提供するリージョンのデータレジデンシーまたはコンプライアンス制御が必要
- 既存の Azure テナンシー内にトラフィックを維持したい
設定
バンドルされた openai プロバイダー経由で Azure 画像生成を行うには、
models.providers.openai.baseUrl を自分の Azure リソースに向け、apiKey を
Azure OpenAI キー (OpenAI Platform キーではない) に設定します。
{
models: {
providers: {
openai: {
baseUrl: "https://<your-resource>.openai.azure.com",
apiKey: "<azure-openai-api-key>",
},
},
},
}
OpenClaw は、Azure 画像生成ルートについて次の Azure ホストサフィックスを認識します。
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
認識された Azure ホスト上の画像生成リクエストでは、OpenClaw は次を行います。
Authorization: Bearerの代わりにapi-keyヘッダーを送信- デプロイスコープのパス (
/openai/deployments/{deployment}/...) を使用 - 各リクエストに
?api-version=...を追加 - Azure 画像生成呼び出しに 600 秒のデフォルトリクエストタイムアウトを使用します。
呼び出しごとの
timeoutMs値は引き続きこのデフォルトを上書きします。
その他のベース URL (公開 OpenAI、OpenAI 互換プロキシ) は、標準の OpenAI 画像リクエスト形式を維持します。
API バージョン
Azure 画像生成パスで特定の Azure プレビューまたは GA バージョンを固定するには、
AZURE_OPENAI_API_VERSION を設定します。
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
この変数が未設定の場合、デフォルトは 2024-12-01-preview です。
モデル名はデプロイ名
Azure OpenAI はモデルをデプロイにバインドします。バンドルされた openai プロバイダー経由でルーティングされる Azure 画像生成リクエストでは、OpenClaw の model フィールドは、公開 OpenAI モデル ID ではなく、Azure ポータルで設定した Azure デプロイ名 である必要があります。
gpt-image-2 を提供する gpt-image-2-prod というデプロイを作成した場合:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
同じデプロイ名ルールは、バンドルされた openai プロバイダー経由でルーティングされる画像生成呼び出しにも適用されます。
リージョンでの提供状況
Azure 画像生成は現在、一部のリージョンでのみ利用できます
(例: eastus2, swedencentral, polandcentral, westus3,
uaenorth)。デプロイを作成する前に Microsoft の最新リージョン一覧を確認し、
特定のモデルが自分のリージョンで提供されていることを確認してください。
パラメーター差分
Azure OpenAI と公開 OpenAI は、常に同じ画像パラメーターを受け付けるわけではありません。
Azure は、公開 OpenAI が許可するオプション (たとえば gpt-image-2 の特定の
background 値) を拒否する場合や、特定のモデルバージョンでのみ公開する場合があります。
これらの差分は Azure と基盤モデルに由来するもので、OpenClaw によるものではありません。
Azure リクエストが検証エラーで失敗する場合は、自分の特定のデプロイと API バージョンでサポートされるパラメーターセットを Azure ポータルで確認してください。
高度な設定
Transport (WebSocket vs SSE)
OpenClaw は openai/* に対して、SSE フォールバック ("auto") 付きの WebSocket 優先を使用します。
"auto" モードでは、OpenClaw は次を行います。
- SSE にフォールバックする前に、初期の WebSocket 失敗を 1 回再試行
- 失敗後、WebSocket を約 60 秒間 degraded としてマークし、クールダウン中は SSE を使用
- 再試行と再接続のために安定したセッション ID とターン ID ヘッダーを付加
- トランスポートバリアント間で使用量カウンター (
input_tokens/prompt_tokens) を正規化
| 値 | 動作 |
|---|---|
"auto" (デフォルト) |
WebSocket 優先、SSE フォールバック |
"sse" |
SSE のみを強制 |
"websocket" |
WebSocket のみを強制 |
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { transport: "auto" },
},
},
},
},
}
関連する OpenAI ドキュメント:
WebSocket ウォームアップ
OpenClaw は、初回ターンのレイテンシを減らすために、openai/* で WebSocket ウォームアップをデフォルトで有効にします。
// Disable warm-up
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { openaiWsWarmup: false },
},
},
},
},
}
高速モード
OpenClaw は、openai/* 向けの共有高速モード切り替えを公開します。
- チャット/UI:
/fast status|on|off - 設定:
agents.defaults.models["<provider>/<model>"].params.fastMode
有効にすると、OpenClaw は高速モードを OpenAI の優先処理(service_tier = "priority")にマッピングします。既存の service_tier 値は保持され、高速モードは reasoning や text.verbosity を書き換えません。
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { fastMode: true } },
},
},
},
}
優先処理 (service_tier)
OpenAI の API は、service_tier を通じて優先処理を公開します。OpenClaw ではモデルごとに設定します。
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { serviceTier: "priority" } },
},
},
},
}
サポートされる値: auto、default、flex、priority。
サーバー側 Compaction (Responses API)
直接の OpenAI Responses モデル(api.openai.com 上の openai/*)では、OpenAI Plugin の Pi ハーネスストリームラッパーがサーバー側 Compaction を自動的に有効にします。
store: trueを強制します(モデル互換設定でsupportsStore: falseが設定されている場合を除く)context_management: [{ type: "compaction", compact_threshold: ... }]を注入します- デフォルトの
compact_threshold:contextWindowの 70%(利用できない場合は80000)
これは組み込みの Pi ハーネスパスと、埋め込み実行で使われる OpenAI プロバイダーフックに適用されます。ネイティブ Codex アプリサーバーハーネスは Codex を通じて独自のコンテキストを管理し、agents.defaults.agentRuntime.id で別途設定されます。
明示的に有効化
Azure OpenAI Responses のような互換エンドポイントで便利です。
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.5": {
params: { responsesServerCompaction: true },
},
},
},
},
}
カスタムしきい値
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
無効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { responsesServerCompaction: false },
},
},
},
},
}
厳格なエージェント型 GPT モード
openai/* 上の GPT-5 ファミリーの実行では、OpenClaw はより厳格な埋め込み実行契約を使用できます。
{
agents: {
defaults: {
embeddedPi: { executionContract: "strict-agentic" },
},
},
}
strict-agentic では、OpenClaw は次のように動作します。
- ツールアクションが利用可能な場合、計画のみのターンを成功した進行として扱わなくなります
- そのターンを、今すぐ行動するよう誘導して再試行します
- substantial な作業では
update_planを自動的に有効にします - モデルが行動せずに計画し続ける場合、明示的なブロック状態を表示します
ネイティブと OpenAI 互換ルート
OpenClaw は、直接の OpenAI、Codex、Azure OpenAI エンドポイントを、汎用の OpenAI 互換 /v1 プロキシとは異なるものとして扱います。
ネイティブルート(openai/*、Azure OpenAI):
- OpenAI の
noneeffort をサポートするモデルでのみreasoning: { effort: "none" }を保持します reasoning.effort: "none"を拒否するモデルやプロキシでは、無効化された reasoning を省略します- ツールスキーマのデフォルトを厳格モードにします
- 検証済みのネイティブホストでのみ、隠し attribution ヘッダーを添付します
- OpenAI 専用のリクエスト整形(
service_tier、store、reasoning 互換、プロンプトキャッシュヒント)を保持します
プロキシ/互換ルート:
- より緩い互換動作を使用します
- 非ネイティブの
openai-completionsペイロードから Completions のstoreを取り除きます - OpenAI 互換 Completions プロキシ向けに、高度な
params.extra_body/params.extraBodyパススルー JSON を受け入れます - vLLM などの OpenAI 互換 Completions プロキシ向けに
params.chat_template_kwargsを受け入れます - 厳格なツールスキーマやネイティブ専用ヘッダーを強制しません
Azure OpenAI はネイティブトランスポートと互換動作を使用しますが、隠し attribution ヘッダーは受け取りません。