Providers

OpenAI

OpenAI menyediakan API pengembang untuk model GPT, dan Codex juga tersedia sebagai agen coding paket ChatGPT melalui klien Codex OpenAI. OpenClaw menjaga permukaan tersebut tetap terpisah agar konfigurasi tetap dapat diprediksi.

OpenClaw menggunakan openai/* sebagai rute model OpenAI kanonis. Giliran agen tertanam pada model OpenAI berjalan melalui runtime server aplikasi Codex native secara default; autentikasi kunci API OpenAI langsung tetap tersedia untuk permukaan OpenAI non-agen seperti gambar, embedding, ucapan, dan realtime.

  • Model agen - model openai/* melalui runtime Codex; masuk dengan autentikasi openai-codex untuk penggunaan langganan ChatGPT/Codex, atau konfigurasikan profil kunci API openai-codex ketika Anda sengaja menginginkan autentikasi kunci API.
  • API OpenAI non-agen - akses OpenAI Platform langsung dengan penagihan berbasis penggunaan melalui OPENAI_API_KEY atau onboarding kunci API OpenAI.
  • Konfigurasi lama - referensi model openai-codex/* diperbaiki oleh openclaw doctor --fix menjadi openai/* plus runtime Codex.

OpenAI secara eksplisit mendukung penggunaan OAuth langganan di alat dan alur kerja eksternal seperti OpenClaw.

Penyedia, model, runtime, dan channel adalah lapisan terpisah. Jika label tersebut tercampur, baca Runtime agen sebelum mengubah konfigurasi.

Pilihan cepat

Tujuan Gunakan Catatan
Langganan ChatGPT/Codex dengan runtime Codex native openai/gpt-5.5 Pengaturan agen OpenAI default. Masuk dengan autentikasi openai-codex.
Penagihan kunci API langsung untuk model agen openai/gpt-5.5 plus profil kunci API openai-codex Gunakan auth.order.openai-codex untuk memprioritaskan profil itu.
Penagihan kunci API langsung melalui PI eksplisit openai/gpt-5.5 plus agentRuntime.id: "pi" Pilih profil kunci API openai biasa.
Alias API ChatGPT Instant terbaru openai/chat-latest Hanya kunci API langsung. Alias bergerak untuk eksperimen, bukan default.
Autentikasi langganan ChatGPT/Codex melalui PI eksplisit openai/gpt-5.5 plus agentRuntime.id: "pi" Pilih profil autentikasi openai-codex untuk rute kompatibilitas.
Pembuatan atau pengeditan gambar openai/gpt-image-2 Berfungsi dengan OPENAI_API_KEY atau OAuth OpenAI Codex.
Gambar dengan latar belakang transparan openai/gpt-image-1.5 Gunakan outputFormat=png atau webp dan openai.background=transparent.

Peta penamaan

Nama-nama ini mirip tetapi tidak dapat dipertukarkan:

Nama yang Anda lihat Lapisan Makna
openai Prefiks penyedia Rute model OpenAI kanonis; giliran agen menggunakan runtime Codex.
openai-codex Prefiks autentikasi/profil Penyedia profil autentikasi OAuth/langganan OpenAI Codex.
codex plugin Plugin Plugin bawaan OpenClaw yang menyediakan runtime server aplikasi Codex native dan kontrol chat /codex.
agentRuntime.id: codex Runtime agen Memaksa harness server aplikasi Codex native untuk giliran tertanam.
/codex ... Kumpulan perintah chat Mengikat/mengontrol thread server aplikasi Codex dari percakapan.
runtime: "acp", agentId: "codex" Rute sesi ACP Jalur fallback eksplisit yang menjalankan Codex melalui ACP/acpx.

Ini berarti konfigurasi dapat dengan sengaja berisi referensi model openai/* dan profil autentikasi openai-codex. openclaw doctor --fix menulis ulang referensi model lama openai-codex/* ke rute model OpenAI kanonis.

Cakupan fitur OpenClaw

Kapabilitas OpenAI Permukaan OpenClaw Status
Chat / Responses Penyedia model openai/<model> Ya
Model langganan Codex openai/<model> dengan OAuth openai-codex Ya
Referensi model Codex lama openai-codex/<model> Diperbaiki oleh doctor menjadi openai/<model>
Harness server aplikasi Codex openai/<model> dengan runtime dihilangkan atau agentRuntime.id: codex Ya
Pencarian web sisi server Alat OpenAI Responses native Ya, ketika pencarian web diaktifkan dan tidak ada penyedia yang dipin
Gambar image_generate Ya
Video video_generate Ya
Teks-ke-ucapan messages.tts.provider: "openai" / tts Ya
Ucapan-ke-teks batch tools.media.audio / pemahaman media Ya
Ucapan-ke-teks streaming Voice Call streaming.provider: "openai" Ya
Suara realtime Voice Call realtime.provider: "openai" / Control UI Talk Ya
Embedding penyedia embedding memori Ya

Embedding memori

OpenClaw dapat menggunakan OpenAI, atau endpoint embedding yang kompatibel dengan OpenAI, untuk pengindeksan memory_search dan embedding kueri:

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}

Untuk endpoint yang kompatibel dengan OpenAI dan memerlukan label embedding asimetris, atur queryInputType dan documentInputType di bawah memorySearch. OpenClaw meneruskannya sebagai field permintaan input_type khusus penyedia: embedding kueri menggunakan queryInputType; potongan memori terindeks dan pengindeksan batch menggunakan documentInputType. Lihat Referensi konfigurasi memori untuk contoh lengkapnya.

Memulai

Pilih metode autentikasi yang Anda inginkan dan ikuti langkah penyiapannya.

Kunci API (OpenAI Platform)

Terbaik untuk: akses API langsung dan penagihan berbasis penggunaan.

  • Dapatkan kunci API Anda

    Buat atau salin kunci API dari dasbor OpenAI Platform.

  • Jalankan onboarding

    openclaw onboard --auth-choice openai-api-key
    

    Atau teruskan kunci secara langsung:

    openclaw onboard --openai-api-key "$OPENAI_API_KEY"
    
  • Verifikasi model tersedia

    openclaw models list --provider openai
    
  • Ringkasan rute

    Referensi model Konfigurasi runtime Rute Autentikasi
    openai/gpt-5.5 dihilangkan / agentRuntime.id: "codex" Harness server aplikasi Codex Profil openai-codex
    openai/gpt-5.4-mini dihilangkan / agentRuntime.id: "codex" Harness server aplikasi Codex Profil openai-codex
    openai/gpt-5.5 agentRuntime.id: "pi" Runtime tertanam PI Profil openai atau profil openai-codex terpilih

    Contoh konfigurasi

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
    }
    

    Untuk mencoba model Instant ChatGPT saat ini dari API OpenAI, atur model ke openai/chat-latest:

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/chat-latest" } } },
    }
    

    chat-latest adalah alias bergerak. OpenAI mendokumentasikannya sebagai model Instant terbaru yang digunakan di ChatGPT dan merekomendasikan gpt-5.5 untuk penggunaan API produksi, jadi pertahankan openai/gpt-5.5 sebagai default stabil kecuali Anda secara eksplisit menginginkan perilaku alias tersebut. Alias ini saat ini hanya menerima verbosity teks medium, sehingga OpenClaw menormalkan override verbosity teks OpenAI yang tidak kompatibel untuk model ini.

    Langganan Codex

    Terbaik untuk: menggunakan langganan ChatGPT/Codex Anda dengan eksekusi server aplikasi Codex native alih-alih kunci API terpisah. Codex cloud memerlukan masuk ChatGPT.

  • Jalankan OAuth Codex

    openclaw onboard --auth-choice openai-codex
    

    Atau jalankan OAuth secara langsung:

    openclaw models auth login --provider openai-codex
    

    Untuk penyiapan headless atau yang tidak mendukung callback, tambahkan --device-code untuk masuk dengan alur kode perangkat ChatGPT alih-alih callback browser localhost:

    openclaw models auth login --provider openai-codex --device-code
    
  • Gunakan rute model OpenAI kanonis

    openclaw config set agents.defaults.model.primary openai/gpt-5.5
    

    Tidak diperlukan konfigurasi runtime untuk jalur default. Giliran agen OpenAI memilih runtime app-server Codex native secara otomatis, dan OpenClaw memasang atau memperbaiki Plugin Codex bawaan saat rute ini dipilih.

  • Verifikasi auth Codex tersedia

    openclaw models list --provider openai-codex
    

    Setelah gateway berjalan, kirim /codex status atau /codex models di chat untuk memverifikasi runtime app-server native.

  • Ringkasan rute

    Referensi model Konfigurasi runtime Rute Auth
    openai/gpt-5.5 dihilangkan / agentRuntime.id: "codex" Harness app-server Codex native Masuk Codex atau profil openai-codex terpilih
    openai/gpt-5.5 agentRuntime.id: "pi" Runtime tertanam PI dengan transport auth Codex internal Profil openai-codex terpilih
    openai-codex/gpt-5.5 diperbaiki oleh doctor Rute lama ditulis ulang ke openai/gpt-5.5 Profil openai-codex yang ada

    Contoh konfigurasi

    {
      plugins: { entries: { codex: { enabled: true } } },
      agents: {
        defaults: {
          model: { primary: "openai/gpt-5.5" },
          agentRuntime: { id: "codex" },
        },
      },
    }
    

    Periksa dan pulihkan perutean OAuth Codex

    Gunakan perintah ini untuk melihat model, runtime, dan rute auth yang digunakan agen default Anda:

    openclaw models status
    openclaw models auth list --provider openai-codex
    openclaw config get agents.defaults.model --json
    openclaw config get agents.defaults.agentRuntime --json
    

    Untuk agen tertentu, tambahkan --agent <id>:

    openclaw models status --agent <id>
    openclaw models auth list --agent <id> --provider openai-codex
    

    Jika konfigurasi yang lebih lama masih memiliki openai-codex/gpt-* atau pin sesi OpenAI PI usang tanpa konfigurasi runtime eksplisit, perbaiki:

    openclaw doctor --fix
    openclaw config validate
    

    Jika models auth list --provider openai-codex tidak menampilkan profil yang dapat digunakan, masuk lagi:

    openclaw models auth login --provider openai-codex
    openclaw models status --probe --probe-provider openai-codex
    

    openai-codex tetap menjadi id penyedia auth/profil. openai/* adalah rute model untuk giliran agen OpenAI melalui Codex.

    Indikator status

    Chat /status menampilkan runtime model mana yang aktif untuk sesi saat ini. Harness app-server Codex bawaan muncul sebagai Runtime: OpenAI Codex untuk giliran model agen OpenAI. Pin sesi PI usang diperbaiki ke Codex kecuali konfigurasi secara eksplisit memasang pin PI.

    Peringatan doctor

    Jika rute openai-codex/* atau pin OpenAI PI usang tetap ada dalam konfigurasi atau status sesi, openclaw doctor --fix menulis ulang semuanya ke openai/* dengan runtime Codex kecuali PI dikonfigurasi secara eksplisit.

    Batas jendela konteks

    OpenClaw memperlakukan metadata model dan batas konteks runtime sebagai nilai terpisah.

    Untuk openai/gpt-5.5 melalui katalog OAuth Codex:

    • contextWindow native: 1000000
    • Batas contextTokens runtime default: 272000

    Batas default yang lebih kecil memiliki karakteristik latensi dan kualitas yang lebih baik dalam praktik. Timpa dengan contextTokens:

    {
      models: {
        providers: {
          "openai-codex": {
            models: [{ id: "gpt-5.5", contextTokens: 160000 }],
          },
        },
      },
    }
    

    Pemulihan katalog

    OpenClaw menggunakan metadata katalog Codex upstream untuk gpt-5.5 saat metadata tersebut ada. Jika discovery Codex live menghilangkan baris gpt-5.5 sementara akun terautentikasi, OpenClaw menyintesis baris model OAuth tersebut agar Cron, sub-agen, dan run model default yang dikonfigurasi tidak gagal dengan Unknown model.

    Auth app-server Codex native

    Harness app-server Codex native menggunakan referensi model openai/* plus konfigurasi runtime yang dihilangkan atau agentRuntime.id: "codex", tetapi auth-nya tetap berbasis akun. OpenClaw memilih auth dalam urutan ini:

    1. Profil auth OpenClaw openai-codex eksplisit yang terikat ke agen.
    2. Akun app-server yang ada, seperti login ChatGPT CLI Codex lokal.
    3. Hanya untuk peluncuran app-server stdio lokal, CODEX_API_KEY, lalu OPENAI_API_KEY, saat app-server melaporkan tidak ada akun dan masih memerlukan auth OpenAI.

    Artinya, login langganan ChatGPT/Codex lokal tidak diganti hanya karena proses gateway juga memiliki OPENAI_API_KEY untuk model OpenAI langsung atau embeddings. Fallback kunci API env hanya untuk jalur stdio lokal tanpa akun; fallback itu tidak dikirim ke koneksi app-server WebSocket. Saat profil Codex gaya langganan dipilih, OpenClaw juga menahan CODEX_API_KEY dan OPENAI_API_KEY dari child app-server stdio yang dijalankan dan mengirim kredensial terpilih melalui RPC login app-server.

    Pembuatan gambar

    Plugin openai bawaan mendaftarkan pembuatan gambar melalui tool image_generate. Plugin ini mendukung pembuatan gambar dengan kunci API OpenAI dan pembuatan gambar OAuth Codex melalui referensi model openai/gpt-image-2 yang sama.

    Kemampuan Kunci API OpenAI OAuth Codex
    Referensi model openai/gpt-image-2 openai/gpt-image-2
    Auth OPENAI_API_KEY Login OAuth OpenAI Codex
    Transport OpenAI Images API Backend Codex Responses
    Maks. gambar per permintaan 4 4
    Mode edit Diaktifkan (hingga 5 gambar referensi) Diaktifkan (hingga 5 gambar referensi)
    Penggantian ukuran Didukung, termasuk ukuran 2K/4K Didukung, termasuk ukuran 2K/4K
    Rasio aspek / resolusi Tidak diteruskan ke OpenAI Images API Dipetakan ke ukuran yang didukung saat aman
    {
      agents: {
        defaults: {
          imageGenerationModel: { primary: "openai/gpt-image-2" },
        },
      },
    }
    

    gpt-image-2 adalah default untuk pembuatan gambar dari teks OpenAI dan pengeditan gambar. gpt-image-1.5, gpt-image-1, dan gpt-image-1-mini tetap dapat digunakan sebagai pengganti model eksplisit. Gunakan openai/gpt-image-1.5 untuk keluaran PNG/WebP berlatar belakang transparan; API gpt-image-2 saat ini menolak background: "transparent".

    Untuk permintaan latar belakang transparan, agen harus memanggil image_generate dengan model: "openai/gpt-image-1.5", outputFormat: "png" atau "webp", dan background: "transparent"; opsi penyedia openai.background yang lebih lama masih diterima. OpenClaw juga melindungi rute OAuth OpenAI publik dan OpenAI Codex dengan menulis ulang permintaan transparan default openai/gpt-image-2 ke gpt-image-1.5; endpoint Azure dan endpoint kompatibel OpenAI kustom mempertahankan nama deployment/model yang dikonfigurasi.

    Pengaturan yang sama diekspos untuk run CLI headless:

    openclaw infer image generate \
      --model openai/gpt-image-1.5 \
      --output-format png \
      --background transparent \
      --prompt "A simple red circle sticker on a transparent background" \
      --json
    

    Gunakan flag --output-format dan --background yang sama dengan openclaw infer image edit saat memulai dari file input. --openai-background tetap tersedia sebagai alias khusus OpenAI.

    Untuk instalasi OAuth Codex, pertahankan referensi openai/gpt-image-2 yang sama. Saat profil OAuth openai-codex dikonfigurasi, OpenClaw menyelesaikan token akses OAuth yang tersimpan dan mengirim permintaan gambar melalui backend Codex Responses. OpenClaw tidak mencoba OPENAI_API_KEY terlebih dahulu atau diam-diam fallback ke kunci API untuk permintaan tersebut. Konfigurasikan models.providers.openai secara eksplisit dengan kunci API, URL dasar kustom, atau endpoint Azure saat Anda menginginkan rute OpenAI Images API langsung. Jika endpoint gambar kustom tersebut berada di alamat LAN/pribadi tepercaya, setel juga browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true; OpenClaw tetap memblokir endpoint gambar kompatibel OpenAI privat/internal kecuali opt-in ini ada.

    Buat:

    /tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
    

    Buat PNG transparan:

    /tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
    

    Edit:

    /tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
    

    Pembuatan video

    Plugin openai bawaan mendaftarkan pembuatan video melalui tool video_generate.

    Kemampuan Nilai
    Model default openai/sora-2
    Mode Teks ke video, gambar ke video, edit video tunggal
    Input referensi 1 gambar atau 1 video
    Penggantian ukuran Didukung
    Penggantian lain aspectRatio, resolution, audio, watermark diabaikan dengan peringatan tool
    {
      agents: {
        defaults: {
          videoGenerationModel: { primary: "openai/sora-2" },
        },
      },
    }
    

    Kontribusi prompt GPT-5

    OpenClaw menambahkan kontribusi prompt GPT-5 bersama untuk run keluarga GPT-5 lintas penyedia. Ini berlaku berdasarkan id model, sehingga openai/gpt-5.5, referensi lama sebelum perbaikan seperti openai-codex/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5, dan referensi GPT-5 kompatibel lainnya menerima overlay yang sama. Model GPT-4.x yang lebih lama tidak.

    Harness Codex native bawaan menggunakan perilaku GPT-5 dan overlay Heartbeat yang sama melalui instruksi developer app-server Codex, sehingga sesi openai/gpt-5.x yang dipaksa melalui agentRuntime.id: "codex" mempertahankan panduan tindak lanjut dan Heartbeat proaktif yang sama meskipun Codex memiliki sisa prompt harness.

    Kontribusi GPT-5 menambahkan kontrak perilaku bertag untuk persistensi persona, keamanan eksekusi, disiplin alat, bentuk output, pemeriksaan penyelesaian, dan verifikasi. Perilaku balasan khusus channel dan pesan senyap tetap berada di prompt sistem OpenClaw bersama dan kebijakan pengiriman outbound. Panduan GPT-5 selalu diaktifkan untuk model yang cocok. Lapisan gaya interaksi ramah terpisah dan dapat dikonfigurasi.

    Nilai Efek
    "friendly" (default) Aktifkan lapisan gaya interaksi ramah
    "on" Alias untuk "friendly"
    "off" Nonaktifkan hanya lapisan gaya ramah

    Config

    {
      agents: {
        defaults: {
          promptOverlays: {
            gpt5: { personality: "friendly" },
          },
        },
      },
    }
    

    CLI

    openclaw config set agents.defaults.promptOverlays.gpt5.personality off
    

    Suara dan ucapan

    Speech synthesis (TTS)

    Plugin openai bawaan mendaftarkan sintesis ucapan untuk surface messages.tts.

    Pengaturan Jalur konfigurasi Default
    Model messages.tts.providers.openai.model gpt-4o-mini-tts
    Suara messages.tts.providers.openai.voice coral
    Kecepatan messages.tts.providers.openai.speed (belum disetel)
    Instruksi messages.tts.providers.openai.instructions (belum disetel, hanya gpt-4o-mini-tts)
    Format messages.tts.providers.openai.responseFormat opus untuk catatan suara, mp3 untuk file
    Kunci API messages.tts.providers.openai.apiKey Fallback ke OPENAI_API_KEY
    URL dasar messages.tts.providers.openai.baseUrl https://api.openai.com/v1
    Body tambahan messages.tts.providers.openai.extraBody / extra_body (belum disetel)

    Model yang tersedia: gpt-4o-mini-tts, tts-1, tts-1-hd. Suara yang tersedia: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.

    extraBody digabungkan ke JSON permintaan /audio/speech setelah field yang dihasilkan OpenClaw, jadi gunakan untuk endpoint kompatibel OpenAI yang memerlukan kunci tambahan seperti lang. Kunci prototipe diabaikan.

    {
      messages: {
        tts: {
          providers: {
            openai: { model: "gpt-4o-mini-tts", voice: "coral" },
          },
        },
      },
    }
    
    Speech-to-text

    Plugin openai bawaan mendaftarkan speech-to-text batch melalui surface transkripsi pemahaman media OpenClaw.

    • Model default: gpt-4o-transcribe
    • Endpoint: OpenAI REST /v1/audio/transcriptions
    • Jalur input: unggahan file audio multipart
    • Didukung oleh OpenClaw di mana pun transkripsi audio masuk menggunakan tools.media.audio, termasuk segmen channel suara Discord dan lampiran audio channel

    Untuk memaksa OpenAI untuk transkripsi audio masuk:

    {
      tools: {
        media: {
          audio: {
            models: [
              {
                type: "provider",
                provider: "openai",
                model: "gpt-4o-transcribe",
              },
            ],
          },
        },
      },
    }
    

    Petunjuk bahasa dan prompt diteruskan ke OpenAI ketika disediakan oleh konfigurasi media audio bersama atau permintaan transkripsi per panggilan.

    Realtime transcription

    Plugin openai bawaan mendaftarkan transkripsi realtime untuk Plugin Voice Call.

    Pengaturan Jalur konfigurasi Default
    Model plugins.entries.voice-call.config.streaming.providers.openai.model gpt-4o-transcribe
    Bahasa ...openai.language (belum disetel)
    Prompt ...openai.prompt (belum disetel)
    Durasi senyap ...openai.silenceDurationMs 800
    Ambang VAD ...openai.vadThreshold 0.5
    Kunci API ...openai.apiKey Fallback ke OPENAI_API_KEY
    Realtime voice

    Plugin openai bawaan mendaftarkan suara realtime untuk Plugin Voice Call.

    Pengaturan Jalur konfigurasi Default
    Model plugins.entries.voice-call.config.realtime.providers.openai.model gpt-realtime-1.5
    Suara ...openai.voice alloy
    Suhu ...openai.temperature 0.8
    Ambang VAD ...openai.vadThreshold 0.5
    Durasi senyap ...openai.silenceDurationMs 500
    Kunci API ...openai.apiKey Fallback ke OPENAI_API_KEY

    Endpoint Azure OpenAI

    Provider openai bawaan dapat menargetkan resource Azure OpenAI untuk pembuatan gambar dengan menimpa URL dasar. Pada jalur pembuatan gambar, OpenClaw mendeteksi hostname Azure pada models.providers.openai.baseUrl dan beralih ke bentuk permintaan Azure secara otomatis.

    Gunakan Azure OpenAI ketika:

    • Anda sudah memiliki langganan, kuota, atau perjanjian enterprise Azure OpenAI
    • Anda membutuhkan residensi data regional atau kontrol kepatuhan yang disediakan Azure
    • Anda ingin menjaga trafik tetap berada di dalam tenancy Azure yang sudah ada

    Konfigurasi

    Untuk pembuatan gambar Azure melalui provider openai bawaan, arahkan models.providers.openai.baseUrl ke resource Azure Anda dan setel apiKey ke kunci Azure OpenAI (bukan kunci OpenAI Platform):

    {
      models: {
        providers: {
          openai: {
            baseUrl: "https://<your-resource>.openai.azure.com",
            apiKey: "<azure-openai-api-key>",
          },
        },
      },
    }
    

    OpenClaw mengenali suffix host Azure berikut untuk rute pembuatan gambar Azure:

    • *.openai.azure.com
    • *.services.ai.azure.com
    • *.cognitiveservices.azure.com

    Untuk permintaan pembuatan gambar pada host Azure yang dikenali, OpenClaw:

    • Mengirim header api-key alih-alih Authorization: Bearer
    • Menggunakan path berscope deployment (/openai/deployments/{deployment}/...)
    • Menambahkan ?api-version=... ke setiap permintaan
    • Menggunakan timeout permintaan default 600 detik untuk panggilan pembuatan gambar Azure. Nilai timeoutMs per panggilan tetap menimpa default ini.

    URL dasar lain (OpenAI publik, proxy kompatibel OpenAI) mempertahankan bentuk permintaan gambar OpenAI standar.

    Versi API

    Setel AZURE_OPENAI_API_VERSION untuk mengunci versi preview atau GA Azure tertentu untuk jalur pembuatan gambar Azure:

    export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
    

    Default-nya adalah 2024-12-01-preview ketika variabel belum disetel.

    Nama model adalah nama deployment

    Azure OpenAI mengikat model ke deployment. Untuk permintaan pembuatan gambar Azure yang dirutekan melalui provider openai bawaan, field model di OpenClaw harus berupa nama deployment Azure yang Anda konfigurasikan di portal Azure, bukan id model OpenAI publik.

    Jika Anda membuat deployment bernama gpt-image-2-prod yang melayani gpt-image-2:

    /tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
    

    Aturan nama deployment yang sama berlaku untuk panggilan pembuatan gambar yang dirutekan melalui provider openai bawaan.

    Ketersediaan regional

    Pembuatan gambar Azure saat ini hanya tersedia di sebagian region (misalnya eastus2, swedencentral, polandcentral, westus3, uaenorth). Periksa daftar region Microsoft saat ini sebelum membuat deployment, dan pastikan model tertentu ditawarkan di region Anda.

    Perbedaan parameter

    Azure OpenAI dan OpenAI publik tidak selalu menerima parameter gambar yang sama. Azure dapat menolak opsi yang diizinkan OpenAI publik (misalnya nilai background tertentu pada gpt-image-2) atau mengeksposnya hanya pada versi model tertentu. Perbedaan ini berasal dari Azure dan model yang mendasarinya, bukan OpenClaw. Jika permintaan Azure gagal dengan error validasi, periksa set parameter yang didukung oleh deployment dan versi API spesifik Anda di portal Azure.

    Konfigurasi lanjutan

    Transport (WebSocket vs SSE)

    OpenClaw menggunakan WebSocket-first dengan fallback SSE ("auto") untuk openai/*.

    Dalam mode "auto", OpenClaw:

    • Mencoba ulang satu kegagalan WebSocket awal sebelum fallback ke SSE
    • Setelah kegagalan, menandai WebSocket sebagai degraded selama ~60 detik dan menggunakan SSE selama cool-down
    • Melampirkan header identitas sesi dan giliran yang stabil untuk percobaan ulang dan penyambungan ulang
    • Menormalkan penghitung penggunaan (input_tokens / prompt_tokens) di seluruh varian transport
    Nilai Perilaku
    "auto" (default) WebSocket lebih dulu, fallback SSE
    "sse" Paksa hanya SSE
    "websocket" Paksa hanya WebSocket
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { transport: "auto" },
            },
          },
        },
      },
    }
    

    Dokumen OpenAI terkait:

    Pemanasan WebSocket

    OpenClaw mengaktifkan pemanasan WebSocket secara default untuk openai/* guna mengurangi latensi giliran pertama.

    // Disable warm-up
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { openaiWsWarmup: false },
            },
          },
        },
      },
    }
    
    Mode cepat

    OpenClaw menyediakan toggle mode cepat bersama untuk openai/*:

    • Chat/UI: /fast status|on|off
    • Konfigurasi: agents.defaults.models["<provider>/<model>"].params.fastMode

    Saat diaktifkan, OpenClaw memetakan mode cepat ke pemrosesan prioritas OpenAI (service_tier = "priority"). Nilai service_tier yang ada dipertahankan, dan mode cepat tidak menulis ulang reasoning atau text.verbosity.

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { fastMode: true } },
          },
        },
      },
    }
    
    Pemrosesan prioritas (service_tier)

    API OpenAI menyediakan pemrosesan prioritas melalui service_tier. Tetapkan per model di OpenClaw:

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { serviceTier: "priority" } },
          },
        },
      },
    }
    

    Nilai yang didukung: auto, default, flex, priority.

    Compaction sisi server (Responses API)

    Untuk model OpenAI Responses langsung (openai/* di api.openai.com), pembungkus stream Pi-harness Plugin OpenAI otomatis mengaktifkan Compaction sisi server:

    • Memaksa store: true (kecuali kompatibilitas model menetapkan supportsStore: false)
    • Menyisipkan context_management: [{ type: "compaction", compact_threshold: ... }]
    • compact_threshold default: 70% dari contextWindow (atau 80000 saat tidak tersedia)

    Ini berlaku untuk jalur Pi harness bawaan dan untuk hook provider OpenAI yang digunakan oleh eksekusi tersemat. Harness app-server Codex native mengelola konteksnya sendiri melalui Codex dan dikonfigurasi secara terpisah dengan agents.defaults.agentRuntime.id.

    Aktifkan secara eksplisit

    Berguna untuk endpoint yang kompatibel seperti Azure OpenAI Responses:

    {
      agents: {
        defaults: {
          models: {
            "azure-openai-responses/gpt-5.5": {
              params: { responsesServerCompaction: true },
            },
          },
        },
      },
    }
    

    Ambang khusus

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: {
                responsesServerCompaction: true,
                responsesCompactThreshold: 120000,
              },
            },
          },
        },
      },
    }
    

    Nonaktifkan

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { responsesServerCompaction: false },
            },
          },
        },
      },
    }
    
    Mode GPT strict-agentic

    Untuk eksekusi keluarga GPT-5 di openai/*, OpenClaw dapat menggunakan kontrak eksekusi tersemat yang lebih ketat:

    {
      agents: {
        defaults: {
          embeddedPi: { executionContract: "strict-agentic" },
        },
      },
    }
    

    Dengan strict-agentic, OpenClaw:

    • Tidak lagi memperlakukan giliran yang hanya berisi rencana sebagai progres berhasil saat tindakan alat tersedia
    • Mencoba ulang giliran dengan arahan untuk bertindak sekarang
    • Otomatis mengaktifkan update_plan untuk pekerjaan substansial
    • Menampilkan status terblokir eksplisit jika model terus membuat rencana tanpa bertindak
    Rute native vs kompatibel dengan OpenAI

    OpenClaw memperlakukan endpoint OpenAI langsung, Codex, dan Azure OpenAI secara berbeda dari proxy /v1 generik yang kompatibel dengan OpenAI:

    Rute native (openai/*, Azure OpenAI):

    • Mempertahankan reasoning: { effort: "none" } hanya untuk model yang mendukung upaya OpenAI none
    • Menghilangkan reasoning yang dinonaktifkan untuk model atau proxy yang menolak reasoning.effort: "none"
    • Menjadikan skema alat default ke mode ketat
    • Melampirkan header atribusi tersembunyi hanya pada host native yang terverifikasi
    • Mempertahankan pembentukan permintaan khusus OpenAI (service_tier, store, kompatibilitas reasoning, petunjuk cache prompt)

    Rute proxy/kompatibel:

    • Menggunakan perilaku kompatibilitas yang lebih longgar
    • Menghapus Completions store dari payload openai-completions non-native
    • Menerima JSON pass-through lanjutan params.extra_body/params.extraBody untuk proxy Completions yang kompatibel dengan OpenAI
    • Menerima params.chat_template_kwargs untuk proxy Completions yang kompatibel dengan OpenAI seperti vLLM
    • Tidak memaksa skema alat ketat atau header khusus native

    Azure OpenAI menggunakan transport native dan perilaku kompatibilitas tetapi tidak menerima header atribusi tersembunyi.

    Terkait